앞에서 Ollama 등으로 실행중인 LLM 모델을 VsCode 의 Extension 을 활용하여 응용하는 내용에 대하여 살펴보았습니다. 이번에는 Linux CLI 환경에서 자유롭게 모델을 활용 가능한 opencode 에 대하여 살펴보겠습니다. Ubuntu 24 환경을 기준으로 진행하겠습니다.


Quick Start

Install

opencode 공식문서에서 설치 페이지를 방문합니다. 자신에게 적합한 운영체계 방식으로 설치작업을 진행합니다.

$ curl -fsSL https://opencode.ai/install | bash
$ cd /Coding/NewProject/
$ opencode

Project Root 폴더에서 opencode 를 실행하면 아래와 같이 작업환경이 실행되는 것을 볼 수 있습니다. 처음에는 연결된 모델이 없어서 LLM 작업에 활용할 모델을 Connect 해야 합니다.

2026-01-12 기준으로 [GLM 4.7 glm-4.7-free](https://opencode.ai/docs/zen/#endpoints) 모델을 무료로 사용 가능하도록 공개를 하고 있습니다. 무료로 공개되고 있지만 일시적으로 공개를 하고 있고, 민감정보를 유출할 가능성도 있어서 사용에 주의를 하여야 합니다.

이처럼 사용자가 모델에 대한 설정을 완료하면 작업 준비가 완료되었습니다. 프로젝트 폴더에서 Plan \ Build 모드를 선택한 뒤 적합한 모델을 선택하고 프롬프트를 입력하면 됩니다.

Setting Files

OPENCODE 의 기본 설정값은 다음과 같이 확인할 수 있습니다.

$ cat ~/.config/opencode/package.json  
{
  "dependencies": {
    "@opencode-ai/plugin": "1.1.15"
  }
}

LLM 모델에 대한 설정과 API Key 값은 다음과 같이 확인할 수 있습니다.

$ cat ~/.local/share/opencode/auth.json                 
{
  "google": {
    "type": "api",
    "key": "AI....."
  },
  "groq": {
    "type": "api",
    "key": "AI....."
  },
  "opencode": {
    "type": "api",
    "key": "sk-abcd...."
  },
  "zai-coding-plan": {
    "type": "api",
    "key": "1234...."
  }
}

Ollama Connect

Easy OLLAMA Setup with OpenCode in MINUTES 를 참고하여 On-Premise 에서 작동중인 Ollama 를 활용하는 방법에 대하여 살펴보겠습니다.

OPENCODE - providers 공식문서에서 제공하는 ollama 설정내용은 다음과 같습니다. opencode.json 를 프로젝트 폴더의 root 에 생성하면 프로젝트 단위로 다르게 적용할 수 있습니다.

$ nvim ~/.config/opencode/opencode.json
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "hf.co/TeichAI/Qwen3-8B-DeepSeek-v3.2-Speciale-Distill-GGUF:Q4_K_M": {
          "name": "Deepseek v3.2"
        }
      }
    }
  }
}