Быстрый старт с OpenCode: установка, настройка и использование агента ИИ для кодирования в терминале
Как установить, настроить и использовать OpenCode
OpenCode — это агент для программирования на базе ИИ с открытым исходным кодом, который можно запускать в терминале (TUI + CLI) с дополнительными интерфейсами для рабочего стола и IDE. Это руководство по быстрому старту OpenCode Quickstart: установка, проверка, подключение модели/провайдера и запуск рабочих процессов (CLI + API).
Примечание по версиям: OpenCode выпускается быстро. Приведенные здесь команды «последней версии» стабильны, но вывод и значения по умолчанию могут изменяться — всегда сверяйтесь с официальной документацией CLI и журналом изменений (ссылки ниже).
Эта статья является частью руководства Инструменты для разработчиков ИИ: полное руководство по разработке с использованием ИИ.
Что такое OpenCode (и где он находится в экосистеме)
OpenCode предназначен для агентного программирования с упором на терминал, при этом оставаясь гибким в отношении провайдеров и моделей. На практике это слой рабочих процессов, который может:
- запускать пользовательский интерфейс терминала при выполнении команды
opencode - выполнять неинтерактивные «одноразовые» запросы через
opencode run(скрипты/автоматизация) - предоставлять безголовый HTTP-сервер через
opencode serve(и веб-интерфейс черезopencode web) - управляться программно через официальный JS/TS SDK
@opencode-ai/sdk
Если вы хотите сравнить его с другим агентом с открытым исходным кодом, способным выполнять многоэтапные планы в изолированной среде, см. Руководство по быстрому старту OpenHands Coding Assistant.
Для агента Anthropic с упором на терминал с аналогичной историей «локальной модели через HTTP» (Ollama или llama.cpp, разрешения, цены), см. Установка и настройка Claude Code для Ollama, llama.cpp, цены.

Предварительные требования
Вам понадобятся:
- Современный эмулятор терминала (важно для опыта работы с TUI).
- Доступ хотя бы к одной модели/провайдеру (API-ключи или авторизация по подписке, в зависимости от провайдера). Локальные варианты, такие как Ollama или llama.cpp, работают без API-ключей, если вы запускаете совместимый сервер локально.
Установка OpenCode (копировать-вставить)
Официальный скрипт установки (Linux/macOS/WSL):
curl -fsSL https://opencode.ai/install | bash
Варианты с помощью менеджеров пакетов (официальные примеры):
# Глобальная установка Node.js
npm install -g opencode-ai
# Homebrew (рекомендуется OpenCode для получения самых актуальных релизов)
brew install anomalyco/tap/opencode
# Arch Linux (stable)
sudo pacman -S opencode
# Arch Linux (последняя версия из AUR)
paru -S opencode-bin
Примечания для Windows (официальные рекомендации часто советуют использовать WSL для лучшей совместимости). В качестве альтернатив можно использовать Scoop/Chocolatey или npm.
# chocolatey (Windows)
choco install opencode
# scoop (Windows)
scoop install opencode
Docker (полезно для быстрого тестирования):
docker run -it --rm ghcr.io/anomalyco/opencode
Проверка установки
opencode --version
opencode --help
Ожидаемый формат вывода (может различаться в зависимости от версии):
# Пример:
# <выводит номер версии, например vX.Y.Z>
# <выводит справку с доступными командами/подкомандами>
Подключение провайдера (два практических пути)
Путь A: TUI /connect (интерактивно)
Запустите OpenCode:
opencode
Затем выполните:
/connect
Следуйте шагам интерфейса, чтобы выбрать провайдера и пройти аутентификацию (некоторые процессы открывают браузер/устройство для входа).
Путь B: CLI opencode auth login (ключи провайдера)
OpenCode поддерживает настройку провайдеров через:
opencode auth login
Примечания:
- Учетные данные хранятся в
~/.local/share/opencode/auth.json. - OpenCode также может загружать ключи из переменных окружения или файла
.envв вашем проекте.
Локальный хостинг LLM (Ollama, llama.cpp)
OpenCode работает с любым API, совместимым с OpenAI. Для локальной разработки многие пользователи запускают Ollama и настраивают OpenCode на работу с ним. Недавно у меня был очень хороший опыт настройки и запуска OpenCode с использованием llama.cpp вместо этого — сервер llama-server предоставляет конечные точки, совместимые с OpenAI, поэтому вы можете использовать модели GGUF с тем же рабочим процессом. Если вы предпочитаете более детальный контроль над памятью и временем выполнения или хотите более легкий стек без Python (кстати, Ollama реализован на Go), llama.cpp стоит попробовать. Мне очень понравилось возможность настройки выгруженных слоев, удобство использования моделей в формате GGUF и гораздо лучшая/более быстрая реализованная совместимость с новыми моделями, такими как Qwen3.5. Если вы хотите узнать, какие модели действительно хорошо работают внутри OpenCode — в задачах по кодированию и точности структурированного вывода — см. мое практическое сравнение LLM для OpenCode.
Правильный запуск проекта (рекомендуемый первый запуск)
Из вашей репозитории:
cd /path/to/your/repo
opencode
Затем инициализируйте:
/init
Это анализирует ваш проект и создает файл AGENTS.md в корне проекта. Обычно полезно закоммитить этот файл, чтобы OpenCode (и коллеги по команде) имели общий контекст проекта.
Основные рабочие процессы CLI (примеры для копирования)
OpenCode поддерживает неинтерактивные запуски:
opencode run "Explain how closures work in JavaScript"
Рабочий процесс: генерация кода (CLI)
Цель: сгенерировать небольшую тестируемую функцию с минимальным контекстом.
opencode run "Write a Go function ParsePort(envVar string, defaultPort int) (int, error). It should read the env var, parse an int, validate 1-65535, and return defaultPort if empty. Include 3 table-driven tests."
Ожидаемый вывод:
- Объяснение плюс блоки кода (функция + тесты). Точный код варьируется в зависимости от модели/провайдера и промпта.
Рабочий процесс: безопасное рефакторинг файла (CLI + агент Plan)
Цель: рефакторинг без случайных изменений с использованием более ограничительного агента.
opencode run --agent plan --file ./src/auth.ts \
"Refactor this file to reduce complexity. Output: (1) a short plan, (2) a unified diff patch, (3) risks/edge-cases to test. Do not run commands."
Ожидаемый вывод:
- Раздел с планом + блок патча
diff --git ...+ чек-лист тестов. - Содержание варьируется. Если не генерируется diff, запросите повторно: «Вернуть только unified diff» или «Использовать формат
diff --git».
Рабочий процесс: вопросы по репозиторию (CLI)
Цель: быстро найти детали реализации.
opencode run --agent explore \
"In this repository, where is authentication validated for API requests? List likely files and explain the flow. If uncertain, say what you checked."
Ожидаемый вывод:
- Краткая карта путей к файлам + описание потока.
- Вывод зависит от размера репозитория и инструментов контекста модели/провайдера.
Рабочий процесс: ускорение повторных запусков CLI с помощью постоянного сервера
Если вы пишете скрипты или запускаете несколько вызовов opencode run, вы можете запустить безголовый сервер один раз:
Терминал 1:
opencode serve --port 4096 --hostname 127.0.0.1
Терминал 2:
opencode run --attach http://localhost:4096 "Summarize the repo structure and main entrypoints."
opencode run --attach http://localhost:4096 "Now propose 3 high-impact refactors and why."
Ожидаемый вывод:
- Тот же, что и
opencode run, но обычно с меньшими накладными расходами на повторный запуск.
Программное использование (официальный JS/TS SDK)
OpenCode предоставляет HTTP-сервер (OpenAPI) и типобезопасный клиент JS/TS.
Установка:
npm install @opencode-ai/sdk
Пример: запуск сервера + клиента, затем промпт
Создайте scripts/opencode-sdk-demo.mjs:
import { createOpencode } from "@opencode-ai/sdk";
const opencode = await createOpencode({
hostname: "127.0.0.1",
port: 4096,
config: {
// Формат строки модели: provider/model (только пример)
// model: "anthropic/claude-3-5-sonnet-20241022",
},
});
console.log(`Server running at: ${opencode.server.url}`);
// Базовая проверка здоровья/версии
const health = await opencode.client.global.health();
console.log("Healthy:", health.data.healthy, "Version:", health.data.version);
// Создание сессии и промпт
const session = await opencode.client.session.create({ body: { title: "SDK quickstart demo" } });
const result = await opencode.client.session.prompt({
path: { id: session.data.id },
body: {
parts: [{ type: "text", text: "Generate a small README section describing this repo." }],
},
});
console.log(result.data);
// Закрытие сервера по завершении
opencode.server.close();
Запуск:
node scripts/opencode-sdk-demo.mjs
Ожидаемый формат вывода:
- «Server running at …»
- Ответ о состоянии здоровья, включающий строку версии
- Объект ответа промпта сессии (точная структура зависит от
responseStyleи версии SDK)
Минимальная конфигурация OpenCode для копирования
OpenCode поддерживает конфигурацию JSON и JSONC. Это разумная отправная точка для локальной конфигурации проекта.
Создайте opencode.jsonc в корне репозитория:
{
"$schema": "https://opencode.ai/config.json",
// Выберите модель по умолчанию (provider/model). Держите это в согласии с тем, что показывает `opencode models`.
"model": "provider/model",
// Опционально: более дешевая «маленькая модель» для легких задач (заголовки и т.д.)
"small_model": "provider/small-model",
// Опционально: значения по умолчанию для сервера OpenCode (используется serve/web)
"server": {
"port": 4096,
"hostname": "127.0.0.1"
},
// Опциональная безопасность: требовать подтверждения перед редактированием/командами
"permission": {
"edit": "ask",
"bash": "ask"
}
}
Краткая шпаргалка (быстрая справка)
Команды, которые вы будете использовать ежедневно
opencode # запустить TUI
opencode run "..." # неинтерактивный запуск (автоматизация)
opencode run --file path "..." # прикрепить файлы к промпту
opencode models --refresh # обновить список моделей
opencode auth login # настроить учетные данные провайдера
opencode serve # безголовый HTTP-сервер (OpenAPI)
opencode web # безголовый сервер + веб-интерфейс
opencode session list # список сессий
opencode stats # статистика токенов/стоимости
Команды TUI, которые стоит запомнить
/connect # подключить провайдера
/init # проанализировать репозиторий, сгенерировать AGENTS.md
/share # поделиться сессией (если включено)
/undo # отменить изменение
/redo # повторить изменение
/help # справка/горячие клавиши
Концепция «лидер-ключа» по умолчанию (TUI)
OpenCode использует настраиваемую «лидер-клавишу» (обычно ctrl+x), чтобы избежать конфликтов в терминале. Многие сочетания клавиш — это «Leader + клавиша».
Одностраничная печатная таблица-шпаргалка OpenCode
Эта версия намеренно плотная и «удобная для печати». (Вы можете вставить ее на отдельную страницу /ai-devtools/opencode/cheatsheet/ позже.)
| Задача | Команда / сочетание | Примечания |
|---|---|---|
| Запустить TUI | opencode |
Поведение по умолчанию — запуск интерфейса терминала |
| Запустить одноразовый промпт | opencode run "..." |
Неинтерактивный режим для скриптов/автоматизации |
| Прикрепить файл(ы) к промпту | opencode run --file path/to/file "..." |
Используйте несколько флагов --file для нескольких файлов |
| Выбрать модель для запуска | opencode run --model provider/model "..." |
Строки модели имеют формат provider/model |
| Выбрать агента | opencode run --agent plan "..." |
План разработан для более безопасной работы «без изменений» (с ограничением разрешений) |
| Список моделей | opencode models [provider] |
Используйте --refresh для обновления кэшированного списка |
| Настроить учетные данные провайдера | opencode auth login |
Хранит учетные данные в ~/.local/share/opencode/auth.json |
| Список аутентифицированных провайдеров | opencode auth list / opencode auth ls |
Подтверждает, что видит OpenCode |
| Запустить безголовый сервер | opencode serve --port 4096 --hostname 127.0.0.1 |
Спецификация OpenAPI по адресу http://host:port/doc |
| Прикрепить запуски к серверу | opencode run --attach http://localhost:4096 "..." |
Полезно для избежания повторных холодных загрузок |
| Включить базовую аутентификацию | OPENCODE_SERVER_PASSWORD=... opencode serve |
Имя пользователя по умолчанию opencode, если не переопределено |
| Режим веб-интерфейса | opencode web |
Запускает сервер + открывает браузер |
| Экспорт сессии | opencode export [sessionID] |
Полезно для архивирования или обмена контекстом |
| Импорт сессии | opencode import session.json |
Также можно импортировать из URL общего доступа |
| Просмотр глобальных флагов CLI | opencode --help / opencode --version |
--print-logs + --log-level для отладки |
| Концепция лидер-ключа TUI | лидер-ключ по умолчанию часто ctrl+x |
Настраивается в tui.json |
Oh My Opencode — выведите OpenCode на новый уровень с оркестрацией мультиагентов
После запуска OpenCode естественным следующим шагом является Oh My Opencode — плагин сообщества, который оборачивает OpenCode в мультиагентную обертку. Основная идея: введите ultrawork (или ulw) в сессии, и оркестратор (Sisyphus) возьмет управление на себя, делегируя подзадачи специализированным агентам, которые работают параллельно, каждый на семействе моделей, под которые настроены их промпты.
Три статьи подробно освещают эту тему:
-
Oh My Opencode Quickstart
Установите черезbunx oh-my-opencode install, настройте провайдеров и запустите свою первую задачу ultrawork менее чем за десять минут. -
Specialised Agents Deep Dive
Все 11 агентов объяснены — Сизиф, Гефест, Оракул, Прометей, Библиотекарь и другие — с маршрутизацией моделей, цепочками резервного копирования и практическими рекомендациями для локальных моделей. -
Oh My Opencode Experience: Honest Results and Billing Risks
Реальные бенчмарки, инцидент с бесконечным циклом Gemini на сумму $350 и четкий вердикт о том, когда OMO оправдывает свои накладные расходы.
OpenCode был одним из первых инструментов, затронутых политикой Anthropic по блокировке доступа сторонних подписок к Claude — шаг, сделанный в январе 2026 года, за месяц до того, как аналогичное ограничение коснуло OpenClaw. Хронология взлета и падения OpenClaw документирует оба события и более широкий паттерн, который они представляют для агентных инструментов, построенных на вычислениях по подписке.
Источники (сначала официальные)
Официальные:
- Документация OpenCode (Введение, CLI, Конфиг, Сервер, SDK): https://opencode.ai/docs/
- Журнал изменений OpenCode: https://opencode.ai/changelog
- Официальный репозиторий GitHub: https://github.com/anomalyco/opencode
- Релизы: https://github.com/anomalyco/opencode/releases
Авторитетная ссылка на интеграцию:
- GitHub Changelog (Copilot поддерживает OpenCode): https://github.blog/changelog/2026-01-16-github-copilot-now-supports-opencode/
Авторитетные сравнения/туториалы:
- DataCamp: OpenCode vs Claude Code (2026): https://www.datacamp.com/blog/opencode-vs-claude-code
- Builder.io: OpenCode vs Claude Code (2026): https://www.builder.io/blog/opencode-vs-claude-code
- freeCodeCamp: Интеграция ИИ в ваш терминал с использованием OpenCode: https://www.freecodecamp.org/news/integrate-ai-into-your-terminal-using-opencode/