Установка и настройка Claude Code для Ollama и llama.cpp, а также тарифы
Агентное кодирование, теперь с локальными моделями
Claude Code — это не просто автодополнение с лучшей маркетинговой упаковкой. Это агентный инструмент для программирования: он анализирует вашу кодовую базу, редактирует файлы, выполняет команды и интегрируется с вашими инструментами разработки.
Эта разница имеет значение, поскольку единица работы перестает быть «строкой кода» и становится «задачей с конечным состоянием».
Anthropic четко формулирует это различие: автодополнение кода предлагает следующую строку по мере набора, в то время как Claude Code работает на уровне проекта, планирует изменения в нескольких файлах, выполняет изменения, запускает тесты и итерирует решения при неудачах. На практике это делает его похожим на джуниор-разработчика, работающего в терминале, который может быстро выполнять рутинные задачи, но все еще нуждается в ревью.
Напряжение между скоростью и необходимостью надзора — это то, что люди часто вкладывают в понятие «вайб-кодинг» (vibe coding); Что такое вайб-кодинг? разбирает этот термин, его происхождение, а также то, как эффективность и риски выглядят на практике.

Есть один нюанс, который легко пропустить при беглом чтении документации: терминальный CLI (и интерфейс VS Code) можно настроить на использование сторонних провайдеров. Именно здесь на сцену выходят Ollama и llama.cpp.
Как только Claude Code направлен на локальный HTTP-эндпоинт, вопросы времени выполнения, аппаратного обеспечения и хостинга оказываются за пределами клиента; это сравнение хостинга LLM в 2026 году сводит в одном месте Ollama, специализированные стеки инференса и облачные опции.
Чтобы увидеть, как Claude Code вписывается в другие рабочие процессы AI-ассистентов и доставки, это руководство по инструментам разработчика на базе AI объединяет ассистентов в стиле Copilot, автоматизацию и паттерны работы с редакторами в одном месте.
Для обзорного сравнения ассистентов для написания кода в той же категории, Сравнение AI-ассистентов для кода проходит по Cursor, Copilot, Cline и остальным решениям на более высоком уровне, чем это руководство по установке.
Установка Claude Code и быстрый старт
Варианты установки и их последствия
Существует несколько путей установки, и они не равнозначны:
- Нативные скрипты установки — это опция «всегда актуальная версия», так как они автоматически обновляются.
- Homebrew и WinGet — это опция «контролируемых изменений», так как вы обновляетесь явно.
Команды установки (официальный быстрый старт):
# macOS, Linux, WSL
curl -fsSL https://claude.ai/install.sh | bash
# Windows PowerShell
irm https://claude.ai/install.ps1 | iex
:: Windows CMD
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
Затем запустите интерактивную сессию из папки проекта:
cd /path/to/your/project
claude
Вход и типы аккаунтов
Для работы в режиме первого лица (first-party mode) Claude Code требует аккаунт. Поток быстрого старта поддерживает вход через подписку Claude (Pro, Max, Team, Enterprise), аккаунт Console (кредиты API) или поддерживаемых облачных провайдеров. Полезное примечание для эксплуатации: при первом входе в Console создается рабочее пространство “Claude Code” для централизованного отслеживания затрат.
Настройка Claude Code: settings.json и переменные окружения
Если Claude Code кажется волшебным, когда он работает, то часто он кажется «загадочным», когда не работает. Лечение — понимание слоев конфигурации и нескольких переменных окружения, которые действительно важны.
Файлы настроек и приоритеты
Настройки Claude Code иерархичны, с тремя файлами, доступными разработчику:
- Пользовательский уровень, применяется везде: ~/.claude/settings.json
- Уровень проекта, общий в репозитории: .claude/settings.json
- Локальный уровень, переопределения для конкретной машины: .claude/settings.local.json (игнорируется git)
Приоритеты (от высшего к низшему): управляемая политика, флаги CLI, локальный, проект, пользователь. Этот порядок объясняет несколько моментов «почему моя конфигурация игнорируется».
Вы можете управлять настройками интерактивно через команду /config, которая открывает интерфейс настроек внутри REPL.
Переменные окружения, управляющие маршрутизацией провайдера
Поведение Claude Code можно направлять во время выполнения с помощью переменных окружения. Два странности поведения стоит рассматривать как ограничения дизайна:
-
Если установлена ANTHROPIC_API_KEY, Claude Code будет использовать этот ключ вместо подписки Claude, даже если вы вошли в систему. В режиме печати (-p) ключ всегда используется, если он присутствует.
-
Если ANTHROPIC_BASE_URL указывает на хост, не являющийся провайдером первого лица (прокси, шлюз или локальный сервер), некоторые функции намеренно консервативны. Например, поиск инструментов MCP отключен по умолчанию, если вы явно не включите его.
Для конкретной границы подписок, теперь применяемой в стеках агентов сторонних разработчиков, это обновление политики Claude для рабочих процессов OpenClaw объясняет, почему требуется использование, backed by API.
Минимальный паттерн «использовать шлюз» выглядит так:
export ANTHROPIC_BASE_URL=https://your-gateway.example
export ANTHROPIC_API_KEY=sk-your-key
Примечание по шлюзу: Claude Code ожидает определенные форматы API. Для формата Anthropic Messages шлюз должен экспортировать /v1/messages и /v1/messages/count_tokens и должен пробрасывать заголовки anthropic-beta и anthropic-version. Если шлюз отвергает эти заголовки, есть специальная настройка для отключения экспериментальных бетов.
Выбор модели в Claude Code, когда вы не используете Anthropic напрямую
Claude Code имеет концепцию псевдонимов (opus, sonnet, haiku) и также поддерживает привязку конкретных ID моделей. Также существует белый список, который может ограничивать выбор пользователей в селекторе моделей, даже при маршрутизации через сторонних провайдеров.
Прагматичный паттерн — установить начальную модель и ограничить селектор, затем привязать то, что «по умолчанию» разрешает через env:
{
"model": "claude-sonnet-4-5",
"availableModels": ["claude-sonnet-4-5", "haiku"],
"env": {
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-5"
}
}
Запуск локальных LLM через Ollama
Ollama в настоящее время является самым простым способом заставить Claude Code работать с моделями, не являющимися Anthropic, поскольку он предоставляет совместимый с Anthropic API для общения Claude Code.
Быстрая настройка с помощью ollama launch
Если у вас установлен и запущен Ollama, быстрый путь таков:
ollama launch claude
Или укажите модель при запуске:
ollama launch claude --model glm-4.7-flash
Ручная настройка с явными переменными окружения
Документация по интеграции Ollama описывает простое ручное подключение, где Claude Code общается с Ollama через эндпоинт API, совместимый с Anthropic:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model qwen3.5
Этот паттерн полезен тем, что он относит «маршрутизацию провайдера» к заботам об окружении, а не к чему-то, что вы кликаете в GUI.
Проверка реальности окна контекста
Агентное программирование требует много контекста. Ollama говорит об этом прямо: Claude Code требует большого окна контекста и рекомендует как минимум 64k токенов. Если ваша локальная модель ограничена 8k или 16k, Claude Code все равно будет работать, но обещание «уровня проекта» станет хрупким.
Для практического поведения локальных моделей в подобной настройке терминального агента (Ollama и llama.cpp, задачи по кодированию и честные заметки об ошибках), Лучшие LLM для OpenCode — протестировано локально полезно для перекрестной проверки, когда вы составляете список кандидатов GGUF или тегов Ollama для Claude Code.
Запуск локальных LLM через llama.cpp
llama.cpp привлекателен по противоположной причине: он не пытается быть платформой. Это быстрый, легкий сервер, который может экспортировать как совместимые с OpenAI маршруты, так и маршрут, совместимый с API Anthropic Messages.
Для путей установки, поведения llama-cli и llama-server за пределами приведенных ниже фрагментов, Быстрый старт llama.cpp с CLI и Server является сквозным справочником.
Что запустить на стороне сервера
HTTP-сервер llama.cpp (llama-server) поддерживает совместимый с Anthropic API Messages по адресу POST /v1/messages, со стримингом через SSE. Он также предлагает count_tokens по адресу /v1/messages/count_tokens.
Два нюанса важны для Claude Code:
- Сервер явно не делает сильных заявлений о полной совместимости со спецификацией API Anthropic, но утверждает, что работает достаточно хорошо для многих приложений.
- Использование инструментов требует запуска llama-server с флагом –jinja. Если вы пропустите это, Claude Code будет вести себя так, будто внезапно забыл, как быть агентом.
Минимальный локальный запуск выглядит так:
# Скомпилируйте или скачайте llama-server, затем запустите с моделью GGUF
./llama-server -m /models/your-model.gguf --jinja --host 127.0.0.1 --port 8080
Если вам нужна жесткая граница аутентификации, llama-server можно настроить с API-ключом:
./llama-server -m /models/your-model.gguf --jinja --api-key my-local-key --host 127.0.0.1 --port 8080
Направьте Claude Code на llama-server
При работающем сервере ваша сторона Claude Code в основном сводится к переопреждению базового URL:
export ANTHROPIC_BASE_URL=http://127.0.0.1:8080
export ANTHROPIC_API_KEY=my-local-key # только если вы включили --api-key на llama-server
claude --model your-model-alias
Если вы не установите API-ключ или токен аутентификации, Claude Code может попытаться вернуться к входу по подписке, что является источником многих жалоб «почему он открывает браузер».
Проверки здоровья и первичная диагностика сбоев
llama-server экспортирует простой эндпоинт здоровья, который возвращает «loading model» (загрузка модели), пока модель не будет готова, и «ok» (ок), когда она готова к использованию. Когда Claude Code кажется зависшим на первом запросе, проверка /health — быстрый способ отличить «ошибку конфигурации клиента» от «сервер все еще загружается».
Ценообразование и модель затрат
Ценообразование Claude Code меньше связано с «покупкой CLI» и больше с «какой биллинговый рельс поддерживает токены».
Планы подписки включают Claude Code
Anthropic включает Claude Code в платные tierы подписки Claude. По состоянию на апрель 2026 года опубликованные цены включают:
- Pro за $17 в месяц со скидкой при годовой оплате ($200 оплачиваются заранее), или $20 при ежемесячной оплате, и это включает Claude Code.
- Планы Max начинаются с $100 в месяц.
- Планы Team оцениваются за место, со стандартным местом за $20 за место в месяц при годовой оплате ($25 ежемесячно) и премиум-местом за $100 за место в месяц при годовой оплате ($125 ежемесячно).
Ценообразование токенов API
Если вы используете Claude Code через биллинг API, затраты следуют тарифам за токены. Anthropic публикует цены за миллион токенов (MTok) для таких моделей, как:
- Haiku 4.5 за $1/MTok вход и $5/MTok выход.
- Sonnet 4.5 за $3/MTok вход и $15/MTok выход.
- Opus 4.5 за $5/MTok вход и $25/MTok выход.
Контроль затрат в CLI
Режим печати (-p) поддерживает прямые лимиты бюджета, такие как –max-budget-usd, что удобно, когда вы скриптуете задачи и хотите предсказуемых расходов.
Внутри интерактивных сессий /cost показывает статистику использования токенов.
Локальные бэкенды меняют счет, но не физику
Маршрутизация Claude Code на Ollama или llama.cpp может убрать счета за токены API, но это не делает работу бесплатной. Вы меняете облачные затраты на локальные вычисления, память и «кто-то владеет аптаймом». Для некоторых команд эта сделка является всей точкой.
Типичный рабочий процесс: от плана к PR
Моя предвзятость такова, что Claude Code сильнее всего, когда вы относитесь к нему как к движку рабочего процесса, а не как к чат-боту. Инструменты намекают на это.
Начните с модели разрешений, а не с промпта
Claude Code спроектирован с ограничениями по разрешениям. Документы описывают поэтапную модель: операции только для чтения, такие как чтение файлов и grep, разрешены, тогда как команды bash и модификации файлов требуют одобрения.
Режимы разрешений существуют для управления трением. В CLI вы можете переключать режимы с помощью Shift+Tab (default -> acceptEdits -> plan). Режим Plan читает и предлагает изменения, но не редактирует. Режим acceptEdits позволяет Claude Code создавать и редактировать файлы в вашей рабочей директории без запросов, но все же запрашивает команды с побочными эффектами вне его безопасного списка.
Режим Auto — это более новая опция, которая уменьшает запросы, делегируя одобрения классификатору, позиционируясь как более безопасный средний путь между постоянными запросами и полным отключением запросов. Он требует минимальной версии Claude Code и конкретных требований к плану и модели.
Используйте встроенные команды, чтобы держать сессии честными
Несколько команд превращают Claude Code из «ассистента» в «инструментарий»:
- /init генерирует проектное руководство CLAUDE.md, что является легковесным способом подачи согласованного контекста. Для многоразовых плейбуков и повторяемых рабочих процессов, которые находятся выше
CLAUDE.md, Claude Skills для разработчиков охватывает макет SKILL.md, совместимость с IDE, настройку триггеров и тестирование. - /diff дает интерактивный вид изменений, включая диффы по ходам.
- /rewind позволяет откатить разговор и/или код к предыдущей точке, используя чекпоинты.
- /debug включает отладочное логирование в середине сессии.
- /doctor диагностирует и верифицирует вашу установку и настройки.
Это не уловки; это страховочные рельсы, на которые вы опираетесь, когда агент редактирует больше, чем вы ожидали.
Когда переходить в неинтерактивный режим
Для одноэтапных задач (объяснить, суммировать, сгенерировать план патча) режим печати — хороший выбор:
claude -p "Summarise the repository architecture and list the riskiest modules"
Он завершается после ответа, что хорошо работает в скриптах и CI.
Чек-лист по устранению неполадок
Большинство проблем с Claude Code — это проблемы с конфигурацией в маске. Вот чек-лист, который сопоставляет распространенные симптомы с лежащими в основе механизмами.
Claude Code продолжает запрашивать вход при использовании локального сервера
Это обычно означает, что Claude Code все еще пытается использовать аутентификацию подписки первого лица. Убедитесь, что вы установили явный режим аутентификации для прокси:
- Установите ANTHROPIC_API_KEY для шлюзов, ожидающих X-Api-Key.
- Или установите ANTHROPIC_AUTH_TOKEN для шлюзов, использующих Authorization Bearer.
Помните, что ANTHROPIC_API_KEY переопределяет использование подписки, даже если вы вошли в систему, и в интерактивном режиме вам может потребоваться одобрить это переопределение один раз.
Шлюз ошибается на заголовках anthropic-beta
Некоторые шлюзы отвергают неизвестные заголовки или поля беты. Для этого режима сбоя существует переменная окружения:
export CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1
Документация шлюза LLM также отмечает, что вам может потребоваться это при использовании формата Anthropic Messages с Bedrock или Vertex.
Вызов инструментов не работает на llama.cpp
Двойная проверка флагов сервера. Документация llama-server указывает, что использование инструментов требует флага –jinja. Без него сервер может отвечать, но агентный цикл деградирует.
Запросы разрешений прерывают каждую команду
Это может быть нормально, в зависимости от режима и правил разрешений. Опции включают:
- Временное переключение на acceptEdits (редактирование файлов течет быстрее).
- Написание явных правил разрешений для известных безопасных команд bash в settings.json.
- Использование /sandbox для изоляции инструмента bash, уменьшая запросы.
- Оценка режима auto, если ваш план и версия поддерживают его, как среднюю землю.
Что-то кажется не так, и вам нужна наблюдаемость
Используйте встроенные средства:
- /doctor для валидации установки и настроек.
- /debug для начала захвата логов с этой точки.
- Если вы в режиме печати, рассмотрите жесткий максимальный бюджет и максимальное количество ходов, чтобы держать эксперименты в рамках.
Позиция Claude Code как защищенного инструмента первого лица от Anthropic стала стратегически значимой в апреле 2026 года, когда Anthropic заблокировал доступ по подписке Claude для сторонних фреймворков агентов, сохранив Claude Code на биллинге подписки. Хронология взлета и падения OpenClaw охватывает это событие и то, что оно раскрывает о подходе Anthropic к инструментам первого лица по сравнению со сторонними инструментами.