Программный агент Opencode для работы с ИИ.
Знакомство с OpenCode.
На самом деле - неправильно связывать только эту пару : программного агента OpenCode и провайдера доступа к AI моделям routerai.ru ... OpenCode выполняет собственные задачи, а routerai.ru - собственные (это лишь один вариант из типа табличных связей : многие ко многим) ... Просто я узнал об этой связке именно в такой комбинации, поэтому и решил изучить, почему именно так, и как может быть иначе ...
В этом материале больший упор сделан на краткое описание, что из себя представляет OpenCode. На самом деле я и сам пока не до конца осознаю, что такое агент кодирования OpenCode, и поэтому буду учиться вместе с вами. Это менеджер, оркестратор, который умеет создавать локальный проект и взаимодействовать с ним, общаться с пользователем, подключать субагентов по направлениям специализации и напрямую взаимодействовать с AI моделями через провайдеров.
Возможности OpenCode.
# Генерация и автодополнение кода. OpenCode может предлагать варианты завершения строк, функций или даже целых блоков кода на основе контекста проекта.
# Отладка. Агент помогает анализировать ошибки и предлагать исправления.
# Анализ кодовой базы. Можно задавать вопросы о структуре проекта, соглашениях по кодированию, используемых технологиях и т. д..
# Рефакторинг и оптимизация. OpenCode может предложить улучшения кода без изменения его функциональности.
# Автоматизация рабочих процессов. Агент поддерживает выполнение команд bash, установку пакетов, запуск тестов и сборку скриптов.
# Интеграция с LSP (Language Server Protocol). OpenCode автоматически определяет язык программирования и фреймворк проекта, запускает соответствующий LSP-сервер в фоновом режиме. Это позволяет агенту понимать зависимости, сигнатуры функций и места их использования.
# Поддержка множества провайдеров LLM. OpenCode работает с более чем 75 провайдерами языковых моделей, включая локальные модели (Ollama, LM Studio).
# Мультисессионность. Можно запускать несколько агентов параллельно в одном проекте, что позволяет одновременно работать над разными частями проекта.
# Совместная работа. OpenCode позволяет создавать общедоступные ссылки на сессии, чтобы делиться ими с коллегами для совместной работы или обсуждения.
Режимы работы. OpenCode имеет два встроенных режима работы, между которыми можно переключаться с помощью клавиши Tab:
# Build (по умолчанию). Режим с полным доступом к файловым операциям и системным командам. Подходит для активной разработки.
# Plan. Режим только для чтения, предназначенный для анализа и планирования. По умолчанию запрещает редактирование файлов и запрашивает подтверждение перед выполнением команд bash. Идеален для безопасного обзора кода и планирования изменений.
# Также есть специализированные суб-агенты (например, General для сложных поисков и многоэтапных задач, Explore для быстрого исследования кодовых баз).
Как взаимодействовать с OpenCode.
# Установка. Можно использовать скрипт установки: curl -fsSL https://opencode.ai/install | bash или менеджеры пакетов (npm, Homebrew и др.).
# Настройка провайдера LLM. После установки нужно добавить API-ключи провайдера с помощью команды /connect в TUI (текстовом пользовательском интерфейсе).
# Инициализация проекта. Перейти в папку проекта, запустить OpenCode и выполнить команду /init. Это проанализирует структуру проекта и создаст файл AGENTS.md в корне проекта. В этот файл можно добавить информацию о технологическом стеке, соглашениях по кодированию и других особенностях проекта, чтобы OpenCode лучше понимал контекст.
# Взаимодействие в TUI. После запуска OpenCode в терминале появится интерфейс с основной областью чата, вводом команд, строкой состояния и другими элементами. Можно задавать вопросы, просить помочь с задачами, использовать команды для управления сессией (например, /undo для отмены последнего изменения, /redo для повтора).
# Использование ссылок на файлы. Для нечёткого поиска файлов в проекте можно использовать символ @.
# Запуск команд bash. Чтобы выполнить команду и добавить её вывод в разговор, нужно префикснуть команду восклицательным знаком !. Например: !npm test.
# Совместная работа. Чтобы создать общедоступную ссылку на сессию, нужно использовать команду /share.
OpenCode также интегрируется с IDE (например, VS Code, Cursor) и GitHub, что позволяет использовать его в привычных рабочих процессах.
Как видно из команд по установке, OpenCode не предназначен явно работать в Windows, но как альтернатива предложено WSL2 или запуск из образа докера. В Linux версии программный агент сможет полноценно реализовать все заложенные функционалы ...
Флаги CLI (используются с командами).
--continue (-c) - продолжить последнюю сессию.
--session (-s) - указать ID сессии для продолжения.
--prompt - задать промпт для использования.
--model (-m) - указать модель в формате provider/model.
--agent - выбрать агента для использования.
--port - указать порт для прослушивания.
--hostname - указать имя хоста для прослушивания.
--refresh - обновить кэш моделей.
--verbose - включить подробный вывод.
--format - указать формат вывода (default или json).
--title - задать заголовок для сессии.
--attach - подключиться к работающему серверу OpenCode.
--days - показать статистику за последние N дней.
--tools - показать количество инструментов.
--models - показать разбивку использования моделей.
--project - отфильтровать по проекту.
Команды CLI (интерфейс командной строки).
opencode web - запустить сервер с веб‑интерфейсом. Пример: opencode web --port 4096 --hostname 0.0.0.0 ... Запускает веб‑сервер OpenCode с графическим пользовательским интерфейсом (GUI) вместо текстового интерфейса (TUI). После выполнения команды OpenCode становится доступен через браузер (запускается локальный HTTP‑сервер; загружается ядро OpenCode (агенты, плагины, настройки); открывается веб‑интерфейс, аналогичный TUI, но с расширенными возможностями визуализации; сохраняется вся функциональность OpenCode: работа с кодовой базой, генерация кода, рефакторинг, интеграция с LSP и т. д.). Опция --port 4096 рекомендуется, или любой другой, не занятый. Опция--hostname 0.0.0.0 определяет сетевой интерфейс привязки сервера (значение 0.0.0.0 означает - слушать все доступные сетевые интерфейсы, или указать IP адрес явно).
opencode - запустить OpenCode в TUI в текущей директории проекта.
MCP‑сервер (от Model Context Protocol) - это сервис‑посредник (открытый стандарт) между ИИ‑моделью и внешними инструментами / источниками данных. MCP‑сервер - это доступный инструмент в экосистеме AI‑агента (расширяет возможности агента за счёт актуальных данных и внешних инструментов; стандартизирует взаимодействие (один протокол вместо множества интеграций); обеспечивает безопасность и аудит (контроль доступа, журналирование).
/undo - отменить последнее изменение в коде.
@ - выполнить нечёткий поиск файлов в проекте.
Специальные сочетания клавиш:
Почему рекомендуется использовать WSL ? - Подсистема предоставляет Linux-среду, которая лучше работает с функциями OpenCode. Более высокая производительность файловой системы. Полная поддержка терминала. Совместимость с инструментами разработки, на которые опирается OpenCode.
TUI (текстовый пользовательский интерфейс) запускать в WSL необязательно - можно полностью работать через веб-интерфейс в браузере Windows. TUI - это альтернативный способ взаимодействия с OpenCode, но он не является обязательным при использовании WSL. TUI чаще используют в Linux‑среде, преследуя конкретные практические причины.
Можно запускать OpenCode в WSL2 и при этом открывать его графический интерфейс (GUI) через браузер в Windows по адресу localhost: Вы знаете, а я начинаю понимать эту технологию ... Очень похоже на запуск OpenWebRX радио в Windows WSL2 ... Теперь осталось добавить сюда Docker для быстрого развёртывания и за пару / тройку действий получаем готовую среду - лучше Ollama, равную или лучше Cursor - тут пока не скажу, надо потестировать ...
Примечание : NeoVim - программный режим (:), что это такое ? ... Сначала нужно понять, что такое - нормальный режим ... Нормальный режим - простое обычное редактирование текста, выполняет команду сразу, основа эффективной работы в Vim: команды позволяют быстро редактировать код - без мыши и без перехода в командный режим (:) ...
Командный режим - это сложные операции, настройки и внешние команды. Ввод через (двоеточие) : текстовая команда, подтверждение Enter - для выполнения (сохранение, выход, массовая замена, настройка интерфейса и интеграция с ОС). После выполнения команды, командный режим - автоматически переключается в нормальный режим.
Что это за сборка Continue + Neovim и почему это не работает ? ...
Суть этой таблицы : нет смысла работать с локальными ограниченными моделями на слабом ПК, а по сему - нет смысла равняться на агентов, оптимизированных для запуска ИИ моделей офлайн ... А какой смысл есть ? Облачные модели с платным доступом для предотвращения блокировки по лимиту токенов (даже на бесплатных моделях [!]) ...
curl -fsSL https://opencode.ai/install | bash строка установки в терминале WSL.
С какой моделью по умолчанию работает OpenCode - это Big Pickle, AI-модель от OpenCode Zen, оптимизированная для задач программирования.
Как это ни парадоксально и не поразительно, но действительно : агент OpenCode пытается проявлять самостоятельность и нестандартные подходы к обработке информации.
Конечно, желательно сразу указать (хотя бы) папку проекта и сообщить что мы будем работать с ним (как то) - это позволит агенту лучше (точнее) настроиться на текущее задание, особенно, если проектов не 1 (как у меня), а 10 - 20 одновременно (или - более) ... Но и такая фамильярная форма общения, благодаря LSP пониманию контекста - не мешает агенту хорошо разбираться в ситуации. Обязательно надо уточнить, что память агента - теряется между сессиями, и наилучший выход - оставить заметки на будущее. Например, попросить агента оставить себе примечание (для запуска следующей сессии) в одном из специальных файлов (note или tasks txt).
Уже сейчас можно однозначно заявить, что OpenCode - это немного иной, но - универсальный и аналогичный Cursor инструмент, способный работать, как самостоятельно, так и в связке с RouterAI или Ollama. Безусловно, всё познаётся в сравнении, и эта таблица позволит окончательно понять суть и различия платформ, провайдеров, инструментов и месте агентов программирования в этих цепочках и связях применения.
Теперь, получив основное понимание работы с OpenCode - можно применить Fine Tuning, используя опции запуска и ключи CLI командной строки / TUI интерфейса - для более утончённой и специфической настройки работы программного агента, для достижения наилучших результатов от целенаправленного взаимодействия с ним ...
На основе документации OpenCode, встроенной функции сохранения / загрузки сессий нет. Однако есть несколько вариантов:
Важно : при закрытии агента OpenCode, на экране терминала можно увидеть две строки ...
Для полноценного сохранения прогресса между перезагрузками, возможно, стоит использовать Git-коммиты, чтобы агент мог видеть изменения. Git - это система контроля версий. Она записывает историю изменений в файлах, позволяя:
# Как это работает: Есть репозиторий (папка с файлами) ... Идет работа с проектом, редактируются файлы ... Когда нужно сохранить состояние - нужно сделать commit (снимок) ... Все коммиты образуют историю ...
Как агент узнает, с каким проектом нужно работать ? - Нет никакой магии с сохранением состояния проекта между сессиями : просто всегда нужно запускать OpenCode агента из папки проекта.
Это основные сведения для быстрого входа в работу с ИИ моделями через программного агента OpenCode, в сравнении с иными вариантами, также доступными для самостоятельного изучения.
opencode run "промпт" - выполнить промпт без запуска TUI (здесь промпт - это тектовая строка вопроса / запроса информации).
opencode serve - запустить headless‑сервер OpenCode для API‑доступа.
opencode attach [url] - подключиться к уже запущенному серверу OpenCode (начиная с http и указывая : port).
opencode models [provider] - вывести список всех доступных моделей от настроенных провайдеров.
opencode stats - показать статистику использования.
opencode export [sessionID] - экспортировать данные сессии в JSON (если ID не указан, будет предложено выбрать из доступных).
opencode import
opencode mcp logout [name] - удалить OAuth‑учётные данные для MCP‑сервера.
opencode mcp debug
* AI‑агент это - мозг, а MCP‑сервер - рот, глаза и уши, которые дают доступ к реальному миру.
* Это мост, который позволяет ИИ: получать актуальные данные из баз, API, файлов и т. д.; выполнять действия во внешних системах (отправить сообщение, обновить запись, запустить скрипт).
* Без MCP ИИ работает только на основе своих внутренних знаний (часто устаревших) и не может взаимодействовать с реальным миром.
# Технически MCP использует протокол JSON‑RPC 2.0 и поддерживает транспорт через HTTP/2 или gRPC.
# Ключевые функции и преимущества. Унификация взаимодействия (единый интерфейс для разных ИИ‑моделей и внешних систем). Совместимость (вытекает из универсальности : запрос, работающий на одном MCP‑сервере, будет работать и на другом). Расширение возможностей ИИ. Безопасность и аудит. Гибкость и масштабируемость. Снижение издержек разработки.
(!) На текущий момент MCP-серверы (Model Context Protocol) активно внедряются в различные сферы, но их использование пока не достигло повсеместного распространения. Протокол MCP был разработан Anthropic в ноябре 2024 года, а уже в марте 2025 года его приняли за стандарт крупнейшие игроки AI сферы. Ограничения: внедрение требует вложений, риски безопасности и утечки данных, ошибки и галлюцинации ИИ, высокая стоимость обработки ИИ неоптимизированных данных МCP. Массовое распространение MCP-серверов пока ограничено техническими, организационными и безопасными аспектами, но у этой технологии прогнозируются значительные перспективы в будущем.
Основные команды в TUI (текстовый пользовательский интерфейс).
/redo - повторить отменённое изменение.
/model - выбрать или сменить используемую языковую модель.
/help - вывести справку по доступным командам.
/new - начать новый диалог/сессию.
/exit - выйти из OpenCode.
/init - инициализировать проект: проанализировать структуру и создать файл AGENTS.md в корне проекта.
/share - создать общедоступную ссылку на текущую сессию для совместной работы.
/connect - подключить API‑ключи провайдера LLM (Anthropic, OpenAI и т. д.).
# - сослаться на конкретный файл или директорию в запросе.
#tree - показать структуру проекта в виде дерева.
#context - просмотреть текущий контекст сессии (какие файлы загружены в память агента).
#clear - очистить контекст сессии.
#save - сохранить текущую сессию.
#load - загрузить сохранённую сессию.
#stats - показать статистику использования (запросы, токены, время).
#export - экспортировать данные сессии в JSON.
#import - импортировать данные сессии из JSON‑файла или URL.
#models - вывести список доступных языковых моделей.
#refresh - обновить кэш моделей с models.dev.
#tools - показать список доступных инструментов / плагинов.
#settings - открыть настройки OpenCode.
#version - показать версию OpenCode.
Tab - переключиться между режимами Plan (только чтение) и Build (полная разработка).
Ctrl+Esc (Windows/Linux) - открыть OpenCode в режиме split view (разделённый экран) в IDE [Cmd+Esc (Mac)].
#! - выполнить команду bash и добавить её вывод в разговор. Пример: #!npm test.
Какой интерфейс : TUI или GUI ?
* Минимальные требования к ресурсам.
* Работа в терминале - естественная среда для разработчиков, частое использование команд cd, ls, make, npm run build, gdb, strace, git status, git commit. TUI встраивается в этот рабочий процесс без переключения контекста.
* Удалённый доступ через SSH, opencode в TUI работает даже на headless‑серверах (без GUI).
* Автоматизация и скрипты, легкое встраивание TUI‑команд.
* Скорость и отзывчивость - TUI запускается почти мгновенно и реагирует без задержек, связанных с загрузкой веб‑страниц и рендерингом.
* Контроль и прозрачность - в TUI все действия видны в логах терминала.
opencode web --hostname 0.0.0.0 --port 4096 . Параметр --hostname 0.0.0.0 позволяет внешние подключения, то есть делает сервер доступным не только внутри WSL, но и из Windows.
opencode.ai +2
* Доступ из Windows: после запуска сервера OpenCode открыть в браузере Windows адрес http://localhost:4096 ... Если localhost не работает в конфигурации, можно использовать IP-адрес WSL (его можно узнать командой hostname -I в WSL) и подключаться по адресу http://
* Запуск opencode web из WSL обеспечивает корректный доступ к файловой системе и интеграцию с терминалом, при этом интерфейс остаётся доступным из браузера Windows.
Сравнение AI агентов для работы с ИИ.
Критерий.
Roo Code (продвинутый форк Cline).
Kilo Code.
Cline (Claude Dev).
Continue.
Neovim (Avante.nvim).
Zed Editor (встроенный AI Assistant).
OpenCode.
Примечание.
Тип.
AI‑ассистент для разработки (на базе Claude).
AI‑инструмент для генерации кода.
AI‑среда разработки (Claude).
Плагин AI для IDE.
Расширение для текстового редактора.
Встроенный AI в редакторе кода.
Облачная среда с AI.
Интеграция с IDE / редакторами.
VS Code, JetBrains (через форк).
VS Code, CLI.
Собственная среда.
VS Code, JetBrains, Neovim.
Только Neovim.
Только Zed Editor.
Веб‑интерфейс, интеграция с Git.
Continue и Neovim гибкие экосистемы (плагины, API, кастомные интеграции, работают с любыми редакторами и инструментами).
Поддержка языков программирования.
Широкий спектр.
Основные языки (Python, JS, Go, Rust).
Широкий спектр.
Все популярные языки.
Зависит от плагинов Neovim.
Широкая поддержка.
Многоязычная среда.
Возможности AI.
Генерация кода, рефакторинг, отладка, объяснения.
Генерация кода, автодополнение.
Полный цикл разработки с AI.
Автодополнение, рефакторинг, поиск ошибок.
Автодополнение, навигация, макросы с AI.
Контекстные подсказки, генерация кода.
Коллаборация, анализ кода, CI/CD.
Режимы работы (базовые).
* Code - повседневное кодирование
* Architect - планирование архитектуры
* Ask - быстрые ответы и объяснения
* Debug - отладка и поиск проблем.* Генерация кода
* Рефакторинг
* Автодополнение
* Контекстный поиск.* Plan - планирование задач
* Act - выполнение действий
* Контроль выполнения с подтверждением команд.* Локальная генерация кода
* Мульти‑модельные запросы
* Специализированные инструменты (дебаг, рефакторинг)
* Поддержка MCP.* Нормальный режим (редактирование)
* Визуальный режим (выделение)
* Командный режим (:)
* AI‑ассистированные макросы.* Inline AI - подсказки в строке кода
* Chat Mode - диалог с ассистентом
* Bulk Edit - массовое редактирование
* Context Aware - работа с контекстом проекта.* Plan - анализ кода (только чтение)
* Build - активная разработка с правками
* Debug - поиск и устранение ошибок
* Doc - генерация документации.
Режимы работы (расширенные).
* Возможность создания пользовательских личностей AI под роли (QA, PM и т. д.)
* Выбор LLM под задачу (75+ провайдеров).
* Headless Mode - автоматизация без UI (фоновый режим).
* Collaborative - совместная работа.
* CI/CD - интеграция с пайплайнами.# Roo Code и Kilo Code заимствуют части режимов друг у друга.
# OpenCode даёт максимальную гибкость выбора моделей под режим.
# Zed и Cline предлагают из коробки готовые сценарии работы.
Оффлайн‑режим.
Частично (зависит от модели).
Нет.
Частично.
Да (локальные модели).
Да.
Нет (облачный AI).
Нет.
Continue и Neovim подходят для офлайн‑разработки.
Кастомизация.
Высокая (форк Cline).
Средняя.
Ограниченная.
Очень высокая (плагины, конфиги).
Максимальная (Lua‑скрипты).
Низкая.
Средняя (веб‑интерфейс).
Neovim и Continue - лидеры по гибкости настройки.
Производительность.
Высокая.
Средняя.
Высокая.
Зависит от локальной модели.
Очень высокая.
Высокая (оптимизирован под Zed).
Зависит от сети.
Neovim - самый лёгкий; OpenCode - зависим от интернета.
Сообщество и поддержка.
Среднее (нишевое).
Малое.
Большое (экосистема Claude).
Активное (открытый код).
Большое (Neovim‑сообщество).
Растущее.
Среднее.
Cline, Continue, Neovim - лучшая поддержка.
Стоимость.
Бесплатно (OSS).
Бесплатно / Pro‑тарифы.
Подписка (Claude).
Бесплатно (OSS).
Бесплатно (OSS).
Бесплатно / Pro.
Бесплатно / Enterprise.
OSS‑решения (Neovim, Continue) - экономичны.
Преимущества.
Глубокая интеграция с Claude, гибкость форка.
Простота, быстрая генерация кода.
Полноценная AI‑среда, стабильность.
Локальные модели, кастомизация, мульти‑IDE.
Скорость, лёгкость, мощь Neovim.
Плавная интеграция AI, современный интерфейс.
Коллаборация в реальном времени, CI/CD.
Недостатки.
Зависимость от Claude, нишевая популярность.
Ограниченные AI‑функции, мало настроек.
Закрытая экосистема, подписка.
Требует настройки, нагрузка на локальные ресурсы.
Крутая кривая обучения для новичков.
Привязан к Zed, облачный AI.
Зависимость от сети, меньшая кастомизация.
Общий итог.
Бюджетное и открытое решение. Упор на специализацию: разные личности AI для разных ролей и задач.
Быстрый старт и простота. Базовый набор режимов для быстрой работы без сложной настройки.
Командная разработка с AI. Для глубокой AI‑интеграции без лишних настроек. Протокол MCP для чёткого разделения планирования и выполнения.
Бюджетное и открытое решение. Кастомные режимы через плагины и локальные модели.
Бюджетное и открытое решение. Классическая система режимов Vim, с расширением AI‑функционалом.
Быстрый старт и простота. Для глубокой AI‑интеграции без лишних настроек. Интеграция AI в стандартные действия редактора.
Командная разработка с AI. Ориентировано на мультиагентность и автоматизацию.
Для максимальной гибкости и офлайн‑работы: Continue + Neovim.
Критерий.
Roo Code.
Kilo Code.
Cline.
Continue.
Neovim.
Zed Editor.
OpenCode.
Примечание.
Клавиша Esc активирует нормальный режим.
* dd - вырезать (удалить) текущую строку в буфер обмена Vim. число перед командой 5dd - вырезать 5 строк начиная с текущей. Вырезанный текст можно вставить командой p или P.
* yy - скопировать (yank) текущую строку - копирует всю строку в буфер обмена Vim без удаления. 5yy - скопировать 5 строк.
* yw - скопировать одно слово.
* y$ - скопировать от курсора до конца строки.
* p - вставить скопированный (или вырезанный, из буфера обмена) текст после курсора.
* P (заглавная) - вставить перед курсором.
* u - отменить (undo) последнее действие / команду (можно нажимать многократно - отменяет действия по очереди). Для повтора отменённого действия нажать Ctrl+r. Полная отмена всех изменений в строке: U (заглавная).
* w - перейти к началу следующего слова (нажимать w - курсор перепрыгнет на следующее слово). 3w - перепрыгнуть через 3 слова.
* b - перейти к началу предыдущего слова.
* e - перейти к концу текущего слова.
* 0 (ноль) - перейти в начало текущей строки. $ - перейти в конец строки (противоположная команда).
* q: открыть историю команд (важно, здесь двоеточие после команды, это нормальный режим).
# :w сохранить файл.
# :q выход из редактора.
# :wq сохранить и выйти.
# :e filename открыть файл по имени.
# :%s/old/new/g заменить текст old на new во всем файле (массовая замена подстрок).
# :set number включить нумерацию строк (настройка интерфейса)
# :vsp file открыть файл в вертикальном разделении экрана (работа с несколькими файлами).
# :help topic открыть справку.
# :!ls выполнить команду оболочки (ls) (запуск внешних утилит)
# - Показывает вывод команды прямо в окне Vim.
# - При ошибке команды Vim покажет ошибку оболочки.
# - Приглашении Нажмите Enter для продолжения - возвращает в редактор для продолжения (после выполнения команды).
# Остается, OpenCode + провайдер ...
# Ничего из Ollama, LM Studio, Text Generation WebUI, vLLM, Hugging Face Transformers (фреймворк / библиотека) - также не требуется устанавливать и запускать, поскольку - не имеет смысла ...
Что такое.
Ollama - простой и легкий инструмент для запуска LLM локально и в облаке. В Windows - графический интерфейс (Ollama Desktop), в Linux/WSL - командная строка (CLI).
LM Studio - это десктопное приложение с графическим интерфейсом GUI для локального запуска и использования больших языковых моделей на ПК. Оно создано, чтобы упростить работу с LLM для пользователей без глубоких технических навыков.
Text Generation WebUI - веб‑интерфейс поддерживает много моделей и предоставляет удобный GUI.
vLLM - высокопроизводительный сервер для быстрого инференса, движок. Подходит, если нужна высокая скорость и работа с несколькими запросами одновременно.
Hugging Face Transformers (библиотека, фреймворк) + FastAPI / Flask (веб-фреймворки) - собрать собственный сервер для максимальной гибкости.
Использовать, если (выбор).
+ работа преимущественно в терминале;
+ нужно автоматизировать процессы;
+ используется WSL Windows (лучше интегрируется с Linux‑окружением);
+ требуется простой синтаксис команд. + удобнее работать с графическим интерфейсом GUI;
+ нужно эмулировать OpenAI API для других инструментов;
+ планы часто менять и тестировать разные модели через GUI. + мультимодальность,
+ плагины,
+ авто формат промптов,
+ ролевые сценарии и диалоги. + Высокая нагрузка и масштабирование.
+ Работа с длинными контекстами.
+ Оптимизация затрат на инфраструктуру.
+ Интеграция с Hugging Face. + Прототипирование и разработка.
+ Небольшой масштаб проекта.
+ Тонкая настройка моделей.
+ Мультимодальность : текст, компьютерное зрение, аудио и видео.
Плюсы.
простой синтаксис команд;
поддержка популярных моделей (Llama, Mistral, Gemma и др.);
работает из коробки.Простота - без командной строки или программирования.
Всё в одном интерфейсе.
Быстрый старт за 5 - 10 минут.
Открытый доступ, бесплатные модели.
Конфиденциальность, данные остаются на ПК.богатый функционал (квантование, LoRA, плагины);
веб‑интерфейс для чата и API;
поддержка GGUF, PyTorch и других форматов.высокая пропускная способность;
поддержка батчинга и PagedAttention;
совместимость с OpenAI API - легко мигрировать код.полный контроль над логикой;
легко интегрировать в существующий проект.
Минусы.
меньше настроек тонкой настройки по сравнению с другими решениями.
Ограниченная гибкость, меньше тонкой настройки.
Ресурсоёмкость, потребуется мощное железо и GPU.
Зависимость от GUI, автоматизация процессов затруднена по сравнению с API решениями.
Размер моделей, полные версии без квантования = десятки Гб.требует больше памяти и времени на настройку.
больше требований к GPU‑памяти;
сложнее в настройке для новичков.нужно писать код;
ручная оптимизация для производительности.
Установка.
с официального сайта ollama.ai
с официального сайта lmstudio.ai
git clone github.com / oobabooga / text-generation-webui.git
pip install vllm (python).
pip install transformers torch fastapi uvicorn установить зависимости, создать файл конфинурации server.py (python).
Запуск.
ollama serve
lms server start
bash start_linux.sh # для Linux
через python -m server, модель, имя модели.
uvicorn server:app --host 0.0.0.0 --port 8000
Загрузка модели.
ollama pull model
lms get model
Выбрать и загрузить модель через вкладку Model;
* Hugging Face (через установку зависимостей, регистрацию, токен доступа).
* vllm serve /path/ путь к локальной модели.
* docker run --model через докер контейнер.Через Python код скрипт для загрузки модели.
Доступ API.
http://localhost:11434
Совместим с OpenAI API (ключ требуется, но не используется).http://localhost:1234
Эмулирует API OpenAI.
имитирует endpoint / v1 / chat / completions
поддерживает формат function_callhttp://localhost:7860
OpenAI API совместимый.
поддерживает эндпоинты / chat / completions .
не поддерживает Function Calling.http://localhost:8000
OpenAI‑совместимый API. * нет встроенной поддержи OpenAI API.
* публичный доступ --host 0.0.0.0 откроет API для localhost (127.0.0.1) и IP адреса ПК в домашней сети.
* для внешнего доступа нужна утилита ngrok.
* также, uvicorn fastapi_app:app --host 0.0.0.0 --port 8000
* или, flask run --host 0.0.0.0 --port 5000 И всё-таки, OpenCode.
Перезапустить WSL терминал.
opencode - ввод каманды, Enter и непосредственно в окне WSL, вместо терминала - сразу начинает работать агент - в режиме чат (готов ответить на любые вопросы) ... Интересно ... И - просто ... Никаких дополнительных ключей или команд для запуска - не потребовалось ... Буквально сразу после старта я залип в этом агенте - часов на восемь ...
- Контекстное окно: 200,000 токенов.
- Максимальный вывод: 128,000 токенов.
- Цена: бесплатно (на данный момент, 02.2026).
- Возможности: генерация текста, вызов функций, продвинутое рассуждение (advanced reasoning).
:: Согласно GitHub issue, Big Pickle - это модель GLM-4.6 от Zhipu AI (китайская компания), адаптированная для работы в качестве coding agent. Модель хорошо справляется с анализом кода, документированием и планированием реализации. Сейчас она доступна бесплатно через OpenCode Zen.
# даю текстовую команду : создай папку проекта mzdec, больше ничего не делай, я сам положу туда файлы. Агент создает папку / home / user / mzdec и ожидает продолжения.
# копирую в папку python скрипт (программу) mdq4.py; в процессе работы дополнительно создаю файлы task.txt и log.txt что конечно не совсем по линукски, но нам обоим это вообще без разницы. поработав - выключаю агента, WSL и компьютер ... Однозначно - все сессии и оперативная память - обнулены и сброшены, и никаких специальных действий по конкретизации проекта - не проводилось ...
# через день, запускаю, спрашиваю : какой у нас текущий проект? ... агент смотрит директории, выбирает mzdec, смотрит файлы, и по остаткам записей делает выводы, что это - наш текущий проект ... Никто его этому - не учил, и как он это делает - понятия не имею ))) ...
Параметры
RouterAI
Ollama
OpenCode
Cursor
Суть.
Облачная платформа для централизованного доступа к AI‑моделям разных провайдеров через единый API.
Инструмент для локального запуска и работы с LLM на собственном оборудовании.
Открытый ИИ‑агент для разработки с поддержкой множества провайдеров и локальных моделей.
IDE на базе VS Code, оптимизированная для разработки с использованием ИИ.
Особенности.
Единый API, интеграция с IDE, командные функции, балансировка нагрузки.
Локальная обработка данных, поддержка RAG, простой CLI, кастомизация моделей.
Мультиплатформенность, готовые сценарии (recipes), LSP‑интеграция, открытый исходный код.
Глубокая интеграция ИИ в процесс разработки, контекстное понимание проекта, чат‑интерфейс.
Специализация.
Доступ к облачным моделям для разработчиков и команд.
Локальный запуск и эксперименты с LLM.
Упрощение входа в ИИ для новичков и гибкость для разработчиков.
Разработка ПО с ИИ‑ассистентом.
Интерфейс.
Веб‑интерфейс, API, интеграция с IDE.
CLI, локальный API, веб‑интерфейс (опционально).
GUI (настольное приложение), терминал, расширение для IDE.
Графический интерфейс IDE (похож на VS Code).
Работа Онлайн.
Да (полностью облачная платформа).
Нет (локальная работа), но может подключаться к онлайн‑сервисам.
Да и нет (гибкий выбор: локальные или облачные модели).
Да (требуется для доступа к облачным моделям).
Работа Офлайн.
Нет.
Да (полная автономность).
Да (при использовании локальных моделей через Ollama).
Ограниченно (только с локальными моделями, если настроены).
Продолжение последней сессии работы.
Да (история чатов сохраняется в облаке, можно вернуться к любому диалогу).
Ограниченно (зависит от способа запуска: в CLI‑режиме история не сохраняется автоматически; при использовании веб‑интерфейса - может сохраняться локально).
Да (сохраняет историю сессий локально; можно экспортировать в виде ссылки для просмотра, но без хранения на серверах).
Да (глубокая интеграция с проектом: сохраняет контекст файлов, изменения кода и историю чата в рамках проекта; легко продолжить работу с того же места).
Выбор AI моделей.
Модели от OpenAI, Anthropic, Google, DeepSeek и др. (через единый API).
Локальные модели из репозитория Ollama (Llama, Mistral, Gemma и др.).
75+ провайдеров + локальные модели через Ollama.
OpenAI, Anthropic и др. (настраивается через настройки).
Оплата.
Pay‑as‑you‑go (оплата за токены).
Бесплатно (открытый исходный код) локально ; облачный онлайн - ограничение по токенам или платный тариф.
Бесплатно (открытый исходный код), оплата только за использование облачных API.
Подписка (есть бесплатный план с ограничениями).
Выбор.
RouterAI - лучший выбор для команд, которым нужен стабильный доступ к облачным моделям с отказоустойчивостью и единым API.
Ollama - оптимальный вариант для локального запуска моделей, экспериментов и работы с конфиденциальными данными.
OpenCode - универсальный инструмент с открытым кодом: подходит новичкам (благодаря GUI и сценариям) и разработчикам (благодаря гибкости и LSP).
Cursor - специализированная IDE для разработки с глубокой интеграцией ИИ, ориентированная на программистов.
Отказоустойчивость.
Высокая (автоматическая балансировка нагрузки, резервные маршруты).
Зависит от локального оборудования.
Средняя (зависит от выбранного провайдера или локального оборудования).
Средняя (зависит от стабильности подключения к облачным API).
Приватность.
Низкая (данные передаются через облако).
Высокая (всё обрабатывается локально).
Высокая (контроль отправки данных, локальные модели).
Средняя (данные могут передаваться в облако в зависимости от настроек).
Кастомизация.
Ограниченная (настройка через API).
Высокая (тонкая настройка параметров моделей).
Высокая (открытый код, плагины, сценарии).
Средняя (настройки ИИ, шаблоны промтов).
API совместимость.
Совместим с OpenAI API.
Собственный API (совместим с OpenAI API для некоторых задач).
Поддерживает API разных провайдеров, включая OpenAI‑совместимый.
Внутренний API для интеграции с ИИ‑сервисами.
IDE интеграция.
Да (VS Code, Cursor, Zed и др.).
Через API (требуется настройка).
Да (расширения для VS Code и др.).
Встроена в среду (собственная IDE).
LSP интеграция.
Частичная (через IDE).
Нет.
Да (использует LSP для понимания контекста кода).
Да (глубокая интеграция для анализа кода).
RAG поддержка.
Нет.
Да (загрузка документов для контекста).
Да (через интеграцию с локальными моделями и плагинами).
Ограниченно (зависит от модели и настроек).
OpenCode Fine Tuning.
:: Share-ссылки - использовать команду /share, чтобы создать ссылку на текущий разговор. Можно сохранить эту ссылку и потом открыть её (при использовании desktop app или web), чтобы продолжить с того места.
:: AGENTS.md - рекомендуется закоммитить файл AGENTS.md в Git. Это поможет агенту понимать структуру проекта при каждом новом запуске.
:: Ручной подход - при каждом новом сеансе просто кратко описывать контекст: что делали, что уже сделано, что нужно сделать дальше (это как раз именно тот вариант, который я предлагал ранее).
Session NAME , агент автоматически присваивает название текущей сессии.
opencode -s ses_123ab456cdeF7ghIgklmnopRsT , это и есть главная подсказка, 26 значный идентификатор, и команда как запустить эту сессию для продолжения работы ... Но, кто же смотрит на экран - после завершения работы программы ? ))) ...
* Сохранять снимки (коммиты) - в любой момент можно сохранить текущее состояние файлов.
* Возвращаться к прошлым версиям.
* Видеть что изменилось.
# AGENTS.md - это файл в проекте, который агент читает при старте. Он содержит описание проекта, конвенции кода, инструкции. Когда происходит коммит - этот файл всегда доступен при каждом новом запуске агента.
# Минимальный набор команд для инструкций работы агента с проектом:
git init # создать репозиторий.
git add AGENTS.md # добавить файл (общая информация о проекте, структура, конвенции, как собирать / запускать).
git commit -m "add agents.md" # сохранить.
- Действительно, я уже сталкивался в Linux, с особенностью, когда запуск программы из определенной папки - делает эту папку - текущей. Похожее поведение при запуске окружения ENV из Python - сначала нужно CD перейти в папку окружения, и только затем запустить его (или сразу указать полный путь к ACTIVATE в команде запуска). В то же время, при взаимодействии Python с Win10 я сталкивался, когда файлы сохранялись - не в папке запуска, а в месте последнего каталога, который запоминает Win10 - создавая огромные проблемы неожиданного пропадания файлов и неочевидного поведения ...
- перейти cd /путь/к/проекту , это обязательное условие правильного авто выбора проекта при запуске.
- opencode , выполнить команду запуска из текущей директории.
- агент программирования видит все файлы в директории запуска (проекта), включая AGENTS.md и GIT комиты (это долгосрочный контекст проекта).
- однако, имеет смысл указать агенту правильные дополнительные подсказки, чтобы он лучше интегрировался и включился в работу. это делается через файлы задач TODO.md и текущих процессов PROGRESS.md ... Рекомендуется в простом текстовом виде (файл PROGRESS.md), 2 - 3 предложения, описать текущий краткосрочный контекст (на чём остановились, что делаем дальше) - это простой способ, а файлы TODO.md и PROGRESS.md также автоматически читаются и изучаются агентом при старте.