Ollama 0.24: Codex App теперь работает локально без подписки OpenAI

Тихая революция в одной строке терминала
Когда 14 мая 2026 года на GitHub появился релиз Ollama 0.24, большинство разработчиков ожидали очередной патч с исправлением багов. Вместо этого команда Ollama фактически перевернула модель работы с AI-агентами для кода: теперь Codex App — десктопный клиент OpenAI с браузером, аннотациями и code review — запускается локально одной командой без какой-либо подписки.
ollama launch codex-app
Эта строка теперь означает, что весь inference остаётся на вашей машине. Ни одного токена не улетает на серверы OpenAI.
Что изменилось: от инструмента к платформе агентов
До версии 0.24 Codex App был намертво привязан к OpenAI API — для работы требовался действующий ключ, исходящий трафик на `api.openai.com` и биллинг по токенам. Это автоматически означало либо подписку Plus/Pro, либо постоянные расходы на API. Теперь Ollama выступает как OpenAI-совместимый эндпоинт прямо на локальной машине, а Codex App просто не знает разницы.
Это не просто удобство — это смена концепции. Ollama перестала быть просто «инструментом для запуска моделей» и стала платформой для локальных AI-агентов. Codex App, Claude Code, OpenCode — все они теперь запускаются через `ollama launch`. Агент получает задачу, пишет план, выполняет шаги, запускает код и возвращает результат — без вашего участия на каждом этапе и без утечки данных за периметр.
Для тех, кто работает с кодом под NDA, в регулируемых отраслях или просто не хочет кормить чужие датацентры своими проприетарными репозиториями — это качественный скачок.
Что внутри Codex App
Codex App — это не плагин к IDE и не автодополнение строк. Это автономный агент с несколькими ключевыми компонентами:
Встроенный браузер — агент может загружать локальные серверы и сайты прямо в интерфейсе. Вы запустили dev-сервер на `localhost:3000` — Codex видит его, рендерит страницу, и вы можете буквально нарисовать поверх неё, что нужно изменить. Никаких скриншотов, никакого copy-paste в промпт.
Review Mode — код ревьюится прямо внутри приложения с inline-комментариями. Итерации происходят без переключения контекста между инструментами.
Worktree и git-интеграция — агент работает с параллельными ветками нативно, что особенно важно при выполнении нескольких задач одновременно.
Какую модель выбрать
Ollama 0.24 рекомендует конкретные модели под конкретные задачи — и это важная деталь:
Для сложных coding и agentic задач рекомендуются kimi-k2.6 (с поддержкой vision — то самое, что нужно для работы со встроенным браузером) и glm-5.1.
Для локального использования без подписки Ollama Cloud: nemotron-3-super, gemma4:31b и qwen3.6.
Здесь важно понимать контекст: kimi-k2.6 — это модель с мультимодальными возможностями, которая умеет «видеть» страницу в браузере и делать аннотации осмысленными. Gemma 4 на 31B и Qwen 3.6 — более экономичные варианты для машин без флагманских GPU. Gemma 4:31B потребует минимум 20-24 ГБ VRAM, так что на MacBook Air M2 с 16 ГБ придётся довольствоваться меньшими моделями или квантизацией.
Технические улучшения релиза
Помимо главной фичи, в 0.24 есть несколько технически важных изменений:
Переработанный MLX-сэмплер для Apple Silicon — заметно улучшает качество генерации на чипах серии M. Для пользователей Mac это означает более связный и предсказуемый код от модели без дополнительных настроек.
Исправлены проблемы с автообновлением Ollama App, добавлено кэширование ответов для команды `ollama show` — мелочи, но они складываются в более плавный повседневный опыт.
Для отката к предыдущей конфигурации Codex App предусмотрена команда `ollama launch codex-app --restore` — разработчики явно думали о тех, кто захочет поэкспериментировать и вернуться назад.
Мой взгляд: черновик, не финальный код
Я хочу сказать кое-что важное тем, кто сейчас побежит запускать Codex App и ждать магии. Факт, что агент «пишет код сам», не означает, что он пишет его правильно. На практике AI-агенты для кодинга регулярно игнорируют принципы SOLID, создают God Objects, смешивают логику в одном классе и генерируют рабочий, но архитектурно уродливый код.
Практическое правило: результат Codex App — это черновик, требующий ревью. Агент хорош на механической работе — бойлерплейт, покрытие тестами, рефакторинг по чёткому заданию. Архитектурные решения требуют вашего контроля. Описывайте ограничения прямо в промпте: «используй паттерн Repository, отдельный сервисный слой от контроллера, не клади бизнес-логику в entities».
Что это значит для рынка
Откровенно говоря, интеграция Ollama + Codex App — это прямой удар по модели монетизации OpenAI в сегменте coding-агентов. Cursor и GitHub Copilot держатся за счёт UX и глубокой IDE-интеграции. Но Codex App с локальными моделями через Ollama бьёт по самому болезненному месту — по стоимости и приватности.
Для российских разработчиков: Ollama работает полностью локально, никакого VPN не нужно, никаких иностранных карт не требуется. Модели скачиваются один раз — дальше всё offline. Это, пожалуй, самый важный практический вывод для нашей аудитории.
Информация о релизе подтверждена несколькими независимыми публикациями, что говорит о реальном резонансе события в developer-сообществе.
Похожие новости
ИИ научился взламывать браузеры: Claude Mythos против GPT-5.5
Исследователи CMU создали бенчмарк, где ИИ-агенты самостоятельно разрабатывают эксплойты для реальных уязвимостей. Mythos опережает GPT-5.5, но стоит в 12 раз дороже.
xAI выпустила Grok Code Fast 1: агентное кодирование на скорости 92 токена/с
xAI представила специализированную модель для агентного кодирования с архитектурой MoE на 314 млрд параметров и рекордной скоростью генерации. Уже доступна в Cursor, GitHub Copilot и Windsurf.
xAI открыл ранний доступ к Grok Build: строим приложения на Grok
xAI запустила закрытую бету Grok Build — платформы для разработчиков, которая позволяет создавать приложения и агентов на базе моделей Grok. Это прямой вызов OpenAI Platform и Google AI Studio.