OpenAI запустил Codex Security — ИИ ищет уязвимости без SAST

Пока мировые корпорации скупают лицензии на классические SAST-сканеры, OpenAI решила пойти против течения. 5 февраля 2026 года компания запустила программу Trusted Access for Cyber — систему доверенного доступа к новейшей модели GPT-5.3-Codex, заточенной под кибербезопасность. А спустя месяц, 16 марта, объяснила, почему её флагманский продукт Codex Security принципиально игнорирует традиционные отчёты статического анализа.
Я наблюдаю за рынком ИИ-инструментов для безопасности с 2023 года, и такой подход — это не просто маркетинговый трюк. Это попытка переосмыслить, как вообще нужно искать уязвимости в эпоху, когда модели могут работать автономно днями напролёт.
Что за GPT-5.3-Codex и почему он особенный
GPT-5.3-Codex — это не просто очередная версия кодогенератора. OpenAI позиционирует её как самую продвинутую модель рассуждений с максимальными возможностями в области кибербезопасности. Если предыдущие поколения могли автодополнить несколько строк кода в редакторе, то эта способна автономно работать часами или даже днями над сложными задачами — от поиска логических ошибок до анализа цепочек преобразований данных.
Компания обучила модель категорически отказывать в явно вредоносных запросах (типа «укради credentials»), но при этом разрешать амбивалентные кейсы вроде «найди уязвимости в моём коде». Потому что такой запрос может быть и честным пентестом, и подготовкой к атаке — разницу определяет контекст, а не формулировка.
Trusted Access: ИИ-безопасность через доверие, а не запреты
Сама программа Trusted Access for Cyber — это пилотная система, основанная на идентификации пользователей. Идея проста: вместо того чтобы душить возможности модели ограничениями для всех, OpenAI решила дать полный доступ сначала специалистам по защите, а потом уже всем остальным.
$10 миллионов в виде API-кредитов компания обещает раздать организациям, занимающимся киберзащитой. Это не благотворительность — это инвестиция в то, чтобы защитники получили преимущество перед атакующими. Потому что, как честно признаёт OpenAI, скоро «появится множество киберспособных моделей от разных поставщиков, включая модели с открытыми весами». Гонка началась, и важно, кто финиширует первым.
Пользователи могут подтвердить личность на chatgpt.com/cyber, предприятия — запросить корпоративный доступ. Пока система калибруется, даже добросовестных разработчиков могут задеть автоматические классификаторы подозрительной активности — OpenAI предупреждает об этом честно.
Почему Codex Security игнорирует SAST-отчёты
А вот тут начинается самое интересное. Codex Security — это конкретный продукт на базе той же модели, и он сознательно не начинает с импорта отчётов статического анализа. Вместо этого он стартует прямо с репозитория: изучает архитектуру, границы доверия, предполагаемое поведение — и только потом проверяет находки, прежде чем беспокоить человека.
Причина проста и болезненна для индустрии: самые опасные уязвимости обычно не связаны с потоками данных. Они возникают, когда код *вроде бы* выполняет проверку безопасности, но на деле не гарантирует то свойство, на которое опирается система.
Пример из практики: приложение получает JSON, извлекает `redirect_url`, проверяет его регулярным выражением, декодирует URL и передаёт обработчику. SAST видит цепочку «недоверенный ввод → валидация → декодирование → перенаправление» и считает, что всё ОК. Но реальный вопрос: продолжает ли регулярка ограничивать значение после URL-декодирования? Если проверка идёт до декодирования, а атакующий подсунет `%2F%2Fevil.com`, то после преобразования это станет `//evil.com` — и привет, open redirect.
SAST оптимизирован для анализа потоков данных, и в этом его сила и слабость. Он отлично отслеживает, куда движутся байты, но плохо понимает, *что означают* эти байты после каждого преобразования. Косвенные вызовы, динамическая диспетчеризация, колбэки, рефлексия — всё это превращает статический анализ в игру в угадайку.
Что умеет Codex Security, чего не умеет SAST
OpenAI делает ставку на семантический анализ. Модель смотрит не только на то, вызван ли `sanitize_html()`, но и на то, достаточно ли этого санитайзера для конкретного контекста рендеринга, шаблонного движка, правил кодирования и последующих преобразований.
Проблема не в том, достигают ли данные приёмника. Вопрос в том, ограничивают ли проверки в коде значение так, как система предполагает. Разница между «код вызывает санитайзер» и «система безопасна» — это разница между формальной корректностью и реальной защитой.
Codex Security разбирает всю цепочку преобразований: что допускает регулярка, как работают декодирование и нормализация, как парсер URL обрабатывает пограничные случаи, как логика перенаправления разбирает схему и адрес. Многие критичные уязвимости — это ошибки в порядке операций, частичная нормализация, неоднозначности при разборе.
Что это значит для рынка
Если OpenAI права, то мы наблюдаем тектонический сдвиг. Классические SAST-вендоры (Checkmarx, Veracode, Fortify) строили бизнес на том, что статический анализ — это единственный способ проверить код в масштабе. Теперь появляется альтернатива: модели, которые могут рассуждать о коде как человек-эксперт, но работают 24/7.
Для разработчиков это означает меньше ложных срабатываний и больше находок, которые действительно важны. Для SecOps-команд — возможность не тратить недели на триаж отчётов, а получать уже проверенные уязвимости с контекстом и предложениями по исправлению.
Для российских пользователей ситуация сложнее. OpenAI по-прежнему блокирует доступ из РФ, так что для использования Codex Security понадобится VPN и зарубежная карта для оплаты API. Альтернатива — ждать, пока аналогичные возможности появятся в Yandex GPT или GigaChat, но пока что отечественные модели заметно отстают в задачах code reasoning.
Риски и вопросы
OpenAI не скрывает главную проблему: трудно определить, предназначено ли кибердействие для обороны или атаки. Поэтому вся система Trusted Access построена на доверии — а это хрупкая штука. Что помешает атакующему получить доступ под видом исследователя безопасности?
Кроме того, модель пока калибруется. Автоматические классификаторы подозрительной активности могут срабатывать на легитимных пентестерах — и OpenAI честно об этом говорит. Это означает, что на старте будут ложные блокировки и фрустрация пользователей.
Но главный вопрос философский: если ИИ научится находить уязвимости лучше людей, как быстро эти же возможности окажутся в руках атакующих? OpenAI пытается выиграть время, раздавая кредиты защитникам, но модели с открытыми весами уже на подходе.
Итого
Trusted Access for Cyber и Codex Security — это не просто новые инструменты, а заявка на новую парадигму. OpenAI утверждает, что будущее кибербезопасности — не в статическом анализе потоков данных, а в семантическом понимании того, что код *на самом деле* делает.
Пока это пилот, и многие детали ещё туманны. Но если модель действительно умеет отлавливать логические ошибки в валидации и преобразованиях — а судя по описанию кейсов, умеет — то рынок SAST ждут непростые времена.
Информация подтверждена несколькими официальными публикациями OpenAI.
Источники
Похожие новости
ИИ научился взламывать браузеры: Claude Mythos против GPT-5.5
Исследователи CMU создали бенчмарк, где ИИ-агенты самостоятельно разрабатывают эксплойты для реальных уязвимостей. Mythos опережает GPT-5.5, но стоит в 12 раз дороже.
Ollama 0.24: Codex App теперь работает локально без подписки OpenAI
Ollama 0.24 интегрирует десктопный Codex App от OpenAI в локальный рантайм — одна команда, любая модель, ни одного токена в облаке.
xAI выпустила Grok Code Fast 1: агентное кодирование на скорости 92 токена/с
xAI представила специализированную модель для агентного кодирования с архитектурой MoE на 314 млрд параметров и рекордной скоростью генерации. Уже доступна в Cursor, GitHub Copilot и Windsurf.