OpenAI
Генерация кодаOpenAIGPT-5.3-CodexCodex SecurityкибербезопасностьSASTTrusted Access

OpenAI запустил Codex Security — ИИ ищет уязвимости без SAST

Сергей Сергеев, редактор gen-hub.ru
Сергей Сергеев
Редактор gen-hub.ru
·5 мин чтения
OpenAI запустил Codex Security — ИИ ищет уязвимости без SAST

Пока мировые корпорации скупают лицензии на классические SAST-сканеры, OpenAI решила пойти против течения. 5 февраля 2026 года компания запустила программу Trusted Access for Cyber — систему доверенного доступа к новейшей модели GPT-5.3-Codex, заточенной под кибербезопасность. А спустя месяц, 16 марта, объяснила, почему её флагманский продукт Codex Security принципиально игнорирует традиционные отчёты статического анализа.

Я наблюдаю за рынком ИИ-инструментов для безопасности с 2023 года, и такой подход — это не просто маркетинговый трюк. Это попытка переосмыслить, как вообще нужно искать уязвимости в эпоху, когда модели могут работать автономно днями напролёт.

Что за GPT-5.3-Codex и почему он особенный

GPT-5.3-Codex — это не просто очередная версия кодогенератора. OpenAI позиционирует её как самую продвинутую модель рассуждений с максимальными возможностями в области кибербезопасности. Если предыдущие поколения могли автодополнить несколько строк кода в редакторе, то эта способна автономно работать часами или даже днями над сложными задачами — от поиска логических ошибок до анализа цепочек преобразований данных.

Компания обучила модель категорически отказывать в явно вредоносных запросах (типа «укради credentials»), но при этом разрешать амбивалентные кейсы вроде «найди уязвимости в моём коде». Потому что такой запрос может быть и честным пентестом, и подготовкой к атаке — разницу определяет контекст, а не формулировка.

Trusted Access: ИИ-безопасность через доверие, а не запреты

Сама программа Trusted Access for Cyber — это пилотная система, основанная на идентификации пользователей. Идея проста: вместо того чтобы душить возможности модели ограничениями для всех, OpenAI решила дать полный доступ сначала специалистам по защите, а потом уже всем остальным.

$10 миллионов в виде API-кредитов компания обещает раздать организациям, занимающимся киберзащитой. Это не благотворительность — это инвестиция в то, чтобы защитники получили преимущество перед атакующими. Потому что, как честно признаёт OpenAI, скоро «появится множество киберспособных моделей от разных поставщиков, включая модели с открытыми весами». Гонка началась, и важно, кто финиширует первым.

Пользователи могут подтвердить личность на chatgpt.com/cyber, предприятия — запросить корпоративный доступ. Пока система калибруется, даже добросовестных разработчиков могут задеть автоматические классификаторы подозрительной активности — OpenAI предупреждает об этом честно.

Почему Codex Security игнорирует SAST-отчёты

А вот тут начинается самое интересное. Codex Security — это конкретный продукт на базе той же модели, и он сознательно не начинает с импорта отчётов статического анализа. Вместо этого он стартует прямо с репозитория: изучает архитектуру, границы доверия, предполагаемое поведение — и только потом проверяет находки, прежде чем беспокоить человека.

Причина проста и болезненна для индустрии: самые опасные уязвимости обычно не связаны с потоками данных. Они возникают, когда код *вроде бы* выполняет проверку безопасности, но на деле не гарантирует то свойство, на которое опирается система.

Пример из практики: приложение получает JSON, извлекает `redirect_url`, проверяет его регулярным выражением, декодирует URL и передаёт обработчику. SAST видит цепочку «недоверенный ввод → валидация → декодирование → перенаправление» и считает, что всё ОК. Но реальный вопрос: продолжает ли регулярка ограничивать значение после URL-декодирования? Если проверка идёт до декодирования, а атакующий подсунет `%2F%2Fevil.com`, то после преобразования это станет `//evil.com` — и привет, open redirect.

SAST оптимизирован для анализа потоков данных, и в этом его сила и слабость. Он отлично отслеживает, куда движутся байты, но плохо понимает, *что означают* эти байты после каждого преобразования. Косвенные вызовы, динамическая диспетчеризация, колбэки, рефлексия — всё это превращает статический анализ в игру в угадайку.

Что умеет Codex Security, чего не умеет SAST

OpenAI делает ставку на семантический анализ. Модель смотрит не только на то, вызван ли `sanitize_html()`, но и на то, достаточно ли этого санитайзера для конкретного контекста рендеринга, шаблонного движка, правил кодирования и последующих преобразований.

Проблема не в том, достигают ли данные приёмника. Вопрос в том, ограничивают ли проверки в коде значение так, как система предполагает. Разница между «код вызывает санитайзер» и «система безопасна» — это разница между формальной корректностью и реальной защитой.

Codex Security разбирает всю цепочку преобразований: что допускает регулярка, как работают декодирование и нормализация, как парсер URL обрабатывает пограничные случаи, как логика перенаправления разбирает схему и адрес. Многие критичные уязвимости — это ошибки в порядке операций, частичная нормализация, неоднозначности при разборе.

Что это значит для рынка

Если OpenAI права, то мы наблюдаем тектонический сдвиг. Классические SAST-вендоры (Checkmarx, Veracode, Fortify) строили бизнес на том, что статический анализ — это единственный способ проверить код в масштабе. Теперь появляется альтернатива: модели, которые могут рассуждать о коде как человек-эксперт, но работают 24/7.

Для разработчиков это означает меньше ложных срабатываний и больше находок, которые действительно важны. Для SecOps-команд — возможность не тратить недели на триаж отчётов, а получать уже проверенные уязвимости с контекстом и предложениями по исправлению.

Для российских пользователей ситуация сложнее. OpenAI по-прежнему блокирует доступ из РФ, так что для использования Codex Security понадобится VPN и зарубежная карта для оплаты API. Альтернатива — ждать, пока аналогичные возможности появятся в Yandex GPT или GigaChat, но пока что отечественные модели заметно отстают в задачах code reasoning.

Риски и вопросы

OpenAI не скрывает главную проблему: трудно определить, предназначено ли кибердействие для обороны или атаки. Поэтому вся система Trusted Access построена на доверии — а это хрупкая штука. Что помешает атакующему получить доступ под видом исследователя безопасности?

Кроме того, модель пока калибруется. Автоматические классификаторы подозрительной активности могут срабатывать на легитимных пентестерах — и OpenAI честно об этом говорит. Это означает, что на старте будут ложные блокировки и фрустрация пользователей.

Но главный вопрос философский: если ИИ научится находить уязвимости лучше людей, как быстро эти же возможности окажутся в руках атакующих? OpenAI пытается выиграть время, раздавая кредиты защитникам, но модели с открытыми весами уже на подходе.

Итого

Trusted Access for Cyber и Codex Security — это не просто новые инструменты, а заявка на новую парадигму. OpenAI утверждает, что будущее кибербезопасности — не в статическом анализе потоков данных, а в семантическом понимании того, что код *на самом деле* делает.

Пока это пилот, и многие детали ещё туманны. Но если модель действительно умеет отлавливать логические ошибки в валидации и преобразованиях — а судя по описанию кейсов, умеет — то рынок SAST ждут непростые времена.

Информация подтверждена несколькими официальными публикациями OpenAI.

Источники

Все эти инструменты — уже на Genova-ai

Картинки, видео, музыка, голос и ИИ-чат в одном месте. Без VPN и зарубежных карт.

Картинки
Видео
Музыка
Голос
ИИ-чат
Попробовать бесплатно

Похожие новости