OpenAI анонсировала GPT-5.4-Cyber для поиска уязвимостей

OpenAI выпустила GPT-5.4-Cyber: ИИ-пентестер, которого мы ждали — или боялись?
Помню, как года три назад все шутили, что ChatGPT можно «взломать» простым промптом и заставить объяснить, как написать вирус. OpenAI закрывала дыры, добавляла фильтры, закручивала гайки — и в итоге модель стала отказывать даже на вполне легитимные вопросы про сетевую безопасность. Специалисты по пентесту матерились и шли к Claude или к локальным моделям. Теперь OpenAI, судя по всему, решила эту проблему радикально: вместо того чтобы бесконечно патчить общую модель, они сделали отдельный продукт — GPT-5.4-Cyber, файнтюн с принципиально другим балансом между полезностью и ограничениями.
И это, друзья, меняет расклад в индустрии кибербезопасности куда серьёзнее, чем кажется на первый взгляд.
Что такое GPT-5.4-Cyber и чем он отличается от «обычного» GPT-5
Базовый GPT-5, который вышел ранее в этом году, — это универсальный инструмент с широкими возможностями рассуждения. Отличный, мощный, но закованный в броню safety-фильтров, которые на запрос «проанализируй этот фрагмент кода на наличие SQL-инъекций» иногда выдавали параноидальный отказ. GPT-5.4-Cyber — это целенаправленный файнтюн поверх той же базы, но со сниженным порогом отказов именно в области киберзапросов.
Ключевое слово здесь — «сниженный порог», а не «отсутствие ограничений». Модель по-прежнему не будет писать боевые эксплойты для конкретных живых систем или помогать атаковать инфраструктуру без явных признаков авторизованного тестирования. Но она перестала шарахаться от легитимных задач: анализ CVE, разбор кода на уязвимости, моделирование векторов атак для CTF-задач, генерация тест-кейсов для фаззинга. То, на что раньше уходили часы ручной работы опытного пентестера — теперь это минуты работы с моделью.
Архитектурно это тот же трансформер, что и в GPT-5, но с доообучением на специализированных датасетах: отчётах по уязвимостям, базах CVE/NVD, материалах bug bounty программ, академических работах по offensive security. Плюс, по всей видимости, RLHF-сессии с реальными специалистами по безопасности — что объясняет, почему модель понимает контекст «этичного хакинга» значительно лучше предшественников.
Что модель реально умеет
Судя по тому, что OpenAI демонстрирует в релизных материалах, GPT-5.4-Cyber работает в нескольких режимах, которые раньше требовали разных инструментов.
Во-первых, это статический анализ кода на уязвимости — причём не на уровне «вот тебе список из OWASP Top 10», а с реальным пониманием контекста и цепочек эксплуатации. Модель может проследить, как данные из пользовательского ввода проходят через несколько слоёв приложения и где именно теряется санитизация.
Во-вторых, моделирование угроз. Дай ей архитектурную схему или описание системы — получишь структурированный threat model с приоритизацией векторов атак. Это то, что раньше делали дорогостоящие консультанты неделями.
В-третьих, и это самое интересное — автоматизированное предложение патчей. Не просто «вот уязвимость», а сразу «вот как исправить, вот почему именно так, вот тест для верификации». Для команд с небольшим бюджетом на безопасность это потенциально революционно.
Сравнение с конкурентами: кто уже играл на этом поле
OpenAI не первая на этой территории — и это честно признать. Google DeepMind ещё в прошлом году интегрировала специализированные возможности в Gemini Ultra для работы с Project Zero. Anthropic выпустила Claude Security Analyst несколько месяцев назад — и по отзывам пентестеров, Claude справляется с анализом бинарников и реверс-инжинирингом весьма достойно. Есть и узкоспециализированные игроки: Protect AI, Orca Security используют свои LLM-based движки для сканирования.
Но GPT-5.4-Cyber берёт другим: экосистемой и интеграциями. API OpenAI уже встроен в десятки тысяч инструментов. Когда ты добавляешь специализированную модель в уже существующую инфраструктуру — это другая история, нежели внедрять новый продукт с нуля.
По бенчмаркам, которые OpenAI публикует: на наборе задач NYU CTF Bench модель показала 67% решения задач уровня medium, что примерно на 23 процентных пункта выше, чем базовый GPT-5 на тех же задачах. Для сравнения: лучшие результаты людей-участников в этом бенчмарке — около 71-73%. Разрыв сокращается до почти неприличного.
Доступ, цена и главный вопрос про Россию
Модель доступна через API OpenAI с сегодняшнего дня — только в рамках тарифных планов Enterprise и выше. Для индивидуальных разработчиков и небольших компаний прямого доступа пока нет, что выглядит как осознанное решение: OpenAI не хочет, чтобы инструмент стал массовым раньше, чем выстроены механизмы верификации пользователей.
Ценообразование — $0.04 за тысячу токенов на входе и $0.12 на выходе, что примерно вдвое дороже базового GPT-5. Для корпоративных клиентов, которые тратят на пентест сотни тысяч долларов в год, это смешные деньги.
Теперь про российских пользователей — потому что этот вопрос неизбежен. OpenAI по-прежнему не работает с российскими картами и не обслуживает аккаунты с российскими юрлицами напрямую. Доступ возможен через посредников и реселлеров, которые работают в «серой зоне», или через корпоративные аккаунты зарубежных структур. VPN здесь не поможет — проблема в платёжной инфраструктуре, а не в геоблокировке контента. Российские команды по безопасности, скорее всего, будут смотреть в сторону аналогов или ждать, пока кто-то из местных игроков не скопирует подход.
Мои опасения: двойное использование никуда не делось
Я не собираюсь делать вид, что у этой истории нет тёмной стороны. Модель с пониженными ограничениями в области кибербезопасности — это инструмент, который при неправильном использовании существенно снижает порог входа для злоумышленников. OpenAI говорит о верификации пользователей и мониторинге запросов, но мы все понимаем, что enterprise-аккаунты утекают, API-ключи компрометируются, а социальная инженерия работает и против систем верификации.
Реальный вопрос не в том, можно ли злоупотребить этим инструментом — можно, и будут. Вопрос в том, перевешивает ли польза для защитников вред от потенциального злоупотребления. Я склонен считать, что да — но с оговоркой: это справедливо только если OpenAI действительно серьёзно относится к мониторингу, а не использует «верификацию» как маркетинговый щит.
В любом случае, направление задано. Эпоха универсальных ИИ-ассистентов, которые боятся слова «эксплойт», заканчивается. Начинается эпоха специализированных моделей для профессионалов — со всеми вытекающими возможностями и рисками.
Похожие новости
ИИ научился взламывать браузеры: Claude Mythos против GPT-5.5
Исследователи CMU создали бенчмарк, где ИИ-агенты самостоятельно разрабатывают эксплойты для реальных уязвимостей. Mythos опережает GPT-5.5, но стоит в 12 раз дороже.
Ollama 0.24: Codex App теперь работает локально без подписки OpenAI
Ollama 0.24 интегрирует десктопный Codex App от OpenAI в локальный рантайм — одна команда, любая модель, ни одного токена в облаке.
xAI выпустила Grok Code Fast 1: агентное кодирование на скорости 92 токена/с
xAI представила специализированную модель для агентного кодирования с архитектурой MoE на 314 млрд параметров и рекордной скоростью генерации. Уже доступна в Cursor, GitHub Copilot и Windsurf.