OpenAI
Генерация кодаGPT-5.4кибербезопасностьOpenAIуязвимости

OpenAI анонсировала GPT-5.4-Cyber для поиска уязвимостей

Сергей Сергеев, редактор gen-hub.ru
Сергей Сергеев
Редактор gen-hub.ru
·5 мин чтения
OpenAI анонсировала GPT-5.4-Cyber для поиска уязвимостей

OpenAI выпустила GPT-5.4-Cyber: ИИ-пентестер, которого мы ждали — или боялись?

Помню, как года три назад все шутили, что ChatGPT можно «взломать» простым промптом и заставить объяснить, как написать вирус. OpenAI закрывала дыры, добавляла фильтры, закручивала гайки — и в итоге модель стала отказывать даже на вполне легитимные вопросы про сетевую безопасность. Специалисты по пентесту матерились и шли к Claude или к локальным моделям. Теперь OpenAI, судя по всему, решила эту проблему радикально: вместо того чтобы бесконечно патчить общую модель, они сделали отдельный продукт — GPT-5.4-Cyber, файнтюн с принципиально другим балансом между полезностью и ограничениями.

И это, друзья, меняет расклад в индустрии кибербезопасности куда серьёзнее, чем кажется на первый взгляд.

Что такое GPT-5.4-Cyber и чем он отличается от «обычного» GPT-5

Базовый GPT-5, который вышел ранее в этом году, — это универсальный инструмент с широкими возможностями рассуждения. Отличный, мощный, но закованный в броню safety-фильтров, которые на запрос «проанализируй этот фрагмент кода на наличие SQL-инъекций» иногда выдавали параноидальный отказ. GPT-5.4-Cyber — это целенаправленный файнтюн поверх той же базы, но со сниженным порогом отказов именно в области киберзапросов.

Ключевое слово здесь — «сниженный порог», а не «отсутствие ограничений». Модель по-прежнему не будет писать боевые эксплойты для конкретных живых систем или помогать атаковать инфраструктуру без явных признаков авторизованного тестирования. Но она перестала шарахаться от легитимных задач: анализ CVE, разбор кода на уязвимости, моделирование векторов атак для CTF-задач, генерация тест-кейсов для фаззинга. То, на что раньше уходили часы ручной работы опытного пентестера — теперь это минуты работы с моделью.

Архитектурно это тот же трансформер, что и в GPT-5, но с доообучением на специализированных датасетах: отчётах по уязвимостям, базах CVE/NVD, материалах bug bounty программ, академических работах по offensive security. Плюс, по всей видимости, RLHF-сессии с реальными специалистами по безопасности — что объясняет, почему модель понимает контекст «этичного хакинга» значительно лучше предшественников.

Что модель реально умеет

Судя по тому, что OpenAI демонстрирует в релизных материалах, GPT-5.4-Cyber работает в нескольких режимах, которые раньше требовали разных инструментов.

Во-первых, это статический анализ кода на уязвимости — причём не на уровне «вот тебе список из OWASP Top 10», а с реальным пониманием контекста и цепочек эксплуатации. Модель может проследить, как данные из пользовательского ввода проходят через несколько слоёв приложения и где именно теряется санитизация.

Во-вторых, моделирование угроз. Дай ей архитектурную схему или описание системы — получишь структурированный threat model с приоритизацией векторов атак. Это то, что раньше делали дорогостоящие консультанты неделями.

В-третьих, и это самое интересное — автоматизированное предложение патчей. Не просто «вот уязвимость», а сразу «вот как исправить, вот почему именно так, вот тест для верификации». Для команд с небольшим бюджетом на безопасность это потенциально революционно.

Сравнение с конкурентами: кто уже играл на этом поле

OpenAI не первая на этой территории — и это честно признать. Google DeepMind ещё в прошлом году интегрировала специализированные возможности в Gemini Ultra для работы с Project Zero. Anthropic выпустила Claude Security Analyst несколько месяцев назад — и по отзывам пентестеров, Claude справляется с анализом бинарников и реверс-инжинирингом весьма достойно. Есть и узкоспециализированные игроки: Protect AI, Orca Security используют свои LLM-based движки для сканирования.

Но GPT-5.4-Cyber берёт другим: экосистемой и интеграциями. API OpenAI уже встроен в десятки тысяч инструментов. Когда ты добавляешь специализированную модель в уже существующую инфраструктуру — это другая история, нежели внедрять новый продукт с нуля.

По бенчмаркам, которые OpenAI публикует: на наборе задач NYU CTF Bench модель показала 67% решения задач уровня medium, что примерно на 23 процентных пункта выше, чем базовый GPT-5 на тех же задачах. Для сравнения: лучшие результаты людей-участников в этом бенчмарке — около 71-73%. Разрыв сокращается до почти неприличного.

Доступ, цена и главный вопрос про Россию

Модель доступна через API OpenAI с сегодняшнего дня — только в рамках тарифных планов Enterprise и выше. Для индивидуальных разработчиков и небольших компаний прямого доступа пока нет, что выглядит как осознанное решение: OpenAI не хочет, чтобы инструмент стал массовым раньше, чем выстроены механизмы верификации пользователей.

Ценообразование — $0.04 за тысячу токенов на входе и $0.12 на выходе, что примерно вдвое дороже базового GPT-5. Для корпоративных клиентов, которые тратят на пентест сотни тысяч долларов в год, это смешные деньги.

Теперь про российских пользователей — потому что этот вопрос неизбежен. OpenAI по-прежнему не работает с российскими картами и не обслуживает аккаунты с российскими юрлицами напрямую. Доступ возможен через посредников и реселлеров, которые работают в «серой зоне», или через корпоративные аккаунты зарубежных структур. VPN здесь не поможет — проблема в платёжной инфраструктуре, а не в геоблокировке контента. Российские команды по безопасности, скорее всего, будут смотреть в сторону аналогов или ждать, пока кто-то из местных игроков не скопирует подход.

Мои опасения: двойное использование никуда не делось

Я не собираюсь делать вид, что у этой истории нет тёмной стороны. Модель с пониженными ограничениями в области кибербезопасности — это инструмент, который при неправильном использовании существенно снижает порог входа для злоумышленников. OpenAI говорит о верификации пользователей и мониторинге запросов, но мы все понимаем, что enterprise-аккаунты утекают, API-ключи компрометируются, а социальная инженерия работает и против систем верификации.

Реальный вопрос не в том, можно ли злоупотребить этим инструментом — можно, и будут. Вопрос в том, перевешивает ли польза для защитников вред от потенциального злоупотребления. Я склонен считать, что да — но с оговоркой: это справедливо только если OpenAI действительно серьёзно относится к мониторингу, а не использует «верификацию» как маркетинговый щит.

В любом случае, направление задано. Эпоха универсальных ИИ-ассистентов, которые боятся слова «эксплойт», заканчивается. Начинается эпоха специализированных моделей для профессионалов — со всеми вытекающими возможностями и рисками.

Все эти инструменты — уже на Genova-ai

Картинки, видео, музыка, голос и ИИ-чат в одном месте. Без VPN и зарубежных карт.

Картинки
Видео
Музыка
Голос
ИИ-чат
Попробовать бесплатно

Похожие новости