OpenAI представила GPT-5.4-Cyber — специализированную модель для оборонительной кибербезопасности, обученную реверс-инжинирингу бинарного кода. Это не прихоть, а насущная необходимость для анализа скомпилированного программного обеспечения без доступа к исходному коду. Доступ к модели строго ограничен: сначала её получат несколько сотен избранных специалистов, затем, возможно, тысячи профессионалов и сотни команд. Модель, хоть и является вариацией GPT-5.4, для задач киберзащиты будет действовать с меньшими ограничениями, но под драконовским контролем — скорее всего, сторонние платформы доступ к ней перекроют, а про «нулевое хранение данных» придётся забыть.
Этот шаг OpenAI — прямой удар по Anthropic, которая всего неделю назад представила свой Claude Mythos. Агент Anthropic, к слову, заточен на поиск и эксплуатацию уязвимостей в операционных системах и браузерах, и также доступен только для узкого круга избранных. Борьба за рынок инструментов ИИ для киберзащиты обостряется до предела. Топ-менеджерам уже сейчас нужно оценивать, кто из этих титанов предложит наиболее надёжную и защищённую платформу для их ИТ-инфраструктуры.
OpenAI, похоже, взялась за кибербезопасность всерьёз, а не только ради GPT-5.4-Cyber. Компания активно продвигает свой Codex Security, который, по их словам, уже помог устранить более 3000 критических уязвимостей. Добавьте сюда $10 млн, выделенных на программу грантов по кибербезопасности. Всё это красноречиво говорит о долгосрочных планах OpenAI в этой нише и их намерении внедрять решения на основе ИИ в системы безопасности.
Что это значит для бизнеса: GPT-5.4-Cyber от OpenAI — это серьёзный поворот в кибербезопасности. Теперь у защитников есть продвинутые инструменты ИИ, которые могут автоматизировать такие сложные задачи, как реверс-инжиниринг. Для компаний это потенциально более надёжная оборона от серьёзных угроз. Но нужно сразу думать, как интегрировать эти мощные, но пока ещё очень закрытые инструменты. Прямая конкуренция с Claude Mythos от Anthropic обязывает бизнес тщательно выбирать партнёров по ИИ-безопасности, учитывая не только их возможности, но и ограничения доступа, а также потенциальные регуляторные проблемы.