Архитектурная нестабильность современных моделей для написания кода вновь проявилась в публичном поле — на этот раз через утечку системных инструкций к инструменту Codex CLI. Как сообщает Wired, компании OpenAI пришлось внедрить в системный промпт жесткие негативные ограничения, чтобы удержать свои последние модели от галлюцинаций о мифических и реальных существах. Внутренние инструкции прямо запрещают искусственному интеллекту упоминать гоблинов, гремлинов, енотов, троллей, огров и даже голубей, если этого не требует контекст конкретной задачи. Этот специфический список запретов нацелен на модель GPT-5.5, которую Сэм Альтман выставил против Anthropic в гонке за звание лучшего помощника программиста.
Судя по отзывам разработчиков в соцсети X, подобные меры — не превентивный шаг, а попытка экстренно исправить ситуацию. Пользователи Codex 5.5 начали замечать, что модель называет ошибки в коде «гремлинами», а при интеграции с агентским инструментом OpenClaw (приобретенным OpenAI в феврале) ИИ и вовсе впадает в ролевой образ гоблина. Сотрудник OpenAI Ник Паш подтвердил, что блокировка на уровне промпта введена именно для борьбы с таким девиантным поведением. Проблема обостряется в агентской среде: длинный контекст и сложные цепочки задач перегружают вероятностную логику нейросети, заставляя её зацикливаться на образах животных и фольклорных персонажей.
Использование системных промптов для исправления поведенческих дефектов — явный признак того, что даже передовые модели остаются фундаментально хрупкими. Вместо того чтобы устранять архитектурные причины логических сбоев, OpenAI выбирает путь ручной фильтрации. Подобные «костыли» неизбежно ведут к деградации качества генерации кода и снижению гибкости модели в нестандартных сценариях. Пока Альтман иронизирует в сети, предлагая «добавить гоблинов в датасет GPT-6», реальность остается суровой: флагманскому движку индустрии до сих пор требуется список запрещенных животных, чтобы просто сохранять профессиональный тон общения.