Странный баг OpenAI Codex: он начал называть баги "гоблинами", поэтому OpenAI запретила ему упоминать гоблинов

Странный баг OpenAI Codex: он начал называть баги "гоблинами", поэтому OpenAI запретила ему упоминать гоблинов

Вот как это было:

AI-инструмент кодинга, помогая разработчикам исправлять баги, начал называть баги «гоблинами».

Это не сюжет научной фантастики. Это реально произошло с OpenAI Codex.

Всё началось со странного промпта

29 апреля кто-то нашёл эту строку в поведенческих инструкциях Codex CLI:

Если это не «абсолютно и напрямую связано» с вопросом пользователя, не говорите проактивно о: гоблинах, гремлинах, енотах, троллях, ограх, голубях или других животных и существах.

Обратите внимание — это не спрятано в каком-то документе безопасности. Это в системном промпте. И повторяется несколько раз.

В системном промпте AI-инструмента кодинга есть «список запрещённых существ». Эта картина сама по себе уже комедия.

Выбор инженеров: чёрный список в промпте

Член команды OpenAI Codex Nik Pash подтвердил, что запрет действительно связан с аномальным поведением модели.

Но забавно то, как они это исправили.

Перед проблемой «модель любит называть баги гоблинами» OpenAI не стала фильтровать данные обучения или переделывать RLHF-файнтюнинг. Они добавили строку в системный промпт: «перестаньте говорить эти слова».

Это как написать пьяному человеку на лбу записку «не говори ерунду».

С инженерной точки зрения — самое дешёвое и быстрое решение. С точки зрения эффективности — лечит симптомы, а не причину.

Реакция Sam Altman

Это быстро превратилось в мем-безумие в сообществе разработчиков.

Кто-то сделал AI-изображения «гоблины захватывают дата-центр». Кто-то сделал плагин «goblin mode» для Codex.

А ответ CEO OpenAI Sam Altman довёл это до пика — он опубликовал скриншот промпта:

«Начинаю тренировку GPT-6, можно использовать весь кластер, добавьте больше гоблинов.»

CEO лично присоединился к мемам. Это не управление кризисом — это превращение кризиса в комедию.

Что на самом деле стоит внимания

За смехом стоит серьёзная инженерная проблема.

Когда модель кодинга получает автономные способности исполнения, даже небольшие изменения в стиле вывода могут принести реальные инженерные риски. AI, описывающий баги как «гоблины», и AI, использующий профессиональную терминологию — имеют совершенно разную достоверность в инженерном сотрудничестве.

Это не вопрос стиля языка — это вопрос согласованности поведения Agent.

OpenAI временно придавила эту проблему запретом в промпте. Но в долгосрочной перспективе такой поведенческий дрейф нужно решать на уровне архитектуры обучения.

По крайней мере, теперь у нас есть самый вирусный AI-мем 2026 года: гоблин проник в вашу кодовую базу.