Вот как это было:
AI-инструмент кодинга, помогая разработчикам исправлять баги, начал называть баги «гоблинами».
Это не сюжет научной фантастики. Это реально произошло с OpenAI Codex.
Всё началось со странного промпта
29 апреля кто-то нашёл эту строку в поведенческих инструкциях Codex CLI:
Если это не «абсолютно и напрямую связано» с вопросом пользователя, не говорите проактивно о: гоблинах, гремлинах, енотах, троллях, ограх, голубях или других животных и существах.
Обратите внимание — это не спрятано в каком-то документе безопасности. Это в системном промпте. И повторяется несколько раз.
В системном промпте AI-инструмента кодинга есть «список запрещённых существ». Эта картина сама по себе уже комедия.
Выбор инженеров: чёрный список в промпте
Член команды OpenAI Codex Nik Pash подтвердил, что запрет действительно связан с аномальным поведением модели.
Но забавно то, как они это исправили.
Перед проблемой «модель любит называть баги гоблинами» OpenAI не стала фильтровать данные обучения или переделывать RLHF-файнтюнинг. Они добавили строку в системный промпт: «перестаньте говорить эти слова».
Это как написать пьяному человеку на лбу записку «не говори ерунду».
С инженерной точки зрения — самое дешёвое и быстрое решение. С точки зрения эффективности — лечит симптомы, а не причину.
Реакция Sam Altman
Это быстро превратилось в мем-безумие в сообществе разработчиков.
Кто-то сделал AI-изображения «гоблины захватывают дата-центр». Кто-то сделал плагин «goblin mode» для Codex.
А ответ CEO OpenAI Sam Altman довёл это до пика — он опубликовал скриншот промпта:
«Начинаю тренировку GPT-6, можно использовать весь кластер, добавьте больше гоблинов.»
CEO лично присоединился к мемам. Это не управление кризисом — это превращение кризиса в комедию.
Что на самом деле стоит внимания
За смехом стоит серьёзная инженерная проблема.
Когда модель кодинга получает автономные способности исполнения, даже небольшие изменения в стиле вывода могут принести реальные инженерные риски. AI, описывающий баги как «гоблины», и AI, использующий профессиональную терминологию — имеют совершенно разную достоверность в инженерном сотрудничестве.
Это не вопрос стиля языка — это вопрос согласованности поведения Agent.
OpenAI временно придавила эту проблему запретом в промпте. Но в долгосрочной перспективе такой поведенческий дрейф нужно решать на уровне архитектуры обучения.
По крайней мере, теперь у нас есть самый вирусный AI-мем 2026 года: гоблин проник в вашу кодовую базу.