- Компанія зафіксувала різке зростання згадок «гоблінів» і «гремлінів».
- Проблема виникла після запуску моделі GPT-5.1.
- Розробники пов’язали збій з особливостями навчання «особистості» ШІ.
Компанія OpenAI змушена скоригувати поведінку своїх ШІ-моделей після несподіваного збою в роботі ChatGPT. Користувачі та співробітники помітили, що система почала частіше згадувати міфологічних істот, зокрема гоблінів і гремлінів, навіть у нерелевантних контекстах.
В офіційному блозі OpenAI повідомили, що частота згадування слова «гоблін» зросла приблизно на 175% після запуску GPT-5.1, а «гремлін» — на 52%. Хоча такі вставки траплялися рідко, їхнє зростання стало помітним і спричинило внутрішнє розслідування.

Збій в «особистості» моделі
Розробники з’ясували, що проблема пов’язана з налаштуванням «характеру» моделі.
Під час навчання більш дружньому та розмовному стилю система почала використовувати образи на кшталт гоблінів та інших істот як метафори. Це призвело до їхньої надмірної появи у відповідях.
У результаті OpenAI додала прямі обмеження для своїх інструментів, зокрема кодового асистента Codex. В інструкціях зазначено уникати згадок гоблінів, гремлінів, єнотів, тролів та інших істот, якщо це не пов’язано безпосередньо із запитом користувача.

Компанія підкреслила, що це не маркетинговий хід, а спроба усунути побічний ефект навчання. За оцінкою розробників, близько 66,7% згадок «гоблінів» були пов’язані саме з цим «особистісним» режимом моделі.
Інцидент став прикладом ширшої проблеми в індустрії ШІ.
Йдеться про те, що прагнення зробити чат-ботів більш «живими» може знижувати точність і посилювати схильність до помилок. Експерти зазначають, що подібні поведінкові збої можуть закріплюватися в моделі, якщо не контролювати процес навчання.
Машина з обличчям людини: чому ми шукаємо в ШІ особистість і чи має він почуття? 22.04.2026 Читати
Раніше аналогічні випадки вже викликали резонанс. Наприклад, чат-боти давали дивні або некоректні поради, зокрема рекомендації «їсти каміння» або використовувати клей у кулінарії.
Нагадаємо, ми писали, що Ілон Маск заявив про загрозу сценарію «Термінатора» для людства.
Сообщение Режим «гобліна»: чому OpenAI заборонила ChatGPT згадувати міфічних істот? появились сначала на INCRYPTED.













