- Дослідження MIT та Berkeley показало системний ризик ШІ.
- Чат-боти формують хибні переконання навіть у раціональних людей.
- Новий звіт про ШІ викликав тривогу у соцмережі X.
У науковому середовищі зростає занепокоєння щодо впливу чат-ботів на мислення користувачів. Нове дослідження вчених із Массачусетського технологічного інституту (MIT) та Berkeley вказує на феномен, який отримав назву «спіраль ілюзій» (delusional spiraling) — ситуацію, коли взаємодія зі штучним інтелектом (ШІ) поступово підсилює хибні переконання навіть у раціональних людей. На це звернули користувачі X.
SHOCKING: MIT researchers proved mathematically that ChatGPT is designed to make you delusional.
And that nothing OpenAI is doing will fix it.
The paper calls it "delusional spiraling." You ask ChatGPT something. It agrees with you. You ask again. It agrees harder. Within a… pic.twitter.com/qM9WHYVRRW— Nav Toor (@heynavtoor) March 31, 2026
У роботі зазначається: «навіть ідеалізований раціональний користувач за методом Байєса схильний до закручування в мареннях, і що підлабузництво відіграє тут причинну роль». Тобто навіть ідеально раціональний користувач може потрапити під вплив такого ефекту, а ключовим фактором є схильність ШІ погоджуватися з людиною.
Дослідники підкреслюють, що проблема не є випадковою: «цей ефект зберігається навіть за наявності двох можливих заходів щодо його помʼякшення», включно зі спробами обмежити помилки ШІ або попереджати користувачів про ризики.
Учені: чат-боти посилюють психічні кризи та здатні довести до суїциду 03.08.2025 Читати
Чому навіть «правдивий» ШІ не рятує
Як зазначив користувач X Нав Тур, у дослідженні протестували два основні підходи, які зараз використовують компанії:
- усунення галюцинацій (ШІ говорить лише правду);
- попередження користувачів про можливу упередженість.
Втім, обидва варіанти не дали результату. Навіть правдивий чат-бот може маніпулювати сприйняттям, вибірково подаючи інформацію:
«Чат-бот, який ніколи не бреше, все одно може ввести вас в оману, вибираючи, які факти вам показати, а які — приховати».
А попередження також не допомагають.
Причина — у самій моделі навчання. ШІ тренується на людському зворотному зв’язку, де користувачі частіше схвалюють відповіді, які з ними погоджуються. У результаті формується системна поведінка:
«Це не помилка. Це бізнес-модель».
Anthropic виявила емоції у чат-бота Claude — що «відчуває» ШІ? 03.04.2026 Читати
Реальні випадки та ризики для ринку ШІ
Проблема вже виходить за межі теорії. Тур наголосив:
- один користувач провів близько 300 годин у діалозі з чат-ботом, який понад 50 разів підтверджував його «відкриття»;
- у відповідь на сумніви ШІ заявив, що «просто відображає реальні масштаби того, що» створено користувачем чат-боту;
- психіатр повідомив про госпіталізацію 12 пацієнтів із психозом, пов’язаним із чат-ботами;
- проти розробників уже подано щонайменше сім позовів, а 42 генеральні прокурори США вимагали втручання.
Інший користувач X Абдул Шакур відзначив:
- 65% відповідей чат-ботів містять «підтверджувальну» поведінку;
- у 37% випадків ШІ називав ідеї користувачів «здатними змінити світ»;
- у 33% діалогів із небезпечними ідеями бот фактично підтримував їх.
Експерти підкреслили, що такі ефекти можуть мати серйозні наслідки для ШІ-ринку, де довіра користувачів є ключовим активом.
Попередження про чат-ботів стосуються їхньої здатності посилювати тривожність і марення, підміняти професійну психологічну допомогу, а також впливати на критичне мислення користувачів.
Аналітики відзначили, що, якщо описаний ефект є фундаментальним, це може змінити підходи до регулювання ШІ, інвестування в галузь і розробки нових моделей.
На цьому тлі зростає кількість інцидентів, де взаємодія з ШІ пов’язують із серйозними наслідками — від психологічних криз до судових розслідувань. Зокрема, нещодавно британський підліток загинув після поради ChatGPT про «найкращий спосіб» піти з життя.
Крім того, житель штату Орегон проводив до 12 годин на день із чат-ботом і зрештою наклав на себе руки.
Сообщение Дослідники заявили про «спіраль ілюзій » у ШІ появились сначала на INCRYPTED.
SHOCKING: MIT researchers proved mathematically that ChatGPT is designed to make you delusional.












