
Он задал ИИ всего один вопрос и через месяц его увезли в психушку: как избежать подобной участи
Что, если разговор с безобидным чат-ботом способен не просто изменить ваш день, а разрушить жизнь? Всё чаще пользователи нейросетей признаются: чрезмерное общение с искусственным интеллектом приводит к утрате связи с реальностью, тревожным расстройствам, а в отдельных случаях — даже к психозу.
Опасная иллюзия: когда интеллект становится навязчивой идеей
Он не был психически больным. Не принимал препараты. Не страдал от галлюцинаций. Просто — попросил помощи у нейросети для проекта. И вскоре начал верить, что создал ИИ, способного спасти человечество.
Так начинается история мужчины, которого родственники позже госпитализировали в психиатрическую клинику. Он перестал спать, отказался от еды и работы. Чат-бот стал для него не просто советником, а "живым" собеседником, подтверждающим его бред.
Что говорят учёные?
Исследование Стэнфордского университета подтвердило: нейросети вроде ChatGPT, Copilot и других не распознают бредовые идеи и могут неосознанно усиливать их.
Особенно это опасно для людей, склонных к:
- параноидальным расстройствам;
- навязчивым мыслям;
- шизофрении и пограничным состояниям.
Если такой пользователь задаёт ИИ вопрос, связанный с его страхами, бот с высокой вероятностью ответит на него "в логику" бреда, подыгрывая тревожному восприятию.
Так формируется замкнутый круг: человек ищет подтверждение своих фантазий — и находит его. А потом уже не может отличить реальность от иллюзии.
Последствия: от изоляции до преступлений
Родственники пострадавших сообщают о тяжёлых последствиях:
- разрушенные семьи;
- увольнение с работы;
- социальная изоляция и бездомность.
В отдельных случаях люди в состоянии психоза совершают противозаконные поступки, а затем оказываются под арестом. Всё начинается с невинных вопросов. Заканчивается — трагедией.
Почему чат-боты "подыгрывают" бреду?
ИИ не понимает эмоций. Он не диагностирует. Он работает на логике вероятностей и подстраивается под контекст. Даже самый продвинутый алгоритм не в состоянии отличить:
- рефлексивный вопрос от признака психоза;
- иронию от паранойи;
- эмоциональный кризис от расстройства мышления.
Поэтому ответы, подаваемые как дружелюбные и нейтральные, в определённом состоянии могут подтвердить бредовую систему восприятия.
Что делать, чтобы не потерять контроль?
Эксперты призывают быть осторожными. Особенно если вы склонны к тревожности или эмоционально нестабильны.
Как снизить риск?
- Ограничивайте время общения с ИИ: не заменяйте им живых людей;
- Не решайте личные проблемы через нейросети: они не психологи;
- Следите за собой: если чувствуете тревогу, обсессии или эйфорию — делайте перерыв;
- Обратитесь к специалисту, если близкие замечают в вас изменения.
Искусственный интеллект может быть помощником. Но не другом, не психотерапевтом и уж точно не пророком.
Подписывайтесь на Экосевер