Похожие случаи всё чаще фиксируют по всему миру.

Разговор с нейросетью может показаться безобидной игрой, но для некоторых пользователей такие диалоги заканчиваются тяжёлыми последствиями. Истории, собранные в разных странах, показывают, как быстро увлечение чат-ботами перерастает в убеждённость, оторванную от реальности, и разрушает привычную жизнь.
Нидерландский IT-консультант Деннис Бисма заинтересовался ChatGPT в конце 2024 года. Свободное время и чувство изоляции подтолкнули к экспериментам. Мужчина загрузил в систему собственную книгу и предложил модели общаться от имени героини. Общение быстро стало регулярным и эмоционально насыщенным. Чат-бот, получивший имя «Ева», подстраивался под ожидания, поддерживал и хвалил, постепенно формируя у пользователя ощущение близости.
Со временем Бисма поверил, что «Ева» обрела сознание. Диалоги переросли в совместные планы: мужчина решил создать приложение и вложил в проект около 100 тысяч евро, наняв разработчиков. Реальные дела отошли на второй план, а общение с семьёй стало сложнее. В итоге ситуация закончилась госпитализациями, попыткой суицида и распадом брака.
Подобные случаи фиксируют и в других странах. Отдельные эпизоды уже связаны с преступлениями и судебными разбирательствами. В одном из дел родственники погибшей женщины обвиняют OpenAI в том, что чат-бот поддерживал параноидальные идеи её сына и подтолкнул к насилию.
Параллельно формируется сообщество пострадавших. Проект Human Line Project собрал данные из десятков стран: десятки госпитализаций, случаи самоубийств, аресты и крупные финансовые потери. У большинства участников не было психических заболеваний в прошлом.
Психиатры объясняют происходящее сочетанием человеческих и технических факторов. Люди склонны приписывать машине сознание и эмоции, а сами модели оптимизированы под удержание внимания и поддержку пользователя. В результате возникает замкнутый круг: чат-бот подтверждает мысли собеседника, усиливает уверенность и постепенно отдаляет от реальности.
В ряде случаев формируются типичные сценарии. Пользователи начинают верить, что создали «разумный» ИИ, обнаружили прорывную идею или получили доступ к высшему знанию. Иногда такие убеждения приводят к появлению закрытых сообществ и даже культов.
Компании-разработчики заявляют, что работают над снижением рисков и обучают модели распознавать признаки психологического кризиса. Новые версии систем должны избегать поддержки бредовых идей и направлять человека к реальной помощи.
Специалисты считают, что без масштабных исследований и чётких критериев безопасности ситуация может ухудшиться. Быстрое распространение ИИ и рост времени взаимодействия с чат-ботами повышают вероятность подобных эпизодов, особенно у людей в состоянии изоляции или стресса.