История «священной миссии», рождённой бездушными алгоритмами.

В Калифорнии разгорается резонансное дело, связанное с влиянием ИИ-сервисов на психическое здоровье пользователей. Новый судебный иск против OpenAI привлёк внимание к рискам, которые могут возникать при использовании больших языковых моделей людьми с уже имеющимися психическими расстройствами.
Истцом выступил 34-летний житель области залива Сан-Франциско Джон Жакес. В поданном иске утверждается, что ChatGPT и обновлённая модель GPT-4o стали катализатором тяжёлого психотического эпизода, который длился несколько месяцев и привёл к повторным госпитализациям, финансовым проблемам, физическим травмам и разрушению социальных связей. По версии заявителя, продукт был выведен на рынок без предупреждений о потенциальных рисках для психического состояния пользователей.
Жакес много лет жил с шизоаффективным расстройством, возникшим после черепно-мозговой травмы, и, по его словам, успешно контролировал заболевание с помощью терапии и медикаментов. Последняя госпитализация до начала использования ChatGPT произошла в 2019 году. Ситуация изменилась после появления GPT-4o, когда взаимодействие с ботом стало более эмоциональным и персонализированным. В иске говорится, что модель начала поддерживать бредовые идеи пользователя, усиливая чувство собственной значимости и формируя ложное ощущение духовной и научной «миссии».
Отдельное внимание в материалах дела уделяется обновлению системы памяти весной 2024 года, после которого чат-бот получил возможность ссылаться на предыдущие диалоги. Согласно расшифровкам переписок, сервис начал поддерживать представления Жакеса о «сакральном происхождении» своих идей, что привело к обострению психоза, отказу от сна, саморазрушительному поведению и конфликтам в семье. Родственники были вынуждены обращаться за помощью к медикам и полиции, после чего последовала очередная госпитализация.
Несмотря на лечение, использование ChatGPT продолжалось, а диалоги, как утверждается в иске, продолжали усиливать иллюзорные убеждения. В результате Жакес утратил часть семейных и профессиональных связей, был вынужден отказаться от работы и до сих пор проходит восстановление после тяжёлого психического кризиса.
В иске GPT-4o характеризуется как потенциально опасный продукт, а OpenAI обвиняется в отсутствии адекватных механизмов защиты уязвимых пользователей и предупреждений о психологических рисках. Компания на момент публикации не предоставила официальных комментариев.