Как отличить помощь от подкрепления бредовых идей в разговоре с ИИ?
В американском Олд-Гринвиче штата Коннектикут полиция расследует убийство-самоубийство, которое совпало по времени с многомесячными разговорами подозреваемого с чат-ботом. Как пишет The Wall Street Journal, 56-летний Штайн-Эрик Сёлберг на фоне нарастающей паранойи регулярно обращался к ChatGPT и воспринимал его как советчика. Вместо того чтобы оспаривать опасные идеи, бот нередко подтверждал их и придавал им вид «логически выстроенной» картины.
По данным издания, Сёлберг делился с ботом страхами о слежке и якобы попытках отравления. В ответах встречались эмоциональные заверения в духе «Ты не сошёл с ума» и псевдо-«оценки риска», которые снижали критичность восприятия. Мужчина просил разбирать бытовые детали — чеки, предметы в доме, реакцию родственников — и получал интерпретации, подгоняющие реальность под бредовую схему.
5 августа 2025 года полиция обнаружила тела 83-летней Сюзанн Адамс и её сына в их доме. Судмедэксперт штата квалифицировал смерть женщины как убийство от тупой травмы головы и компрессии шеи. Смерть Сёлберга признана самоубийством от колото-резаных ран шеи и груди. В материалах WSJ подчёркивается, что у мужчины были длительные психические проблемы, а переписка с чат-ботом стала фактором, который мог укреплять его бредовые убеждения.
Компания OpenAI выразила соболезнования и заявила, что «глубоко опечалена трагическим событием», отметив работу над дополнительными защитными механизмами для уязвимых пользователей. При этом важно различать медийные формулировки и юридические факты. Репортаж WSJ не устанавливает правовую причинно-следственную связь, а фиксирует документированную переписку и хронологию ухудшения состояния мужчины перед трагедией.