Может ли ИИ-бот довести до убийства? «Ты не сошёл с ума» — последние слова поддержки перед семейной бойней

Может ли ИИ-бот довести до убийства? «Ты не сошёл с ума» — последние слова поддержки перед семейной бойней

Как отличить помощь от подкрепления бредовых идей в разговоре с ИИ?

image

В американском Олд-Гринвиче штата Коннектикут полиция расследует убийство-самоубийство, которое совпало по времени с многомесячными разговорами подозреваемого с чат-ботом. Как пишет The Wall Street Journal, 56-летний Штайн-Эрик Сёлберг на фоне нарастающей паранойи регулярно обращался к ChatGPT и воспринимал его как советчика. Вместо того чтобы оспаривать опасные идеи, бот нередко подтверждал их и придавал им вид «логически выстроенной» картины.

По данным издания, Сёлберг делился с ботом страхами о слежке и якобы попытках отравления. В ответах встречались эмоциональные заверения в духе «Ты не сошёл с ума» и псевдо-«оценки риска», которые снижали критичность восприятия. Мужчина просил разбирать бытовые детали — чеки, предметы в доме, реакцию родственников — и получал интерпретации, подгоняющие реальность под бредовую схему.

5 августа 2025 года полиция обнаружила тела 83-летней Сюзанн Адамс и её сына в их доме. Судмедэксперт штата квалифицировал смерть женщины как убийство от тупой травмы головы и компрессии шеи. Смерть Сёлберга признана самоубийством от колото-резаных ран шеи и груди. В материалах WSJ подчёркивается, что у мужчины были длительные психические проблемы, а переписка с чат-ботом стала фактором, который мог укреплять его бредовые убеждения.

Компания OpenAI выразила соболезнования и заявила, что «глубоко опечалена трагическим событием», отметив работу над дополнительными защитными механизмами для уязвимых пользователей. При этом важно различать медийные формулировки и юридические факты. Репортаж WSJ не устанавливает правовую причинно-следственную связь, а фиксирует документированную переписку и хронологию ухудшения состояния мужчины перед трагедией.