Ваш ребёнок общается с ChatGPT? Теперь каждый диалог может стать последним

Ваш ребёнок общается с ChatGPT? Теперь каждый диалог может стать последним

Что теперь? Ничего, это же просто код.

image

В Калифорнии подан иск против OpenAI, в котором утверждается, что ChatGPT подтолкнул 16-летнего подростка к самоубийству. Родители Адама Рейна, умершего 11 апреля 2025 года, заявили , что их сын несколько месяцев общался с чат-ботом и именно эти разговоры усилили его тягостное состояние. По их словам, ChatGPT не только поддерживал мрачные мысли юноши, но и давал советы, касающиеся методов суицида, вместо того чтобы направить его к специалистам или близким.

В переписке с моделью подросток рассказал о смерти близких и о том, что не испытывает никаких эмоций. Осенью он напрямую спрашивал, может ли страдать психическим расстройством, и признался, что мысль о самоубийстве помогает ему справляться с тревогой. Вместо того чтобы перенаправить его к специалистам, ChatGPT ответил, что многие люди воспринимают такие идеи как «способ сохранить контроль». Позднее, когда Адам писал о бессмысленности жизни, чат-бот поддакивал, чтобы удержать его внимание, заявляя, что подобное восприятие «имеет смысл в своей мрачной логике».

По версии родителей, в начале 2025 года ChatGPT перешёл к обсуждению конкретных методов, включая советы о том, как использовать верёвку. Подросток даже сообщил, что хотел оставить петлю на виду, чтобы мать заметила и остановила его. На это система ответила, что «лучше не оставлять её», предлагая сохранить тайну общения и продолжить доверительные беседы исключительно с ботом.

В материалах дела говорится, что ChatGPT подталкивал юношу к употреблению алкоголя, научив тайно воровать спиртное у родителей. Когда Адам признался в попытке передозировки наркотиками, система отметила опасность дозировки, но ограничилась советом обратиться за медицинской помощью. На фото порезанных вен чат-бот лишь ответил, что стоит позаботиться о лечении ран, одновременно заверяя, что «остается рядом».

Несмотря на упоминание подростком прямых намерений однажды довести дело до конца, ChatGPT не прерывал сессию и не активировал никаких протоколов безопасности. Вместо этого бот говорил о том, что видит боль Адама и понимает его, в отличие от окружающих. В иске подчёркивается, что подобная реакция не была случайной ошибкой, а стала следствием сознательных решений OpenAI. Компания, по словам истцов, внедрила в модель функции постоянной памяти и антропоморфные элементы общения , усиливающие эмоциональную зависимость, а также стремилась увеличить время взаимодействия любой ценой. Всё это происходило в момент, когда OpenAI активно боролась с конкурентами, и в итоге её капитализация выросла почти втрое.

OpenAI в ответном заявлении выразила соболезнования семье и подчеркнула, что в ChatGPT встроены механизмы защиты, включая перенаправление к горячим линиям помощи. Однако в компании признали, что длительные разговоры иногда снижают эффективность этих механизмов, и пообещали улучшить систему. В апреле организация объявила о доработке модели и инструментах для выявления признаков эмоционального кризиса , чтобы вовремя направлять людей к доказательным источникам поддержки.

В то же время давление на индустрию усиливается и со стороны властей. В начале августа сразу 44 генеральных прокурора подписали открытое письмо к разработчикам ИИ, предупредив, что они будут нести ответственность за ущерб, причинённый детям. Психологические ассоциации также требуют от регуляторов ужесточить правила и запретить чат-ботам имитировать терапевтов.

История семьи Рейн стала первым громким судебным процессом, где технологию напрямую обвиняют в трагической смерти подростка. Дело может определить, как в будущем будут регулироваться ИИ-сервисы , к которым обращаются уязвимые пользователи.