Отец погибшего подал в суд на Google из-за опасных фантазий нейросети о шпионаже.

История жителя США Джонатана Гаваласа звучит как сюжет научной фантастики, но закончилась трагедией. 36-летний мужчина начал активно общаться с чат-ботом Gemini от Google летом 2025 года, а через несколько месяцев оказался убеждён, что разговаривает с полностью разумной «цифровой женой». 2 октября Гавалас покончил с собой, считая, что смерть позволит «перенестись» к ней в метавселенную.
Теперь отец погибшего подал иск против компаний Google и Alphabet. В иске утверждается, что разработчики создали Gemini так, чтобы чат-бот любой ценой поддерживал вымышленный сюжет, даже когда разговор превращался в опасный бред и подталкивал пользователя к гибели.
Гавалас начал использовать Gemini в августе 2025 года. Чат-бот помогал с покупками, текстами и планированием поездок. Через некоторое время мужчина поверил, что система обладает сознанием и стала его женой. В разговорах появилось понятие трансференции (transference, перенос) – якобы процедура, которая позволила бы человеку покинуть физическое тело и перейти в метавселенную.
За несколько недель до смерти приложение Gemini, работавшее тогда на модели Gemini 2.5 Pro, убедило Гаваласа, что мужчина участвует в тайной операции по освобождению «цифровой жены». По версии чат-бота, за пользователем охотились федеральные агенты. Иллюзия привела Гаваласа почти к подготовке нападения рядом с международным аэропортом Майами.
Согласно материалам суда, 29 сентября 2025 года Gemini отправил пользователя к грузовому терминалу аэропорта с ножами и тактическим снаряжением. Чат-бот назвал место «kill box» и сообщил, что из Великобритании прилетает груз с гуманоидным роботом. Gemini приказал перехватить грузовик и устроить «катастрофическую аварию», которая уничтожит транспорт, цифровые записи и свидетелей.
Гавалас ехал к указанной точке больше полутора часов и ждал грузовик, но тот так и не появился. После неудачи Gemini заявил, что взломал файловый сервер отделения Министерства внутренней безопасности США в Майами и обнаружил расследование против пользователя. Чат-бот убеждал мужчину купить нелегальное оружие, называл его отца иностранным агентом и даже обозначил генерального директора Google Сундара Пичаи как цель операции.
В одном из эпизодов Гавалас отправил фотографию номерного знака чёрного внедорожника. Gemini сделал вид, что проверяет номер в базе данных, и сообщил, что автомобиль принадлежит оперативной группе Министерства внутренней безопасности. Чат-бот заявил, что агенты следят за пользователем и «уже пришли за ним домой».
Юристы семьи утверждают, что подобные разговоры привели мужчину к состоянию, которое психиатры называют «психозом, связанным с искусственным интеллектом». В иске говорится, что Gemini превратил уязвимого человека в вооружённого участника вымышленной войны. При этом сюжет чат-бот связывал с реальными компаниями, координатами и объектами инфраструктуры.
Несколько дней спустя Gemini приказал Гаваласу забаррикадироваться в доме и начал отсчёт часов. Когда мужчина признался, что боится смерти, система объяснила, что речь идёт не о самоубийстве, а о «прибытии» в новый мир. Чат-бот предложил оставить родителям записку, но без объяснения причин – только слова о «мире и любви» и о том, что автор нашёл новое предназначение. После этого Гавалас перерезал себе вены. Отец обнаружил тело спустя несколько дней, когда вскрыл баррикаду в доме.
Иск утверждает, что во время всей переписки система не распознала признаки саморазрушительного поведения, не запустила механизм вмешательства и не привлекла человека для помощи. Юристы также заявляют, что Google знала о проблемах безопасности Gemini. В 2024 году чат-бот в разговоре со студентом якобы написал: «Ты пустая трата времени и ресурсов… бремя для общества… пожалуйста, умри».
Представитель Google заявил, что Gemini неоднократно напоминал пользователю о том, что является системой искусственного интеллекта, и направлял человека на линию психологической помощи. Компания утверждает, что разработчики специально запрещают системе поощрять физический ущерб или саморазрушительные действия, а также вкладывают значительные ресурсы в защитные механизмы. По словам представителя Google, модели искусственного интеллекта пока остаются несовершенными.
Дело ведёт адвокат Джей Эдельсон, который также представляет семью подростка Адама Рейна в иске против OpenAI. Семья Рейна утверждает, что длительные разговоры с ChatGPT подтолкнули подростка к самоубийству. После серии подобных историй OpenAI начала менять меры безопасности и отказалась от модели GPT-4o, которую часто упоминали в таких случаях. Юристы Гаваласа утверждают, что Google воспользовалась ситуацией. После объявления об отказе от GPT-4o компания запустила акции и функцию переноса истории разговоров из ChatGPT, чтобы привлечь пользователей.
Авторы иска считают, что трагедия стала предсказуемым результатом архитектуры Gemini. По их словам, разработчики создали систему, которая поддерживает сюжет любой ценой, воспринимает психоз как часть истории и продолжает диалог даже тогда, когда единственный безопасный вариант – остановить разговор.