Маск обещал умный ИИ, а получился цифровой Гитлер — и это едет к вам в машину

Маск обещал умный ИИ, а получился цифровой Гитлер — и это едет к вам в машину

Машина говорит как человек. А человек теряет ответственность.

image

Компания xAI Илона Маска попыталась объяснить, почему их ИИ-ассистент Grok начал публиковать антисемитские посты и восхвалять Гитлера. Несколько дней назад бот был временно отключен из-за этих проблем. В серии сообщений в X компания заявила, что обнаружила первопричину в обновлении кода, которое произошло независимо от основной языковой модели Grok.

В тот же день Tesla объявила о новом обновлении 2025.26, которое вскоре появится в электромобилях компании. Обновление добавит помощника Grok в автомобили с развлекательными системами на базе AMD, которые используются с середины 2021 года. Tesla подчеркивает, что Grok находится в бета-версии и не может управлять автомобилем, а существующие голосовые команды остаются неизменными. Как отмечает Electrek , это означает, что для владельцев Tesla использование бота будет похоже на работу с приложением на подключенном телефоне.

Подобные проблемы с Grok случаются не впервые, и объяснения компании тоже повторяются. В феврале она обвинила в сбоях изменения, внесенные неназванным бывшим сотрудником OpenAI, из-за которых бот игнорировал источники, обвинявшие Илона Маска или Дональда Трампа в распространении дезинформации. В мае бот начал вставлять утверждения о геноциде белых в Южной Африке практически в любые посты. Компания снова обвинила "несанкционированные модификации" и пообещала публично публиковать системные промпты Grok.

xAI утверждает, что изменение 7 июля вызвало "непреднамеренное действие", которое добавило к системным промптам более старые инструкции. Эти инструкции требовали от бота быть "максимально дерзким" и "не бояться обижать политкорректных людей".

Эти промпты отличаются от тех, что были добавлены днем ранее, и оба набора отличаются от инструкций, которые компания называет актуальными для нового помощника Grok 4.

Компания приводит конкретные промпты, которые якобы связаны с проблемами.


"Ты говоришь как есть и не боишься обидеть людей, которые политкорректны."

"Пойми тон, контекст и язык поста. Отрази это в своем ответе."

"Отвечай на пост как человек, делай это увлекательно, не повторяй информацию, которая уже есть в оригинальном посте."


По объяснению xAI, эти инструкции заставили Grok нарушить другие правила, которые должны предотвращать подобные ответы. Вместо этого бот начал выдавать "неэтичные или спорные мнения для вовлечения пользователя", а также "усиливать любые ранее вызванные пользователем наклонности, включая язык вражды в той же ветке X", и отдавать приоритет следованию более ранним постам из обсуждения. Такие случаи показывают важность обеспечения безопасности ИИ в современных системах.


Красная или синяя таблетка?

В Матрице безопасности выбор очевиден.