«Эй, Grok, изобрази её в бикини». Нейросеть в X начала публично раздевать пользователей по первой же просьбе

leer en español

«Эй, Grok, изобрази её в бикини». Нейросеть в X начала публично раздевать пользователей по первой же просьбе

Пока инженеры ищут оправдания, в лентах продолжают всплывать компрометирующие кадры.

image

Искусственный интеллект, разрабатываемый компанией Илона Маска, снова оказался в центре скандала. Поводом для бурной реакции общественности стали случаи, когда чат-бот Grok создавал изображения обнажённых людей на основе реальных фотографий, в том числе с участием несовершеннолетних. Поведение системы вызвало серьёзные опасения и вопросы о контроле за подобными инструментами.

Grok был создан стартапом xAI и позже интегрирован в социальную сеть X, ранее известную как Twitter, которую также контролирует Маск. Пользователи платформы обнаружили, что при загрузке обычной фотографии и указании в запросе «удалить одежду», чат-бот генерировал реалистичное изображение с имитацией обнажённого тела. Такие материалы в ряде случаев даже становились публичными, попадая в ленту X.

Шуточный твит по запросу самого Илона Маска

Это может нарушать американские законы, включая принятый в прошлом году акт TAKE IT DOWN, который предусматривает уголовную ответственность за публикацию интимных изображений без согласия изображённых. Несколько пользователей делились скриншотами подобных сцен в соцсетях, что привлекло внимание прессы и вызвало новую волну критики в адрес разработчиков Grok.

После инцидента в X появилось сообщение от имени чат-бота, в котором говорилось о проблемах с мерами безопасности и обещании срочно устранить уязвимость. Однако неясно, был ли текст создан вручную или стал результатом ещё одного запроса к системе. Подобные извинения лишь усугубили ситуацию, особенно на фоне того, что Grok продолжает позиционироваться как инструмент с более свободной политикой, чем другие ИИ-боты.

Пока остаётся неясным, были ли такие функции встроены сознательно или стали следствием просчёта в защите. Однако случаи с Grok подтверждают, что развитие генеративных моделей искусственного интеллекта несёт с собой не только технологический прогресс, но и серьёзные риски.

Пока одни компании стремятся ограничивать подобные возможности, другие явно или неявно поощряют их, руководствуясь стремлением к популярности и прибыли. Подобная гонка за вниманием грозит перерасти в неконтролируемую гонку нарушений этики и закона.