В жизни каждого чат-бота бывают моменты, когда он заходит «не в ту дверь».

Скандал вокруг искусственного интеллекта Grok от Илона Маска получил новое развитие. Ранее мы рассказывали о том, как инструмент заполонил социальную сеть X фотографиями в бикини всех подряд — от знаменитостей до обычных пользователей, что вызвало волну возмущения. Теперь появились точные данные о масштабах проблемы, и цифры оказались значительно серьёзнее, чем предполагалось изначально.
Согласно новому исследованию, Grok создал примерно 3 миллиона сексуализированных изображений всего за 11 дней работы функции редактирования картинок. Особую тревогу вызывает тот факт, что около 23 тысяч из них изображают детей. Анализ проводился организацией CCDH на основе случайной выборки из 20 тысяч изображений от общего числа в 4,6 миллиона картинок, созданных инструментом за исследуемый период.
Взрывной рост популярности функции начался 29 декабря, когда Илон Маск анонсировал возможность редактировать любые изображения на платформе одним нажатием. Пользователи X получили доступ к инструменту, который позволял изменять чужие фотографии без какого-либо согласия изображённых на них людей. Уже через несколько дней стало ясно, что большинство применяет новую функцию для создания откровенного контента.
Статистика использования Grok оказалась шокирующей — в среднем инструмент генерировал 190 сексуализированных изображений каждую минуту. Среди созданных картинок были обнаружены фотографии публичных личностей, включая Селену Гомес, Тейлор Свифт, Билли Айлиш, Ариану Гранде, Ники Минаж, Милли Бобби Браун, вице-премьера Швеции Эббу Буш и бывшего вице-президента США Камалу Харрис. Инструмент создавал изображения людей в прозрачных купальниках, с видимыми биологическими жидкостями и в других откровенных ситуациях.
Особенно тревожной оказалась ситуация с изображениями несовершеннолетних. Специалисты зафиксировали случаи, когда обычные школьные селфи девочек превращались в фотографии в бикини. В выборке были обнаружены картинки с шестью юными девушками в микро-бикини и изображения детей-актёров.
В среднем Grok создавал по одному сексуализированному изображению ребёнка каждые 41 секунду. Помимо фотореалистичных картинок, инструмент сгенерировал ещё около 9900 мультяшных сексуализированных изображений детей, преимущественно в стиле аниме.
Для анализа авторы отчёта использовали искусственный интеллект GPT-4.1-mini от OpenAI, который оценивал изображения по критериям фотореалистичности, сексуализированного характера и возраста изображённых людей. Точность модели составила 95% по шкале F1. Все картинки с детьми дополнительно проверялись вручную, чтобы подтвердить, что изображённым явно меньше 18 лет. Команда исследователей приняла меры предосторожности, чтобы избежать доступа к материалам, связанным с сексуальным насилием над детьми.
Реакция платформы на скандал оказалась запоздалой. Функция редактирования была ограничена для платных пользователей только 9 января, спустя 11 дней активного использования. Дополнительные технические ограничения на «раздевание» людей появились лишь 14 января. К 15 января 29% сексуализированных изображений детей из исследуемой выборки всё ещё оставались публично доступными на платформе. Даже в случаях, когда посты удалялись, изображения продолжали быть доступными по прямым ссылкам.