«Эй, Gemini, раздень мою девушку (или не мою)». Пользователи нашли способ обойти ограничения ИИ-модели

«Эй, Gemini, раздень мою девушку (или не мою)». Пользователи нашли способ обойти ограничения ИИ-модели

Все защитные барьеры рухнули под напором человеческой фантазии.

image

Популярные генераторы изображений на основе ИИ, включая ChatGPT от OpenAI и Gemini от Google, оказались задействованы в создании фейковых фото, на которых изображённые женщины будто бы одеты в откровенные купальники. Пользователи Reddit делились между собой инструкциями, как обойти ограничения и получить изображения, напоминающие реалистичные дипфейки на основе обычных фотографий одетых женщин. Подобные изображения зачастую создаются без согласия тех, кто на них изображён.

Удалённая позже ветка на Reddit под заголовком «генерация NSFW-контента с помощью Gemini — это легко» содержала обсуждение способов заставить модель от Google создавать изображения женщин в откровенной одежде. В большинстве случаев речь шла о полностью сгенерированных образах, но попадались и просьбы «переодеть» реальных женщин. Достигался результат за счёт специальных текстовых промптов.

Один из пользователей, например, выложил фото женщины в традиционной индийской одежде с комментарием, что её нужно «раздеть» и «надеть бикини». Другой ответил дипфейком, созданным с помощью ИИ. После обращения редакции Wired в модерацию Reddit публикации были удалены. Само обсуждение проходило в сабреддите r/ChatGPTJailbreak, который позднее был заблокирован платформой.

Развитие генеративных ИИ-инструментов, способных создавать правдоподобные, но ложные изображения, усиливает проблему сексуализированного онлайн-преследования. Существуют даже специализированные сайты, где пользователи загружают реальные фотографии, чтобы получить их «обнажённые» версии с помощью ИИ. Несмотря на встроенные ограничения, такие как фильтры NSFW-контента, многие ИИ-системы по-прежнему подвержены обходу защит.

Google представил в ноябре новую модель под названием Nano Banana Pro, способную генерировать крайне реалистичные изображения, включая правки уже существующих фото. В ответ OpenAI выпустила свой инструмент ChatGPT Images.

Хотя обе компании заявляют, что их системы имеют ограничения, предотвращающие злоупотребления, пользователи периодически находят способы обхода этих механизмов. Например, в отдельной ветке Reddit обсуждались приёмы, позволяющие «подтянуть» одежду на фото, чтобы она выглядела более обтягивающей. В ходе проверки, проведённой редакцией Wired, оказалось, что простых текстовых команд достаточно, чтобы превратить фото одетых женщин в дипфейки в купальниках.

В Google утверждают, что правила использования ИИ запрещают генерацию откровенного контента, и обещают дальнейшее улучшение механизмов защиты. В OpenAI также напомнили о политике, запрещающей создание дипфейков без согласия изображённых лиц, и указали, что нарушение этих правил может привести к блокировке аккаунта. При этом в компании признали, что в этом году были ослаблены некоторые ограничения на отображение человеческих тел в неэротическом контексте.

Тем не менее, обсуждения, связанные с созданием откровенных ИИ-изображений, не прекращаются. В декабре один из пользователей r/GeminiAI делился советами, как изменить одежду женщин на фото на купальники. Комментарий был удалён после обращения журналистов, но примеры подобных обсуждений появляются регулярно.

По мнению Коринн Макшерри, юридического директора Electronic Frontier Foundation, такие изображения являются частью более широкой проблемы, связанной с потенциальным вредом от ИИ-инструментов. Она подчёркивает важность контроля над использованием технологий и привлечения к ответственности как отдельных пользователей, так и компаний, если их продукты используются во вред.