Уроки литературы — ИИ пишет сочинения, уроки жизни — ломает детскую психику

leer en español

Уроки литературы — ИИ пишет сочинения, уроки жизни — ломает детскую психику

Подростки «нюдифайят» друг друга, а взрослые не знают, что делать.

image

Использование генеративного ИИ подростками для создания порнографических изображений своих сверстников становится серьёзной проблемой, к которой оказались не готовы ни школы, ни полиция, ни законы. Об этом говорится в новом докладе Stanford Cyber Policy Center, основанном на анализе официальных документов и интервью с жертвами, родителями, полицейскими, сотрудниками онлайн-платформ и НПО.

Исследование показывает, что технологии, которые ранее применялись для безобидных задач вроде написания школьных сочинений, теперь активно используются детьми для создания сексуализированных изображений других детей. Причём речь идёт не о чём-то скрытом: в интернете открыто обсуждаются «нюдифай»-приложения, делящиеся инструкциями, и пользователи из стран, где подобные действия не считаются преступлением, создают ощущение нормы и легитимности. Это чувство подкрепляется тем, что подобные инструменты легко доступны в Google Play и App Store, а их реклама распространяется через TikTok и Instagram*.

По словам одного из специалистов, работающего в области цифровой безопасности, в Сети насчитываются сотни таких приложений, при этом почти ни одно из них не имеет встроенных ограничений, исключающих создание детской порнографии. Даже профессионалы сталкиваются с новыми ИИ-инструментами, о которых раньше не слышали, в то время как среди школьников обсуждение таких приложений — обычное явление.

Авторы доклада подчёркивают, что несмотря на то, что 38 штатов США приняли законы, касающиеся ИИ-порнографии с участием несовершеннолетних, большинство этих законов не учитывали столь частый сценарий, как «подросток против подростка». Новые законодательные инициативы только сейчас начинают определять использование «нюдифай»-приложений в отношении сверстников как форму кибербуллинга .

В одном из эпизодов школьница узнала, что кто-то создал её обнажённое изображение с помощью ИИ. Сначала она не поверила, ведь ей казалось, что ИИ нужен только для написания эссе. Другие жертвы рассказывали о шоке от увиденного — изображения были настолько реалистичны, что выглядели как настоящие фото. Одна из матерей призналась, что ожидала «что-то вроде фотошопа», но то, что она увидела, казалось подлинным. Другая школьница рассказала, что её фото с обычного сайта было превращено в «изображение монстра с грудями», и она чувствовала полную потерю контроля.

После того как изображения становятся известны, дети сталкиваются с травлей, отстранённостью, трудностями в учёбе и даже утратой доверия к учителям. Одна школьница написала в письме сотрудникам школы, что не могла чувствовать себя в безопасности, была выбита из колеи, а окружавшие её слухи и расследование помешали сосредоточиться на учёбе.

Некоторые родители выражают беспокойство по поводу последствий — не только текущих, но и будущих. Один из страхов — что фейковые изображения могут всплыть позже и повлиять на поступление в колледж, карьеру или личную жизнь подростка. Некоторые матери боятся, что даже преподаватели не захотят писать рекомендации из-за шума вокруг подобных историй.

Проблема обостряется тем, что многие школы до сих пор не знают, как действовать в подобных ситуациях. По данным Центра демократии и технологий, 62% учителей не получили инструкций по обращению с такими инцидентами. А 56% не проходили никакого обучения, связанного с ИИ и дипфейками . Один из консультантов отметил, что в большинстве школ есть планы действий на случай вооружённого нападения, но нет никакой подготовки к случаю распространения ИИ-созданных интимных изображений учащихся.

В докладе предлагается комплекс рекомендаций: от предоставления жертвам доступа к сторонним психологам и послаблений в учёбе — до создания коммуникационных шаблонов для информирования сообщества и подключения школьных юристов для оценки правовых обязательств. Особенно подчёркивается важность анонимных каналов для сообщений: в нескольких случаях такие инциденты были раскрыты именно через т.н. «тихие линии» (например, школьные онлайн-формы для сообщений о травле).

Авторы исследования не дают чёткого ответа, стоит ли рассказывать ученикам о «нюдифай»-приложениях, поскольку есть риск, что сама информация спровоцирует их интерес и вовлечённость. Однако в условиях, когда дети в буквальном смысле могут создать фейковое интимное изображение за минуту, вопрос становится всё менее теоретическим — и всё более острым .

* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.

Красная или синяя таблетка?

В Матрице безопасности выбор очевиден.