Как генеративный ИИ отравляет общество и почему мы игнорируем проблемы в настоящем?
Специалисты из подразделений Google — лаборатории искусственного интеллекта DeepMind, аналитического центра Jigsaw и благотворительного крыла Google.org — представили тревожные результаты нового исследования о влиянии генеративного искусственного интеллекта (ИИ) на общество. Доклад «Злоупотребление генеративным ИИ: таксономия тактик и анализ данных из реального мира» основан на изучении примерно 200 случаев неправомерного использования технологии, освещенных в СМИ и научных публикациях с января 2023 по март 2024 года.
В отличие от громких заявлений некоторых руководителей технологических компаний о «экзистенциальных угрозах» искусственного общего интеллекта (AGI) в будущем, исследование Google сосредоточено на реальном вреде, который генеративный ИИ наносит уже сегодня и который может усугубиться в ближайшей перспективе.
Главный вывод исследования: сейчас наводнить интернет искусственно созданными текстами, аудио, изображениями и видео не составит труда для любого пользователя.
Как утверждают авторы, подавляющее большинство случаев злоупотребления генеративным ИИ (почти 9 из 10 задокументированных инцидентов) связаны с эксплуатацией возможностей этих систем, а не с прямыми атаками на сами модели.
При этом многие способы злоупотребления даже не противоречат правилам использования моделей напрямую и не выглядят откровенно вредоносными.
Исследователи предупреждают: доступность генеративного ИИ и реалистичность его результатов позволяют создавать огромные объемы контента, неотличимого от настоящего. Особую опасность представляет использование таких технологий в политической сфере – сейчас, в преддверии выборов, дипфейки особенно часто выдаются за реальные высказывания публичных фигур. Можно, например, вспомнить случай с Джо Байденом, который обзванивал избирателей и просил не приходить на предварительное голосование.
Наплыв низкокачественного контента, созданного ИИ, может подорвать доверие пользователей к любой информации в интернете. Людям придется постоянно сомневаться в подлинности увиденного и прочитанного, что приведет к информационной перегрузке.
Уже сейчас наблюдается опасный феномен «дивиденда лжеца»: публичные фигуры, уличенные в неблаговидных поступках, оправдываются тем, что компрометирующие их материалы якобы созданы искусственным интеллектом. Это перекладывает бремя доказательства на обвинителей, усложняя и удорожая процесс проверки фактов.
Однако исследователи признают ограниченность своей методологии, основанной на анализе публикаций в средствах массовой информации. По их словам, журналисты склонны уделять больше внимания сенсационным случаям или событиям, напрямую влияющим на общественное мнение.
В то же время реальные масштабы проблемы могут быть значительно больше, чем удалось отразить в работе. Многие случаи неправомерного использования ИИ остаются в тени, не привлекая внимания общественности и не попадая на страницы газет и новостных сайтов.
Особую обеспокоенность вызывает проблема создания интимных изображений без согласия (NCII). Несмотря на то, что эта тема периодически освещается в прессе, истинные масштабы явления остаются недооцененными. Причины кроются в деликатности проблемы и огромном количестве отдельных случаев, которые практически невозможно полностью отследить и задокументировать.
Исследователи приводят интересный пример : один пользователь на платформе Patreon создал более 53 000 нецензурных изображений знаменитостей без их согласия. Этот случай был выявлен благодаря журналистскому расследованию, но он лишь верхушка айсберга.
Подобные сообщества продолжают активно действовать в различных мессенджерах, особенно в Telegram, а также на анонимных форумах вроде 4chan. Так в январе 2024 года в Twitter распространились поддельные обнаженные фотографии Тейлор Свифт.
Примечательно, что в исследовании не упоминается роль самой Google как одного из крупнейших разработчиков и распространителей технологий генеративного ИИ. Вместо этого авторы призывают к многостороннему подходу в решении проблемы, включающему сотрудничество между политиками, исследователями, лидерами индустрии и гражданским обществом.
Никаких овечек — только отборные научные факты