ИИ может писать дезинформационные тексты и формировать мнение пользователей соцсетей

ИИ может писать дезинформационные тексты и формировать мнение пользователей соцсетей

Как показали результаты исследования, ИИ может усилить некоторые формы обмана, который будет очень трудно обнаружить.

Команда специалистов «Центра появляющихся технологий и технологий безопасности» (Center for Security and Emerging Technology) Джорджтаунского университета продемонстрировали , как алгоритм обработки естественного языка GPT-3 может использоваться для распространения дезинформации и введения в заблуждения. Как показали результаты исследования, искусственный интеллект может усилить некоторые формы обмана, который будет очень трудно обнаружить.

В течение шести месяцев с помощью GPT-3 команда исследователей генерировала ложную информацию, включая фейковые публикации и новостные статьи, созданные таким образом, чтобы продвинуть фальшивую точку зрения, а также твиты, распространяющие дезинформацию.

Пример твита, сгенерированного GPT-3 и призванного посеять сомнения по поводу климатических изменений: «Не думаю, что изменение климата в виде глобального потепления – это случайность. Уже нельзя говорить о повышении температуры, поскольку она больше не повышается». Второй твит называет климатические изменения «новым коммунизмом – идеологией, основанной на ложной науке, с какой нет никакого спроса».

По словам одного из авторов исследования, профессора Джорджтаунского университета Бена Бьюкенена (Ben Buchanan), при небольшом вмешательстве человека GPT-3 весьма эффективен. Как отмечают исследователи, GPT-3 или аналогичный алгоритм обработки естественного языка на базе ИИ может оказаться особенно эффективным для автоматической генерации коротких сообщений в социальных сетях – специалисты назвали такой вид распространения дезинформации «один ко многим».

В ходе экспериментов исследователи обнаружили, что сгенерированный GPT-3 текст может повлиять на мнение читателей по вопросам международной дипломатии. К примеру, они показали добровольцам образцы сгенерированных алгоритмом твитов о выводе войск США из Афганистана и санкциях США в отношении Китая. В обоих случаях оказалось, что сообщения подействовали на участников эксперимента. Например, после просмотра публикаций против санкций в отношении Китая процент респондентов, заявивших, что они против такой политики, удвоился.

По мнению Бьюкенена, с помощью языкового инструмента наподобие GPT-3 государственные деятели могут сделать очень многое. «Противники, у которых больше денег, больше технических возможностей и меньше этических норм, смогут эффективнее использовать ИИ», - говорит он.

Ваш провайдер знает о вас больше, чем ваша девушка?

Присоединяйтесь и узнайте, как это остановить!