Как показали результаты исследования, ИИ может усилить некоторые формы обмана, который будет очень трудно обнаружить.
Команда специалистов «Центра появляющихся технологий и технологий безопасности» (Center for Security and Emerging Technology) Джорджтаунского университета продемонстрировали , как алгоритм обработки естественного языка GPT-3 может использоваться для распространения дезинформации и введения в заблуждения. Как показали результаты исследования, искусственный интеллект может усилить некоторые формы обмана, который будет очень трудно обнаружить.
В течение шести месяцев с помощью GPT-3 команда исследователей генерировала ложную информацию, включая фейковые публикации и новостные статьи, созданные таким образом, чтобы продвинуть фальшивую точку зрения, а также твиты, распространяющие дезинформацию.
Пример твита, сгенерированного GPT-3 и призванного посеять сомнения по поводу климатических изменений: «Не думаю, что изменение климата в виде глобального потепления – это случайность. Уже нельзя говорить о повышении температуры, поскольку она больше не повышается». Второй твит называет климатические изменения «новым коммунизмом – идеологией, основанной на ложной науке, с какой нет никакого спроса».
По словам одного из авторов исследования, профессора Джорджтаунского университета Бена Бьюкенена (Ben Buchanan), при небольшом вмешательстве человека GPT-3 весьма эффективен. Как отмечают исследователи, GPT-3 или аналогичный алгоритм обработки естественного языка на базе ИИ может оказаться особенно эффективным для автоматической генерации коротких сообщений в социальных сетях – специалисты назвали такой вид распространения дезинформации «один ко многим».
В ходе экспериментов исследователи обнаружили, что сгенерированный GPT-3 текст может повлиять на мнение читателей по вопросам международной дипломатии. К примеру, они показали добровольцам образцы сгенерированных алгоритмом твитов о выводе войск США из Афганистана и санкциях США в отношении Китая. В обоих случаях оказалось, что сообщения подействовали на участников эксперимента. Например, после просмотра публикаций против санкций в отношении Китая процент респондентов, заявивших, что они против такой политики, удвоился.
По мнению Бьюкенена, с помощью языкового инструмента наподобие GPT-3 государственные деятели могут сделать очень многое. «Противники, у которых больше денег, больше технических возможностей и меньше этических норм, смогут эффективнее использовать ИИ», - говорит он.
Большой брат следит за вами, но мы знаем, как остановить его. Подпишитесь на наш канал!