Ученые придумали неожиданный способ борьбы с антинаучными сказками.
В эпоху интернета теории заговора распространяются с невероятной скоростью. Некоторые из них кажутся безобидными, но другие способны посеять раздор в обществе и даже привести к трагическим последствиям. Однако недавнее исследование, опубликованное в журнале Science , предлагает неожиданное решение проблемы — чат-боты на основе искусственного интеллекта.
Ученые из Массачусетского технологического института (MIT) и Корнельского университета провели масштабный эксперимент, в котором приняли участие 2190 добровольцев. Каждому из них предложили обсудить теорию заговора, в которую они верили, с чат-ботом GPT-4 Turbo — одной из самых совершенных языковых моделей на сегодняшний день.
Результаты оказались поразительными: после трех раундов общения с ИИ участники в среднем начинали сомневаться в своих убеждениях на 20%. Что особенно важно, эффект сохранялся даже спустя два месяца после эксперимента.
«Даже в лабораторных условиях 20% — это очень существенное изменение», — комментирует Юньхао Чжан, постдокторант из Института психологии технологий. «В реальном мире эффект может быть слабее, но даже 10% или 5% — это все равно очень значительный результат».
Ключ к успеху кроется в уникальных возможностях искусственного интеллекта. В отличие от человека, ИИ обладает доступом к огромному массиву информации по самым разным темам.
«Разные люди цепляются за разные аспекты конспирологической теории», — объясняет Томас Костелло, ведущий автор исследования. «Поэтому одни и те же факты могут убедить одного человека, но совершенно не подействовать на другого. ИИ же способен адаптировать свои аргументы под конкретного собеседника».
Исследователи уделили особое внимание проблеме достоверности информации, которую предоставляют чат-боты. Профессиональный фактчекер проверил 128 утверждений, сделанных ИИ в ходе бесед. Результат превзошел все ожидания: 99,2% информации оказалось полностью достоверной, 0,8% — «слегка вводящей в заблуждение», и ни одного полностью ложного утверждения.
Дэвид Рэнд, профессор MIT, объясняет такую точность тем, что интернет буквально наводнен информацией о теориях заговора: «Эти данные в большом количестве представлены в обучающей выборке модели».
Ученые видят широкие перспективы применения своей методики. «Можно представить сценарий, где мы предлагаем пользователям форумов, посвященных теориям заговора, “провести собственное исследование”, вступив в дискуссию с чат-ботом», — рассуждает Рэнд. «Также можно интегрировать ИИ в социальные сети для автоматической публикации корректирующих ответов на посты с теориями заговора или даже размещать рекламу в Google по поисковым запросам, связанным с конспирологией, например,”Глубинное государство”»
Гордон Пенникук, доцент Корнельского университета и соавтор исследования, признается, что результаты заставили его пересмотреть свои взгляды на человеческую природу. «Люди оказались на удивление восприимчивы к фактам и аргументам», — говорит он. «Это очень важно. Доказательства действительно имеют значение». Однако исследователи предостерегают от чрезмерного оптимизма. «Мы не можем полностью решить проблему теорий заговора, но теперь у нас есть инструмент, чтобы ее существенно смягчить», — подчеркивает Юньхао Чжан. «Это шаг к тому, чтобы сделать наше общество лучше».
Исследование также поднимает важные этические вопросы о роли искусственного интеллекта в формировании общественного мнения. Сможем ли мы найти баланс между борьбой с дезинформацией и сохранением права людей на собственные убеждения? Ответ на этот вопрос еще предстоит найти.
Никаких овечек — только отборные научные факты