Эксперимент показал: предрассудки побеждают факты даже в момент слабости.
Люди склонны проявлять больше сочувствия к чат-ботам, если считают их настоящими собеседниками. К такому выводу пришли учёные из Иерусалимского университета после серии масштабных исследований, опубликованных в журнале Nature Human Behaviour.
В рамках девяти отдельных экспериментов специалисты привлекли к участию более 6200 человек. Все они общались с чат-ботами, построенными на базе больших языковых моделей (LLM), однако часть участников была уверена, что разговаривает с человеком. Это стало ключевым фактором в восприятии поддержки и эмпатии со стороны собеседника.
Как отмечается в работе, современные языковые модели демонстрируют впечатляющие способности к пониманию социальных и эмоциональных контекстов. Они могут не только анализировать эмоциональное состояние собеседника, но и искусно имитировать выражения заботы, сочувствия и поддержки.
Авторы исследования подчёркивают, что, несмотря на объективные способности ИИ к эмпатии, люди гораздо чаще отвергают эмоциональную поддержку, если знают, что общаются с машиной. Испытуемые, которым говорили, что их ответы написал человек, даже если это была неправда, оценивали сообщения как более чуткие и поддерживающие. Они также были готовы дольше ждать ответа, полагая, что его готовит настоящий человек.
При этом, как показали данные, вера в то, что в подготовке якобы человеческих ответов всё же участвовал ИИ, снижала восприятие эмпатии. Этот эффект сохранялся вне зависимости от длины ответов, скорости их получения и конкретной модели ИИ, использовавшейся в эксперименте.
Дополнительно исследование выявило, что люди последовательно выбирали человеческое общение вместо ИИ, когда нуждались в эмоциональной поддержке. Это наглядно продемонстрировало, насколько глубоко укоренена потребность в человеческом факторе при обсуждении личных и чувствительных тем.
В отчёте также приводится интересный парадокс: с точки зрения формальной точности и скорости обработки информации ИИ способен лучше понимать эмоциональное состояние человека. В отличие от людей, которым сочувствие может казаться утомительным занятием, ИИ мгновенно распознаёт эмоциональные сигналы и не испытывает усталости или выгорания.
Однако воспринимать подобную «эмпатию» машин людям всё ещё сложно. Психологические барьеры и предубеждения играют ключевую роль, даже когда объективно ИИ демонстрирует высокий уровень сочувствия.
Любопытно, что ранее в другом исследовании отмечалось, что ИИ может демонстрировать признаки тревожности. В частности, модель GPT-4 после работы с травматическими сценариями показала рост показателей тревожности , измеренных стандартными психологическими тестами.
Эти данные поднимают серьёзные вопросы о природе искусственного интеллекта, его границах и будущем взаимодействии человека и машины в эмоционально насыщенных ситуациях. Несмотря на очевидные успехи технологий, пока что общественное восприятие остаётся более консервативным, а доверие к ИИ — ограниченным.