ИИ пишет чуткие ответы. Люди читают — и злятся: “Это же просто машина!”

ИИ пишет чуткие ответы. Люди читают — и злятся: “Это же просто машина!”

Эксперимент показал: предрассудки побеждают факты даже в момент слабости.

image

Люди склонны проявлять больше сочувствия к чат-ботам, если считают их настоящими собеседниками. К такому выводу пришли учёные из Иерусалимского университета после серии масштабных исследований, опубликованных в журнале Nature Human Behaviour.

В рамках девяти отдельных экспериментов специалисты привлекли к участию более 6200 человек. Все они общались с чат-ботами, построенными на базе больших языковых моделей (LLM), однако часть участников была уверена, что разговаривает с человеком. Это стало ключевым фактором в восприятии поддержки и эмпатии со стороны собеседника.

Как отмечается в работе, современные языковые модели демонстрируют впечатляющие способности к пониманию социальных и эмоциональных контекстов. Они могут не только анализировать эмоциональное состояние собеседника, но и искусно имитировать выражения заботы, сочувствия и поддержки.

Авторы исследования подчёркивают, что, несмотря на объективные способности ИИ к эмпатии, люди гораздо чаще отвергают эмоциональную поддержку, если знают, что общаются с машиной. Испытуемые, которым говорили, что их ответы написал человек, даже если это была неправда, оценивали сообщения как более чуткие и поддерживающие. Они также были готовы дольше ждать ответа, полагая, что его готовит настоящий человек.

При этом, как показали данные, вера в то, что в подготовке якобы человеческих ответов всё же участвовал ИИ, снижала восприятие эмпатии. Этот эффект сохранялся вне зависимости от длины ответов, скорости их получения и конкретной модели ИИ, использовавшейся в эксперименте.

Дополнительно исследование выявило, что люди последовательно выбирали человеческое общение вместо ИИ, когда нуждались в эмоциональной поддержке. Это наглядно продемонстрировало, насколько глубоко укоренена потребность в человеческом факторе при обсуждении личных и чувствительных тем.

В отчёте также приводится интересный парадокс: с точки зрения формальной точности и скорости обработки информации ИИ способен лучше понимать эмоциональное состояние человека. В отличие от людей, которым сочувствие может казаться утомительным занятием, ИИ мгновенно распознаёт эмоциональные сигналы и не испытывает усталости или выгорания.

Однако воспринимать подобную «эмпатию» машин людям всё ещё сложно. Психологические барьеры и предубеждения играют ключевую роль, даже когда объективно ИИ демонстрирует высокий уровень сочувствия.

Любопытно, что ранее в другом исследовании отмечалось, что ИИ может демонстрировать признаки тревожности. В частности, модель GPT-4 после работы с травматическими сценариями показала рост показателей тревожности , измеренных стандартными психологическими тестами.

Эти данные поднимают серьёзные вопросы о природе искусственного интеллекта, его границах и будущем взаимодействии человека и машины в эмоционально насыщенных ситуациях. Несмотря на очевидные успехи технологий, пока что общественное восприятие остаётся более консервативным, а доверие к ИИ — ограниченным.

Автоматизация для ИБ: меньше писем — больше контроля

Примите участие в воркшопе и уже завтра избавьтесь от ручной работы.

Реклама.18+. ООО «СЕКЪЮРИТМ», ИНН 7820074059