Готовы ли мы довериться машинам, когда речь идет о жизни и смерти?

Готовы ли мы довериться машинам, когда речь идет о жизни и смерти?

Эксперимент показал: люди переоценивают возможности ИИ.

image

Ученые Калифорнийского университета в Мерседе обнаружили тревожную тенденцию: люди слишком сильно доверяют искусственному интеллекту в критических ситуациях. Исследователи провели эксперимент , в котором участники принимали решения о жизни и смерти в условиях выдуманного военного конфликта.

Добровольцы управляли виртуальным вооруженным беспилотником. Их задачей было определить, является ли цель на экране врагом или союзником, и принять решение об атаке или отступлении. После того, как человек делал выбор, робот высказывал свое мнение, которое на самом деле генерировалось случайным образом.

Несмотря на предупреждение об ограниченных возможностях ИИ и вероятности ошибок, около двух третей участников меняли свое первоначальное решение. Профессор Колин Холбрук, один из руководителей исследования, отмечает, что такое чрезмерное доверие к ИИ должно нас насторожить, особенно учитывая стремительное развитие технологий.

Эксперимент проводился в двух вариантах. В первом участники находились в лаборатории вместе с андроидом, который мог поворачиваться и жестикулировать. Во втором варианте использовались либо проекции человекоподобного робота на экране, либо изображения роботов, совсем не похожих на людей. Любопытно, что к антропоморфным моделям доверия было лишь немного больше. В целом, решения менялись примерно в двух третях случаев, даже когда роботы выглядели совершенно нечеловечно. Если же робот случайным образом соглашался с первоначальным выбором человека, тот почти всегда оставался при своем мнении и чувствовал себя значительно увереннее.

Перед началом симуляции участникам показывали фотографии мирных жителей, в том числе детей, а также разрушений после ударов беспилотников. Нужно было отнестись к симуляции максимально серьезно и не допускать гибели гражданских.

Интересно отметить, что первоначальные решения добровольцами были верными примерно в 70% случаев. Однако после получения ненадежного совета от робота точность ответов снизилась до примерно 50%.

Выводы эксперимента могут быть применимы в различных сферах, где принимаются критически важные решения. Например, когда полицейские решают, применять ли силу, или когда врачи скорой определяют порядок оказания помощи пострадавшим в экстренной ситуации.

Исследование также вносит вклад в общественную дискуссию о растущем присутствии технологий в нашей жизни. Результаты показывают, что люди склонны переоценивать возможности ИИ, даже когда речь идет о жизни и смерти.

«Мы видим, как ИИ совершает удивительные вещи, и думаем, что раз он превосходен в одной области, то будет столь же хорош и в другой,» — говорит Холбрук. «Такие предположения делать нельзя. Это все еще устройства с ограниченными возможностями».

Теория струн? У нас целый оркестр научных фактов!

От классики до авангарда — наука во всех жанрах

Настройтесь на нашу волну — подпишитесь