ChatGPT как ассистент психотерапевта: машины и теория разума

ChatGPT как ассистент психотерапевта: машины и теория разума

ИИ постепенно учится распознавать эмоции и угадывать наши намерения.

image

Если вы когда-либо изливали душу ChatGPT, делясь своими жизненными невзгодами, то ответы чатбота, вероятно, казались вам вполне утешительными. Новейшие модели искусственного интеллекта поражают своей способностью генерировать человекоподобные отклики, создающие ощущение понимания и сопереживания. Их «эмпатичность» уже привлекла пристальное внимание психотерапевтического сообщества, и многие специалисты размышляют о том, смогут ли ИИ-системы ассистировать в терапевтических сессиях.

В основе этого феномена лежит «теория разума» — фундаментальный когнитивный навык, позволяющий людям распознавать и интерпретировать мысли, намерения, эмоциональные состояния других. Благодаря теории разума мы можем представить себя на месте собеседника, уловить подтекст его слов, определить, иронизирует ли он, лжет или чем-то расстроен.

В новаторском исследовании , опубликованном в авторитетном журнале Nature Human Behavior, ученые из Университетского медицинского центра Гамбург-Эппендорф решили выяснить, способны ли ИИ-модели, лежащие в основе таких систем, как ChatGPT, подобно людям разгадывать переживания других людей.

Для этого исследователи использовали серию хорошо зарекомендованных в психологии тестов, специально разработанных для оценки различных аспектов теории разума у человека. Эти тесты включали задания на понимание ложных убеждений, распознавание иронии, подтекста, обнаружение социальных оплошностей (ситуаций, когда кто-то говорит или делает что-то неуместное) и другие.

В экспериментах ученые сравнили две передовые семьи языковых моделей ИИ, включая GPT серию от OpenAI с моделью GPT-4, лежащей в основе ChatGPT, а также LLaMA 2 от Meta*, с более чем 1900 людьми. Испытуемым, как людям, так и ИИ-системам, предлагалось оценить ментальные установки вымышленных персонажей на основе текстовых описаний социальных ситуаций.

Результаты оказались поразительными и продемонстрировали серьезные успехи современных языковых моделей в имитации некоторых аспектов. Так, в тесте на распознавание иронии GPT-4 показала результаты на уровне, даже превосходящем человеческий. А в задании на обнаружение социальных оплошностей модель LLaMA 2 превзошла как среднестатистического человека, так и GPT-4, продемонстрировав почти стопроцентную точность.

В ряде тестовых сценариев искусственный интеллект все же проявлял слабость, указывающую на ограниченность его «понимания» контекстной составляющей ситуации. К примеру, в задании на выявление ложных убеждений, где требовалось предугадать, где вымышленный персонаж станет искать предмет после его перемещения, алгоритмы зачастую давали неверные ответы даже при незначительном изменении условий задачи.

Также ИИ-системы не всегда успешно справлялись с распознаванием социальных оплошностей в ситуациях, корректная интерпретация которых требовала учета более широкого социального контекста и общепринятых норм поведения, явно не объясненных в постановке задачи.

По мнению авторов исследования, ошибки ИИ в таких случаях могут объясняться тем, что современные языковые модели не обладают глубинным пониманием социальных конвенций и не воссоздают в полной мере когнитивные процессы людей, а лишь имитируют некоторые их проявления на основе статистики.

Тем не менее, ученые подчеркнули важность применения разнообразных психологических и нейрокогнитивных тестов при изучении внутренних механизмов работы ИИ. Такие инструменты помогают лучше понять алгоритмы «мышления» этих систем и выявить их сильные и слабые стороны, что, в свою очередь, позволит создавать более безопасные, надежные и этичные решения.

В заключение исследователи отметили: на данный момент полноценная "искусственная теория разума", полностью имитирующая человеческие когнитивные способности, остается лишь идеей. Но результаты работы показывают, что эта идея может стать реальностью в ближайшем будущем благодаря непрекращающемуся прогрессу. Развитие более совершенных систем с продвинутыми социально-когнитивными возможностями может открыть новые горизонты в разных сферах, включая психотерапию и коммуникацию человека с машиной.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться