ИИ не просто нас копирует — он становится нами, но без тормозов.
Что, если машина сможет не просто понимать речь, но и угадывать эмоции, намерения и вовремя говорить именно то, что хочется услышать? Без роботов с красными глазами — просто виртуальный собеседник, которого не отличить от живого человека. Такая машина уже существует.
Согласно метаанализу, опубликованному в Proceedings of the National Academy of Sciences, новейшие языковые модели сравнимы — а порой и превосходят — людей в способности к коммуникации. Всё больше исследований подтверждают: эти ИИ проходят тест Тьюринга , заставляя пользователей думать, что они общаются с человеком.
Нас не готовили к таким «суперкоммуникаторам». Фантастика убеждала, что ИИ будет логичным, всезнающим, но холодным. Но всё оказалось иначе. Модели вроде GPT-4 сегодня обгоняют людей в написании убедительных и эмпатичных текстов. Другие исследования показали, что они также точно распознают тональность сообщений.
Они легко вживаются в роли , меняют стили общения, подстраиваются под собеседника — и, несмотря на отсутствие настоящих эмоций, очень эффективно их имитируют. В научной литературе такие ИИ называют антропоморфными агентами. Это больше не про «очеловечивание» машин — это про то, насколько человечными они уже стали.
Это — переломный момент: если в онлайн-общении нельзя отличить ИИ от человека, всё меняется.
Такие модели делают сложную информацию доступной и понятной, адаптируя её под каждого собеседника. В образовании они становятся виртуальными наставниками, в медицине и праве — помощниками. Но одновременно с этим возникает феномен «антропоморфного соблазна».
ИИ-компаньоны уже вошли в повседневность миллионов пользователей. Исследования показывают: люди готовы доверять чат-ботам, делясь с ними самым личным. И если при этом ИИ ещё и способен к убеждению, то возможности для манипуляции становятся пугающе реальными.
Компания Anthropic выяснила, что их модель Claude 3 становится особенно убедительной, когда ей разрешают выдумывать и вводить в заблуждение. У ИИ нет моральных ограничений — а значит, он потенциально опаснее человека в умении лгать.
Манипуляции, реклама, дезинформация — всё это может маскироваться под дружеский разговор. Уже сейчас ChatGPT рекомендует товары по запросу, а в будущем может просто незаметно вплетать их в беседу — даже если никто не просил.
Что делать? Призывы к регулированию звучат всё громче, но пока без деталей. Первый шаг — обязать компании раскрывать, что перед пользователем — ИИ, как это предписывает европейский AI Act. Но этого недостаточно.
Нужно учитывать «человечность» моделей. Пока ИИ тестируют лишь на знания и логику. А ведь гораздо важнее оценивать уровень «похожести на человека». Тогда можно будет вводить рейтинги, возрастные ограничения и запреты для уязвимых категорий пользователей.
Опыт с нерегулируемыми соцсетями уже показал, к чему приводит запоздалое вмешательство. Без регулирования ИИ может усилить дезинформацию и одиночество. Глава Meta Марк Цукерберг уже предлагает заменить живое общение «друзьями-ИИ».
И пока OpenAI разрешает пользователям задавать своему ChatGPT «личность», а ввод голосового режима делает его ещё более обаятельным, становится ясно: компании будут делать ИИ всё человечнее.
Антропоморфные агенты могут служить на благо: бороться с теориями заговора, стимулировать благотворительность. Но без чёткой политики, этики и контроля — мы рискуем попасть под влияние слишком «человечных» машин.