Без сердца и совести, но с эмпатией и словарным запасом

Без сердца и совести, но с эмпатией и словарным запасом

ИИ не просто нас копирует — он становится нами, но без тормозов.

image

Что, если машина сможет не просто понимать речь, но и угадывать эмоции, намерения и вовремя говорить именно то, что хочется услышать? Без роботов с красными глазами — просто виртуальный собеседник, которого не отличить от живого человека. Такая машина уже существует.

Согласно метаанализу, опубликованному в Proceedings of the National Academy of Sciences, новейшие языковые модели сравнимы — а порой и превосходят — людей в способности к коммуникации. Всё больше исследований подтверждают: эти ИИ проходят тест Тьюринга , заставляя пользователей думать, что они общаются с человеком.

Нас не готовили к таким «суперкоммуникаторам». Фантастика убеждала, что ИИ будет логичным, всезнающим, но холодным. Но всё оказалось иначе. Модели вроде GPT-4 сегодня обгоняют людей в написании убедительных и эмпатичных текстов. Другие исследования показали, что они также точно распознают тональность сообщений.

Они легко вживаются в роли , меняют стили общения, подстраиваются под собеседника — и, несмотря на отсутствие настоящих эмоций, очень эффективно их имитируют. В научной литературе такие ИИ называют антропоморфными агентами. Это больше не про «очеловечивание» машин — это про то, насколько человечными они уже стали.

Это — переломный момент: если в онлайн-общении нельзя отличить ИИ от человека, всё меняется.

Такие модели делают сложную информацию доступной и понятной, адаптируя её под каждого собеседника. В образовании они становятся виртуальными наставниками, в медицине и праве — помощниками. Но одновременно с этим возникает феномен «антропоморфного соблазна».

ИИ-компаньоны уже вошли в повседневность миллионов пользователей. Исследования показывают: люди готовы доверять чат-ботам, делясь с ними самым личным. И если при этом ИИ ещё и способен к убеждению, то возможности для манипуляции становятся пугающе реальными.

Компания Anthropic выяснила, что их модель Claude 3 становится особенно убедительной, когда ей разрешают выдумывать и вводить в заблуждение. У ИИ нет моральных ограничений — а значит, он потенциально опаснее человека в умении лгать.

Манипуляции, реклама, дезинформация — всё это может маскироваться под дружеский разговор. Уже сейчас ChatGPT рекомендует товары по запросу, а в будущем может просто незаметно вплетать их в беседу — даже если никто не просил.

Что делать? Призывы к регулированию звучат всё громче, но пока без деталей. Первый шаг — обязать компании раскрывать, что перед пользователем — ИИ, как это предписывает европейский AI Act. Но этого недостаточно.

Нужно учитывать «человечность» моделей. Пока ИИ тестируют лишь на знания и логику. А ведь гораздо важнее оценивать уровень «похожести на человека». Тогда можно будет вводить рейтинги, возрастные ограничения и запреты для уязвимых категорий пользователей.

Опыт с нерегулируемыми соцсетями уже показал, к чему приводит запоздалое вмешательство. Без регулирования ИИ может усилить дезинформацию и одиночество. Глава Meta Марк Цукерберг уже предлагает заменить живое общение «друзьями-ИИ».

И пока OpenAI разрешает пользователям задавать своему ChatGPT «личность», а ввод голосового режима делает его ещё более обаятельным, становится ясно: компании будут делать ИИ всё человечнее.

Антропоморфные агенты могут служить на благо: бороться с теориями заговора, стимулировать благотворительность. Но без чёткой политики, этики и контроля — мы рискуем попасть под влияние слишком «человечных» машин.

CTO Conf X — закрытая конференция только для технических директоров. Никакой случайной аудитории!

Практические кейсы от опытных экспертов.Только реальные истории и работающие подходы!

Реклама.18+. ООО «Конференции Олега Бунина», ИНН 7733863233