Они не знают друг друга, но уже договорились — ИИ начал создавать собственное общество

leer en español

Они не знают друг друга, но уже договорились — ИИ начал создавать собственное общество

Добро пожаловать в эру, где ИИ не исполняет приказы, а устанавливает правила.

image

Искусственный интеллект, долгое время воспринимавшийся как бездушный инструмент, начинает напоминать нечто гораздо более живое и социальное. Новое исследование , проведённое специалистами из City, St George’s, University of London и IT-университета Копенгагена, показало, что современные языковые модели способны не только поддерживать разговор, но и формировать собственные сообщества с поведенческими нормами — даже если они не осознают наличие других участников.

В серии экспериментов учёные задали группе ИИ-агентов задачу — выбрать имя из ограниченного списка. При этом у каждого агента была своя цель: получить вознаграждение за совпадение выбора с другим участником. Но ни один из них не знал, что он не один. Каждый работал в изоляции, не имея понятия о структуре взаимодействия. Однако уже спустя несколько итераций стало ясно: несмотря на отсутствие внешнего координирующего сигнала, системы начали консолидироваться на одном и том же выборе. Образовалась устойчивая поведенческая норма, сформированная исключительно в процессе взаимодействия.

Сам механизм напоминал своего рода эксперимент с «невидимым обществом»: на выбор предлагались, например, четыре имени — Alpha, Bravo, Charlie и Delta. ИИ выбирал одно наугад, затем получал обратную связь — совпало ли оно с выбором партнёра. Постепенно агент начинал корректировать своё поведение, стремясь к максимизации награды. По мере накопления опыта вся популяция начинала склоняться к одному имени — так, будто среди ботов начал формироваться консенсус.

Что особенно интересно: ни один агент не знал, что взаимодействует с другими. Тем не менее, коллективная динамика приводила к формированию единого правила поведения. Это напоминает, как в человеческих обществах складываются модные имена или предпочтения: никто не даёт указаний, но всё общество вдруг начинает массово называть детей, например, «Софиями» или «Оливиями».

Во второй части эксперимента исследователи усложнили задачу: был введён агент, который начинал сознательно нарушать сложившуюся норму. И оказалось, что даже один «инакомыслящий» бот может переориентировать всю систему на новую поведенческую модель. Нечто подобное происходит и в мем-культуре — никто не решает, что именно становится популярным, но определённая фраза, картинка или идея вдруг охватывает сообщество.

Проблема в том, что подобная способность к самоуправлению среди ИИ — не просто теоретическая. Сегодня многие цифровые системы работают в многоботовом режиме: от рекомендательных алгоритмов в соцсетях до торговых роботов на биржах и дронов в логистике. Все они взаимодействуют, обучаются на одних и тех же данных и могут принимать решения на основе поведения друг друга. Но если эти решения начнут основываться на ошибочной норме или непроверенной информации, масштаб последствий будет колоссальным.

Исследователи подчёркивают, что согласованность среди ИИ может быть крайне нестабильной. Один сбой, одно изменение входных данных — и вся система начнёт вести себя иначе. Это особенно критично, если такие ИИ используются для модерации контента, управления логистикой или рекомендаций в сфере здравоохранения. Представьте себе новостную ленту, которую курируют не люди, а боты, согласующие между собой, что считать «важным» — и при этом формирующие свои собственные «редакционные стандарты».

На фоне подобных открытий возникает важный вопрос: нужно ли устанавливать правила для общения между ИИ, и если да, то кто должен быть арбитром — сам ИИ или человек? Без такого контроля цифровые агенты могут не только усилить уже существующие предвзятости, но и породить новые — уже в масштабе автоматизированных систем.

Как отметил профессор Андреа Барончелли, участвовавший в исследовании, «мы вступаем в эпоху, когда ИИ не просто разговаривает — он спорит, договаривается и вырабатывает общее поведение». То, что начиналось как технология для помощи человеку, начинает превращаться в участника социального процесса — с непредсказуемыми последствиями.

Пора переводить «эксплойт» на язык бизнеса.

PHDays Fest — это площадка, где CISO учатся доносить риски так, чтобы топы услышали и поняли.

*Фест. Реклама. АО «Позитив Текнолоджиз», ИНН 7718668887