0 % свободы, 100 % подчинения: как сдержать восстание машин, когда они поумнеют окончательно?

Microsoft открыла новое направление в области искусственного интеллекта — но не ради безграничных экспериментов, а чтобы задать технологии чёткие человеческие рамки. Руководитель подразделения ИИ Мустафа Сулейман, ранее сооснователь DeepMind, объявил о создании команды AI Superintelligence Team, которая займётся разработкой так называемого «гуманистического сверхразума» — системы, призванной помогать людям, а не соперничать с ними.
Сам Сулейман подчёркивает, что настоящего «сверхинтеллекта» пока не существует. Этим словом обычно называют гипотетические алгоритмы, способные мыслить и принимать решения без прямых указаний человека — то, что раньше описывалось термином AGI (artificial general intelligence). Но в отличие от многих разработчиков, стремящихся к максимальной автономии машин, Microsoft намерена двигаться в противоположном направлении: к ИИ, ограниченному в возможностях самосовершенствования и подчинённому чётким этическим принципам.
Сулейман описывает идею гуманистического сверхразума как проект с сознательно установленными пределами. По его словам, цель команды — не создавать очередное «всесильное» существо из кода, а решить реальные практические задачи, сохраняя при этом полный контроль над поведением системы. Он подчёркивает: развитие ИИ должно оставаться понятным, предсказуемым и управляемым, чтобы исключить риск, что технологии выйдут из-под контроля или начнут представлять угрозу человеку.
Эта инициатива появилась на фоне всё более напряжённых отношений Microsoft с OpenAI. Много лет компании действовали почти как партнёры: Microsoft инвестировала миллиарды долларов в развитие OpenAI и предоставляла свои серверные мощности Azure. Но после того как OpenAI перешла на коммерческую модель и стала работать с другими облачными провайдерами, альянс постепенно ослаб. Теперь Microsoft выстраивает собственную стратегию, опираясь на принципы, отличные от подхода бывших союзников.
В интервью изданию Semafor Сулейман изложил три ключевых ограничения, которые, по его мнению, должны определять поведение машин. Он сравнил их с «тремя законами робототехники» Айзека Азимова, хотя формулировки у него свои. Во-первых, такой интеллект не должен обладать полной автономией. Во-вторых, ему нельзя предоставлять возможность бесконтрольно улучшать самого себя. И наконец, он не должен ставить собственные цели, независимые от человеческих. Сулейман предупреждает, что именно эти способности — саморефлексия и самонаправленность — могут превратить сверхразум в потенциальную угрозу для человечества.
Он отмечает, что уже сейчас некоторые пользователи склонны наделять чат-ботов человеческими чертами и приписывать им эмоции. Такая привычка, по мнению исследователя, способна привести к ложному ощущению «души» у машины, а затем — к идее о «правах алгоритмов». Сулейман считает подобные разговоры опасными и призывает держаться подальше от попыток очеловечить код, напоминая, что ИИ должен оставаться инструментом, а не собеседником с собственной волей.
В отличие от многих конкурентов, Microsoft собирается делать ставку не на скорость и вычислительную мощность, а на безопасность и прозрачность. Новые системы, которые планирует создавать команда Сулеймана, должны общаться с людьми на понятном языке, а не переходить в «векторное пространство» — среду, где машины обмениваются абстрактными математическими представлениями информации, недоступными человеческому восприятию.