Терминатор может спать спокойно. Мировые державы не смогли договориться о контроле над военным ИИ

Терминатор может спать спокойно. Мировые державы не смогли договориться о контроле над военным ИИ

Большинство стран мира побоялись брать на себя обязательства по военному ИИ.

image

На саммите Responsible AI in the Military Domain (REAIM), который прошел в испанской Ла-Корунье пятого февраля, только 35 стран из 85 участников поддержали декларацию о том, как следует управлять применением искусственного интеллекта в военной сфере. Две крупнейшие военные державы, США и Китай, к документу не присоединились.

По словам участников и делегатов, на готовность стран подписывать совместные соглашения повлияли напряженность между Соединенными Штатами и европейскими союзниками, а также неопределенность относительно того, какими будут трансатлантические отношения в ближайшие месяцы и годы. На фоне этого часть государств предпочла не брать на себя даже политические обязательства.

Сама декларация отражает растущую тревогу: развитие ИИ идет настолько быстро, что правила его военного использования могут не успевать, а это повышает риск аварий, ошибочных расчетов и непреднамеренной эскалации. Министр обороны Нидерландов Рубен Брекельманс описал ситуацию как «дилемму заключенного»: правительствам нужно вводить ответственные ограничения, но одновременно они боятся оказаться в худшем положении по сравнению с потенциальными противниками. Он отметил, что Россия и Китай, по его словам, продвигаются очень быстро, и это одновременно подталкивает к ускорению разработок и усиливает необходимость работать над ответственным применением таких систем.

Подписавшие документ страны согласились с набором из 20 принципов. Среди них закрепляется идея человеческой ответственности за применение оружия с ИИ, подчеркивается важность четких цепочек командования и управления, а также предлагается обмениваться информацией о национальных механизмах надзора в тех случаях, когда это не противоречит требованиям национальной безопасности. Также отдельно отмечены необходимость оценки рисков, надежного тестирования и обучения персонала, который будет работать с военными ИИ-возможностями.

При этом декларация не является юридически обязательной. Исследовательница Института ООН по исследованию проблем разоружения Ясмин Афина, консультировавшая процесс, пояснила, что даже в таком формате некоторые страны чувствовали себя некомфортно, потому что в этом году речь шла о более конкретных подходах, чем прежде.

Для сравнения: на двух предыдущих саммитах в Гааге и Сеуле в 2023 и 2024 годах около 60 государств поддержали более общую «дорожную карту действий» без юридических обязательств. Тогда США документ одобрили, а Китай, как и сейчас, остался в стороне.