Чем умнее оружие, тем глупее дипломатия — пока в ООН спорят, дроны уже знают, кого убить

Чем умнее оружие, тем глупее дипломатия — пока в ООН спорят, дроны уже знают, кого убить

Алгоритмам не нужен приказ, чтобы начать то, чего никто не сможет остановить.

image

На фоне стремительного развития технологий и участившегося применения искусственного интеллекта в военных конфликтах, в штаб-квартире ООН вновь собрались представители разных стран, чтобы обсудить судьбу автономных систем вооружения. Несмотря на растущий список примеров боевого применения таких систем — единых международных правил по-прежнему нет.

С 2014 года в рамках Конвенции о некоторых обычных видах оружия (CCW) обсуждаются перспективы запрета полностью автономных систем, работающих без значимого участия человека. Однако процесс идёт крайне медленно, и большинство предложений так и остаются на бумаге.

Генеральный секретарь ООН Антониу Гутерриш обозначил 2026 год как дедлайн для выработки конкретных международных правил по использованию автономного оружия. Однако, как отмечают правозащитники и участники дискуссии, консенсус между странами всё ещё отсутствует. Представитель МИД Австрии Александр Кментт предупредил, что времени для создания механизмов сдерживания почти не осталось — технологии развиваются быстрее, чем регуляторы успевают реагировать.

Особую обеспокоенность вызывает то, что крупнейшие военные державы — США, Россия, Китай и Индия — отказываются поддерживать юридически обязывающий международный договор, предпочитая национальные нормы или уже существующее право. По мнению представителей Пентагона, автономные системы могут даже снизить риски для мирного населения по сравнению с традиционным оружием. В то же время независимые наблюдатели указывают, что в условиях отсутствия регулирования начинается полномасштабная гонка вооружений.

На сегодняшний день, по данным Future of Life Institute, уже отслеживается около 200 активных автономных систем, задействованных в вооружённых конфликтах на Ближнем Востоке и в Африке. Израиль также подтверждает использование ИИ-систем для идентификации целей в Газе, настаивая на соответствии международному праву.

Несмотря на заверения государств, правозащитники, включая Human Rights Watch и Amnesty International, подчёркивают, что без чёткой системы ответственности любые заявления о соблюдении гуманитарных норм остаются пустыми. Доклад Amnesty указывает, что всё больше задач, связанных с решением о жизни и смерти, передаётся алгоритмам — и это должно быть немедленно остановлено.

Сторонники создания международного договора, включая кампанию Stop Killer Robots, предупреждают, что ожидать добросовестного саморегулирования от оборонных корпораций было бы наивно. Пока индустрия ИИ-вооружений стремительно набирает обороты, лишь немногие государства по-настоящему готовы ограничить использование подобных систем в интересах безопасности и прав человека.

Предстоящие встречи в сентябре в рамках CCW станут тестом на способность государств преодолеть разногласия. И если этого не произойдёт, риски выйти за пределы контроля станут реальностью быстрее, чем будет подписан хоть какой-то документ.

Твой код — безопасный?

Расскажи, что знаешь о DevSecOps.
Пройди опрос и получи свежий отчет State of DevOps Russia 2025.