Anthropic и Пентагон не могут договориться, как ИИ будет использоваться в армии.

Министерство обороны США вступило в жесткий спор с компанией Anthropic из-за того, как военные собираются использовать новые технологии. Камнем преткновения стали ограничения, которые компания требует ввести, чтобы ее системы не применялись для автономного наведения оружия и слежки внутри страны.
По данным источников, знакомых с переговорами, стороны обсуждали условия крупного контракта на сумму до 200 млн долларов, но в итоге зашли в тупик. Anthropic настаивает на защитных механизмах, которые не позволят применять ее модели без участия человека при выборе целей для удара, а также для наблюдения за гражданами США. Военное ведомство с таким подходом не согласно.
Представители компании заявили, что их технологии уже широко используются американскими структурами национальной безопасности и диалог с военными продолжается. Ведомство на запрос журналистов оперативно не ответило.
Ситуация стала одним из первых серьезных испытаний для отношений между разработчиками искусственного интеллекта и властями США. После нескольких лет напряженности крупные технологические компании начали активнее сотрудничать с государством, в том числе по военным проектам. Теперь на практике решается вопрос, могут ли частные разработчики влиять на то, как армия и разведка применяют такие системы в боевых условиях.
Источники сообщают, что военные ссылаются на свою стратегию внедрения искусственного интеллекта и считают, что могут использовать коммерческие разработки независимо от внутренних правил компаний, если это не нарушает американские законы. При этом без участия специалистов Anthropic развернуть их модели будет сложно, так как именно сотрудники компании настраивают и дорабатывают системы под конкретные задачи.
Конфликт возник в непростой момент для Anthropic. Компания из Сан-Франциско готовится к возможному выходу на биржу и активно продвигает свои решения для государственных заказчиков. Ранее она получила контракт Пентагона вместе с несколькими другими крупными разработчиками искусственного интеллекта.
Генеральный директор Anthropic Дарио Амодеи недавно публично заявил, что искусственный интеллект должен помогать обороне страны, но не в тех сценариях, которые делают государство похожим на авторитарные режимы. Ранее он также резко высказывался о случаях гибели граждан США во время протестов против миграционной политики, что усилило напряженность вокруг темы применения технологий в силовых операциях.