Разбираемся, почему ведущие эксперты советуют не давать алгоритмам слишком много власти.

Искусственный интеллект, ставший незаменимым помощником в бизнесе, всё чаще воспринимается как потенциальный источник внутренних угроз. По мнению руководителя направления безопасности аналитической службы компании Palo Alto Networks Вэнди Уитмор, в 2026 году именно автономные ИИ-агенты могут представлять для компаний наибольшую опасность изнутри.
Резкий рост числа таких агентов в корпоративной среде вызывает обеспокоенность специалистов. По прогнозам аналитиков Gartner, к концу 2026 года с задачами в 40% корпоративных приложений будут справляться специализированные ИИ-системы. Ещё в 2025 году этот показатель не достигал и 5%. Такая динамика, с одной стороны, помогает частично компенсировать нехватку кадров в сфере ИБ, но с другой — создаёт новые векторы риска.
ИИ-агенты ускоряют обработку логов, выявление угроз и исправление уязвимостей, а также позволяют аналитикам фокусироваться на стратегических задачах. Однако автоматизация, выходящая за пределы контроля, оборачивается тем, что системы, созданные для защиты, могут сами стать уязвимыми. Особенно если им предоставлены широкие права доступа, что приводит к эффекту «суперпользователя» — когда агент получает возможность управлять критически важными ресурсами без ведома и участия специалистов по безопасности.
Уитмор подчёркивает важность минимизации прав доступа ИИ — по тем же принципам, что применяются к обычным сотрудникам. Проблема усугубляется и тем, что отдельные компании уже тестируют сценарии, в которых ИИ одобряет финансовые операции или подписывает документы вместо руководителей.
Хотя такие технологии повышают эффективность управления, они также создают риски неправомерных действий со стороны агентов. Достаточно лишь одной успешной атаки, например через внедрение вредоносных подсказок или эксплуатацию уязвимостей, чтобы ИИ начал действовать в интересах злоумышленников — одобрял переводы, удалял резервные копии или собирал конфиденциальные данные.
Опасность подобных сценариев уже подтверждается практикой. В 2025 году аналитики Palo Alto Networks зафиксировали случаи, когда киберпреступники использовали ИИ для автоматизации атак и генерации новых техник взлома. В одной из таких кампаний, получившей название «Anthropic attack», китайская группа использовала ИИ-инструмент Claude Code для сбора разведывательной информации в ряде организаций.
Злоумышленники начали активно работать с языковыми моделями внутри корпоративных систем, минуя привычные этапы атаки вроде получения контроля над контроллером домена. Это говорит о том, что ИИ может не только усилить атаку, но и полностью изменить её характер.
По словам Уитмор, внедрение ИИ напоминает миграцию в облако, начавшуюся два десятилетия назад. Тогда крупнейшие утечки данных происходили не из-за самой технологии, а из-за слабой конфигурации и недостаточной защиты. Аналогичная ситуация складывается и с ИИ. Пока разработка новых моделей идёт с опережением, меры безопасности заметно отстают.
В условиях растущей автономности ИИ-агентов важнейшей задачей становится внедрение базовых правил: ограничение полномочий, отслеживание действий, своевременное обнаружение аномалий. Без этого ИИ может превратиться из инструмента защиты в полноценного цифрового инсайдера.