Генерация поддельных документов и персонализация угроз теперь полностью отданы на аутсорс алгоритмам.

Искусственный интеллект, который ещё недавно воспринимался как вспомогательный инструмент в сфере информационной безопасности, теперь выходит на передний план и становится ядром цифровых угроз. Новый прогноз Google Cloud на 2026 год показывает, что уже в ближайшие месяцы баланс сил между нападающими и защитниками изменится: ИИ будет не просто помогать киберпреступникам — он начнёт управлять их операциями целиком.
Специалисты отмечают, что переход от экспериментального использования алгоритмов к повсеместному применению в преступных схемах уже практически завершён. Автоматизация даст злоумышленникам возможность не только писать код и рассылать фишинговые письма без участия человека, но и подстраивать свои кампании под поведение жертв, обучаясь на собственных ошибках. Эти системы смогут подражать людям, использовать уязвимости в программном обеспечении и переписывать собственный вредоносный код за секунды.
Особую опасность представляют так называемые агентные ИИ-системы, способные самостоятельно выполнять последовательные этапы атаки — от разведки и выбора жертвы до внедрения шифровальщика и вывода данных. Такой подход позволит проводить кампании беспрерывно и с минимальными затратами, что радикально увеличит масштаб угроз.
Вместе с ростом автономных инструментов обостряется и проблема атак нового типа. Речь идёт о так называемых prompt injection — скрытых манипуляциях, когда злоумышленник заставляет нейросеть нарушить собственные правила и выполнять опасные команды. В 2026 году, по оценке Google Cloud, такие атаки станут массовыми: компании всё чаще интегрируют мощные языковые модели в свои продукты и бизнес-процессы, создавая идеальные условия для эксплуатации.
Отдельного внимания заслуживает социальная инженерия. Обман остаётся главным оружием атакующих, но теперь с поддержкой ИИ он становится почти неотличим от реального общения. В отчёте отмечается, что именно человеческий фактор продолжает оставаться слабым звеном, а атаки вроде voice phishing (vishing) переходят на новый уровень. Теперь искусственный интеллект способен клонировать голоса руководителей или сотрудников службы поддержки, создавая убедительные телефонные сценарии для выманивания данных и доступа к внутренним системам.
Одновременно преступники осваивают необычные методы внедрения шифровальщиков — например, скрывая вредоносные команды в автоматически сгенерированных текстах и аннотациях. Внешне безобидное содержание может содержать инструкции, которые пользователь или ИИ-агент выполняет автоматически, тем самым заражая устройство.
Google Cloud также отмечает, что комбинация вымогательства, кражи данных и многоуровневого шантажа останется самой разрушительной формой киберпреступности в 2026 году. При этом развитие ИИ ускоряет все её составляющие: генерация поддельных документов, обработка украденной информации и персонализация угроз теперь выполняются алгоритмами, а не людьми.
Компания подчёркивает, что предпринимает шаги для защиты собственных моделей от манипуляций. Защита строится на многоуровневой архитектуре, включающей обучение систем фильтровать подозрительные запросы, установку логических ограничений на уровне инфраструктуры и обязательное подтверждение действий, связанных с риском. Применяются машинные классификаторы для отсечения вредоносных инструкций, усиление «фокуса» моделей на намерениях пользователя и очистка результатов перед выводом.
Тем не менее специалисты Google Cloud предупреждают: речь идёт не о потенциальной угрозе будущего, а о текущей реальности. 2026 год, по их прогнозам, станет временем, когда ИИ окончательно изменит картину киберугроз — не только повышая эффективность защитных систем, но и превращая атаки в самоуправляемые механизмы, способные действовать без участия человека.