Специалисты Google зафиксировали рост числа попыток кражи «мозгов» ИИ-моделей.

Хакеры всё активнее подключают искусственный интеллект к своим атакам, и делают это не ради эксперимента, а ради скорости и масштаба. Новое исследование подразделения по анализу угроз Google показывает, что во второй половине 2025 года злоумышленники начали использовать такие системы почти на каждом этапе вторжения. От разведки и подбора жертв до написания вредоносных программ и фишинговых писем.
Аналитическая группа Google по угрозам зафиксировала рост попыток так называемого «извлечения моделей». Речь идёт о схемах, при которых злоумышленники через легальный доступ к интерфейсам сервисов шаг за шагом выкачивают логику работы больших языковых моделей и затем создают собственные копии. По сути, это кража интеллектуальной собственности. В компании сообщили, что такие попытки в течение года регулярно пресекались. Чаще всего за ними стояли коммерческие структуры и исследовательские группы, а не государственные хакерские команды.
При этом связанные с государствами группировки из КНДР, Ирана и Китая уже активно используют языковые модели как рабочий инструмент. С их помощью они собирают сведения о целях, изучают уязвимости, подготавливают правдоподобные фишинговые сообщения и ведут переписку с жертвами. Отмечается рост так называемого «фишинга с выстраиванием доверия», когда переписка ведётся в несколько этапов и выглядит максимально естественно. Раньше такие атаки часто выдавали ошибки языка и странные формулировки, теперь этот признак постепенно исчезает.
В Google подчёркивают, что пока не наблюдают прорывных возможностей, которые бы радикально изменили картину угроз. Искусственный интеллект ускоряет и упрощает уже известные приёмы, но не создал принципиально новых типов атак. Тем не менее эффективность операций выросла, а порог входа снизился.
Отдельное внимание в отчёте уделено вредоносным программам с элементами искусственного интеллекта. Обнаружено семейство загрузчиков под названием HONESTCUE. Эти образцы обращаются к интерфейсу языковой модели, получают сгенерированный программный код и используют его для загрузки следующего этапа заражения. Часть кода формируется «на лету» и выполняется прямо в памяти, без записи на диск. Это усложняет обнаружение защитными средствами.
Также выявлен фишинговый набор COINBAIT, замаскированный под сервис крупной криптобиржи. Его веб-часть построена на современных облачных платформах и, по признакам в коде, создавалась с помощью систем автоматической генерации приложений. Злоумышленники размещали элементы страниц на доверенных облачных сервисах, чтобы обходить сетевые фильтры.
Ещё одна заметная схема связана со злоупотреблением публичными ссылками на диалоги с чат-ботами. Атакующие формируют убедительную инструкцию «по исправлению ошибки» для Windows или macOS, встраивают туда вредоносную команду и распространяют ссылку на такой диалог через рекламу. Пользователь видит страницу на доверенном сервисе и сам копирует команду в терминал, после чего происходит заражение.
На подпольных форумах растёт спрос на «специальные» системы искусственного интеллекта для киберпреступности. Одним из примеров стал сервис Xanthorox, который рекламировался как автономная модель для атак. Проверка показала, что внутри он использует обычные коммерческие модели и открытые инструменты, а не собственную разработку. Попутно растёт чёрный рынок ключей доступа к интерфейсам ИИ, которые крадут через уязвимые открытые проекты.
В Google заявили, что блокируют учётные записи и проекты, связанные с подобной активностью, и усиливают защитные механизмы самих моделей. Компания также развивает собственные системы на базе искусственного интеллекта для поиска уязвимостей в программах и их автоматического исправления. По оценке компании, гонка между защитой и злоупотреблением ИИ только начинается, и в ближайшие годы интенсивность таких попыток будет расти.