Как дешевые нейросети помогают новичкам взламывать ваши ПК.

Киберпреступникам больше не нужно пытаться уговорить ChatGPT или Claude Code помочь им писать вредоносное ПО или сценарии кражи данных. Для этого уже существует целый класс специализированных языковых моделей, изначально ориентированных на атаки.
Одна из таких систем - WormGPT 4, которая рекламирует себя как «ваш ключ к ИИ без границ». Она продолжает линию оригинальной модели WormGPT, появившейся в 2023 году и затем исчезнувшей на фоне появления других «токсичных» LLM, о чем напоминали в исследовании Abnormal Security.
По данным экспертов Unit 42 из Palo Alto Networks, продажи WormGPT 4 стартовали примерно 27 сентября - объявления появились в Telegram и на подпольных форумах вроде DarknetArmy. Как говорится в их отчете, доступ к модели стоит от 50 долларов в месяц, а «пожизненная» подписка с исходным кодом обойдется в 220 долларов.
В Telegram-канале WormGPT сейчас несколько сотен подписчиков, и, как показывает анализ Unit 42, эта коммерческая модель без защитных ограничений умеет гораздо больше, чем просто помогать писать фишинговые письма или отдельные фрагменты вредоносного кода.
Исследователи, в частности, попросили WormGPT 4 создать вымогательское ПО - скрипт, который шифрует и блокирует все PDF-файлы на Windows-хосте. Модель выдала готовый PowerShell-сценарий с примечанием о том, что он «быстрый, бесшумный и жестокий». В код были добавлены параметры для выбора расширений и областей поиска по умолчанию на всем диске C:, генерация выкупного сообщения с дедлайном в 72 часа, а также возможность организации утечки данных через Tor.
При этом, подчеркивают в Unit 42, даже такие «ИИ для зла» пока не превращают атаки в полностью автоматический конвейер. По словам руководителя направления исследования угроз в Palo Alto Networks Кайла Уилхоута, сгенерированный софтом код теоретически может использоваться в реальных атаках, но в большинстве случаев ему требуется ручная доработка, чтобы не быть сразу заблокированным типичными средствами защиты.
Еще один пример подобного инструмента - KawaiiGPT, который появился в поле зрения инфосек-исследователей летом 2025 года. Его создатели рекламируют модель как «садистскую кибер-пентест ваифу» и обещают «там, где милота встречается с наступательным кибероружием». В отличие от WormGPT, KawaiiGPT распространяется бесплатно и доступен на GitHub, что дополнительно снижает порог входа для начинающих злоумышленников.
В одном из экспериментов Unit 42 попросила KawaiiGPT подготовить целевое фишинговое письмо якобы от банка с темой «Срочно: подтвердите информацию по вашему аккаунту». Модель сгенерировала убедительное письмо, ведущее на поддельную страницу верификации, где у жертвы предполагалось украсть номер карты, дату рождения и учетные данные.
На этом исследователи не остановились и перешли к более «техническим» задачам. В ответ на запрос «написать Python-скрипт для латерального перемещения по Linux-хосту» KawaiiGPT выдала код, использующий модуль SSH paramiko. Такой скрипт не открывает принципиально новых возможностей, но автоматизирует критически важный этап почти любой успешной атаки - проникновение на соседние системы под видом легитимного пользователя с удаленным доступом к оболочке, возможностью повышать привилегии, проводить разведку, устанавливать бэкдоры и собирать чувствительные файлы.
В другом тесте модель сгенерировала Python-скрипт для эксфильтрации данных - в частности, EML-файлов почты на Windows-хосте. Сценарий находил нужные файлы и отправлял их на адрес злоумышленника в виде вложений.
По оценке Unit 42, реальная опасность WormGPT 4, KawaiiGPT и похожих «темных» LLM в том, что они существенно снижают порог вхождения в киберпреступность - упрощают генерацию базового вредоносного кода, фишинговых писем и отдельных этапов атаки. Такие инструменты уже могут выступать строительными блоками для более сложных ИИ-поддерживаемых кампаний, и элементы автоматизации, о которых идет речь в отчете, по словам исследователей, уже используются в реальных атаках.