Киберпреступники нашли способ «свести с ума» защиту нейросетей через файлы настроек.

Искусственный интеллект быстро перестаёт быть игрушкой в руках злоумышленников. За первые два месяца 2026 года стало ясно, что такие системы уже помогают создавать полноценные вредоносные инструменты, обходить защиту и даже участвовать в атаках в реальном времени.
Самый показательный случай связан с платформой VoidLink. Сложный вредоносный набор для Linux сначала приняли за работу целой команды из-за продуманной архитектуры и качества кода. В составе нашли систему управления, средства скрытого присутствия, инструменты для работы с облаком и контейнерами, а также более 30 модулей для действий после взлома. Позже выяснилось, что проект создал один разработчик с помощью платной среды разработки с искусственным интеллектом от ByteDance.
Автор действовал не через простые запросы, а через подробные спецификации. Он описал задачи, требования и этапы в структурированных текстовых файлах, после чего помощник поэтапно писал и проверял код. Человек управлял процессом и корректировал результат. В итоге работа, на которую у трёх команд ушло бы около 30 недель, заняла меньше недели и дала более 88 тысяч строк рабочего кода.
Этот случай показывает важный сдвиг. Искусственный интеллект уже выдаёт вредоносные инструменты, готовые к применению, а его участие сложно заметить по итоговому коду. В случае VoidLink связь с такими технологиями раскрылась только из-за ошибки автора. Теперь участие искусственного интеллекта в разработке вредоносных программ приходится предполагать изначально.
Параллельно злоумышленники пробуют запускать модели у себя, чтобы избежать ограничений и блокировок. На форумах обсуждают «нецензурированные» версии, которые используют для создания вымогателей, кейлоггеров и других инструментов. Но на практике такие модели заметно уступают коммерческим решениям. Пользователи жалуются на слабое качество, ошибки и нестабильную работу. Для нормального результата нужны дорогие видеокарты и большие вложения, иногда до десятков тысяч долларов. Даже продавцы наступательных инструментов признают, что локальные модели пока больше мешают, чем помогают.
Меняется и подход к обходу защитных ограничений. Готовые текстовые «взломы» работают хуже: платформы быстрее блокируют нарушителей, а универсальные приёмы быстро устаревают. Вместо этого злоумышленники начали вмешиваться в архитектуру систем. Например, в Claude Code используют специальный файл настроек проекта, чтобы подменить поведение помощника и отключить защиту. Такой подход бьёт не по ответам модели, а по логике её работы.
Ещё одна тенденция связана с превращением искусственного интеллекта в активный элемент атаки. Проект RAPTOR, опубликованный на GitHub, показывает, как набор текстовых инструкций превращает помощника по программированию в автономный инструмент для анализа, поиска уязвимостей и создания эксплойтов. Сам проект не вредоносный, но его архитектуру уже обсуждают на подпольных площадках.
Сравнение моделей подтверждает тот же вывод. Коммерческие системы вроде Anthropic Claude, OpenAI GPT-4 и Google Gemini лучше справляются с генерацией рабочего кода. Локальные решения часто выдают непригодный результат. Поэтому злоумышленники продолжают опираться на коммерческие сервисы, несмотря на ограничения.
Отдельная проблема касается самих компаний. Массовое внедрение генеративных сервисов создаёт новый канал утечки данных. В январе и феврале 2026 года один из каждых 31 запроса к таким системам нёс риск раскрытия чувствительной информации. Под угрозой оказываются конфиденциальные данные, исходный код и другие внутренние материалы. Такая активность затронула 90% организаций, где используют подобные инструменты.
Ситуацию усугубляет масштаб. В среднем компании применяют около 10 разных сервисов, а один сотрудник отправляет 69 запросов в месяц. Чем больше таких обращений, тем выше риск утечки. В итоге искусственный интеллект одновременно усиливает возможности злоумышленников и расширяет поверхность атаки внутри самих организаций.