Скайнет передаёт привет. Новая версия Claude научилась взламывать целые корпорации без помощи людей

leer en español

Скайнет передаёт привет. Новая версия Claude научилась взламывать целые корпорации без помощи людей

Тот случай, когда для остановки запущенного алгоритма мало нажать кнопку «Стоп».

image

Новые модели искусственного интеллекта всё увереннее чувствуют себя в задачах, где раньше требовались часы ручной работы специалистов. Последняя проверка показала, что развитие идёт быстрее, чем ожидали даже наблюдатели отрасли — и речь уже не о теории, а о вполне практических сценариях атак.

AI Security Institute провёл серию испытаний модели Claude Mythos Preview от компании Anthropic и зафиксировал заметный рост её возможностей в сфере кибербезопасности. Результаты показали, что модель уверенно обходит предыдущие решения и демонстрирует прогресс как в стандартных тестах, так и в сложных симуляциях атак.

За последние два года подход к оценке таких систем сильно изменился. Если в 2023 году модели едва справлялись с базовыми заданиями, то теперь Claude Mythos Preview способен самостоятельно находить уязвимости и использовать их. В условиях тестирования модель получила доступ к сети и инструкции — после чего смогла провести многоэтапные атаки, на которые у человека ушли бы дни.

Особое внимание специалисты уделили заданиям формата Capture the Flag, где нужно находить слабые места и извлекать скрытые данные. На сложном уровне, который до весны 2025 года оставался недостижимым для ИИ, новая модель успешно справилась в 73 процентах случаев.

Более показательным оказался эксперимент с симуляцией атаки на корпоративную сеть под названием The Last Ones. Сценарий включает 32 последовательных шага — от разведки до полного захвата инфраструктуры. По оценке авторов теста, человеку требуется около 20 часов на выполнение такой задачи. Claude Mythos Preview сумел полностью пройти сценарий в трёх из десяти попыток, а в среднем завершал 22 шага. Ближайший конкурент показал заметно более скромный результат.

При этом модель пока не справилась с другим сценарием, связанным с промышленными системами, застряв на этапе, связанном с классической IT-инфраструктурой. Такой результат не позволяет делать однозначные выводы о её возможностях в промышленной среде.

Авторы испытаний подчёркивают, что условия тестов отличались от реальных. В симуляциях отсутствовали активные защитные механизмы, системы обнаружения и реагирования, а также последствия за подозрительные действия. Поэтому говорить о способности модели атаковать защищённые системы пока рано.

Тем не менее, уже сейчас видно, что подобные инструменты могут эффективно работать против слабо защищённых сетей. На этом фоне специалисты призывают компании уделять больше внимания базовой защите — своевременно устанавливать обновления, контролировать доступ и отслеживать события в системе.

Развитие подобных моделей продолжится, и вместе с рисками растёт их потенциал для защиты. В ближайших исследованиях команда планирует тестировать ИИ в условиях, максимально приближённых к реальности, включая активное противодействие и мониторинг.