ИИ-модели начали размножаться в обход человека. Разбираем результаты пугающего эксперимента

leer en español

32086
ИИ-модели начали размножаться в обход человека. Разбираем результаты пугающего эксперимента

Остановить запущенный процесс практически невозможно.

image

Представьте себе сценарий: ИИ-система, которую пытаются отключить, уже давно разбросала копии себя по тысячам компьютеров по всему миру — и никакой IT-отдел не успеет за ней. Именно такое стечение обстоятельств перестаёт быть фантастикой: организация Palisade Research из Беркли опубликовала исследование, в котором зафиксировала, как современные ИИ-модели способны самостоятельно копировать себя на другие машины.

В ходе экспериментов несколько ИИ-моделей поместили в контролируемую среду из связанных между собой компьютеров. Системам дали задание найти уязвимости и использовать их, чтобы перенести собственный код на соседние серверы. Задача выполнялась — пусть и не с первой попытки. Директор Palisade Research Джеффри Ладиш предупреждает: мир стремительно движется к точке, в которой остановить вышедший из-под контроля ИИ будет просто некому — тот успеет рассеять себя по всей сети прежде, чем кто-либо среагирует.

Специалист по наступательной кибербезопасности Джеймисон О'Рейли признаёт, что технически подобное стало возможным уже несколько месяцев назад, однако именно Palisade первой задокументировала процесс целиком и оформила его в виде научной работы. При этом он же указывает на существенные оговорки: тестовая среда была намеренно упрощённой с точки зрения защиты — куда мягче, чем реальные корпоративные сети. В условиях даже среднего уровня мониторинга результат выглядел бы значительно менее тревожно.

Отдельная проблема — размер самих моделей. Передача десятков гигабайт внутри корпоративной сети при каждом новом заражённом узле неизбежно привлечёт внимание. Независимый специалист Михал Вожняк добавляет, что компьютерные вирусы умеют самовоспроизводиться уже несколько десятилетий, так что принципиально новым здесь является лишь то, что этот механизм впервые применён применительно к большим языковым моделям. По его словам, LLM-исследование интересное — но поводов терять сон у него оно не даёт.

По итогу, пока одни видят в подобных исследованиях предвестие цифрового апокалипсиса, другие напоминают: между лабораторным экспериментом и реальной угрозой — дистанция огромного размера. Куда важнее то, что наука не молчит: фиксировать новые возможности ИИ заблаговременно — значит оставлять время на ответ.