Починил звук — потерял кошелек. Теперь маководы ведутся на «добрые советы» нейросетей

leer en español

Починил звук — потерял кошелек. Теперь маководы ведутся на «добрые советы» нейросетей

Как доверие к ИИ помогло преступникам заразить Mac инфостилером AMOS под видом безобидного совета.

image

Специалисты Kroll обнаружили новый вектор доставки AMOS InfoStealer, в котором злоумышленники используют доверие пользователей к ИИ-платформам. В ходе инцидента жертве было показано окно, выглядевшее как легитимная сессия ChatGPT, где под видом исправления проблемы со звуком на macOS ей предложили выполнить терминальную команду. На деле эта команда загружала и устанавливала AMOS — инфостилер, который после запуска начал похищать данные с устройства. Манипулируя интерфейсом и авторитетом бренда ChatGPT, атакующие добились того, что пользователь воспринял вредоносные инструкции как безопасные.

В Kroll отметили, что жертва действительно посещала страницу, напоминавшую оригинальный чат ChatGPT, и следовала представленным там "советам". Команда, скопированная в терминал, оказалась индикатором компрометации AMOS: она скачивала вредоносный скрипт, служивший точкой входа для дальнейшей установки малвари и эксфильтрации данных. Попытка Kroll воспроизвести сценарий показала, что легитимный ChatGPT отказывается генерировать подобные команды и выводит защитные предупреждения, что указывает на использование поддельного интерфейса либо заранее подготовленной сессии для увода пользователя в сторону.

Отдельную роль в атаке сыграла рекламная площадка Google Ads: злоумышленники продвигали вредоносный "чат" через поисковую выдачу, выводя его на верхние позиции и усиливая эффект доверия. Это укладывается в тенденцию последних лет, когда киберпреступники активно используют рекламу Google для малвертайзинга и фишинга, подменяя легитимные ресурсы визуально точными копиями.

Случай с AMOS подчёркивает, как легко социальная инженерия маскируется под привычное техническое взаимодействие: простой совет "попробуйте это, чтобы вернуть звук" оказался эффективнее многих традиционных фишинговых писем. На фоне стремительного распространения ИИ-инструментов риск только растёт. Более 80% компаний из списка Fortune 500 уже интегрировали ChatGPT в рабочие процессы, почти половина всех компаний используют его на постоянной основе, а миллионы сотрудников применяют ИИ для решения рабочих задач, включая устранение технических неполадок. В такой среде один удачный вредоносный сценарий может масштабироваться мгновенно — от локального заражения до массовых инцидентов.

Специалисты подчёркивают необходимость обучения сотрудников, строгой валидации источников технических инструкций и мониторинга подозрительных команд, особенно на macOS. Технические меры эффективны лишь в сочетании с повышенной осведомлённостью: если пользователь верит источнику, он способен выполнить любой вредоносный код, даже не подозревая об опасности.