Операция Peer Review: Chatgpt использовали для международного шпионажа

leer en español

Операция Peer Review: Chatgpt использовали для международного шпионажа

Кто стоит за попытками превратить ИИ в оружие слежки и дезинформации?

image

Компания OpenAI заблокировала ряд аккаунтов, использовавших ChatGPT для создания потенциально вредоносного инструмента слежки на базе искусственного интеллекта. По данным исследователей, этот инструмент, ориентированный на мониторинг социальных сетей, вероятно, был разработан в Китае и использовал для работы одну из моделей Meta Llama.

Анализ показал, что заблокированные аккаунты применяли возможности ChatGPT для генерации детализированных описаний и анализа документов, способствуя созданию системы, собирающей в реальном времени данные о протестах против Китая на Западе. Затем информация передавалась китайским властям. Кампания получила кодовое название Peer Review из-за систематического продвижения и тестирования технологий слежки.

В рамках расследования OpenAI выявила использование ChatGPT для отладки и модификации исходного кода системы, известной как «Qianyue Overseas Public Opinion AI Assistant». Этот инструмент анализировал публикации и комментарии на таких платформах, как X*, Facebook**, Instagram**, YouTube, Telegram и Reddit, отслеживая упоминания протестных движений и другие чувствительные темы.

Кроме того, злоумышленники использовали ChatGPT для сбора открытых данных об аналитических центрах США, политических деятелях Австралии, Камбоджи и Соединённых Штатов, а также для перевода и анализа документов, содержащих информацию о протестах уйгуров. Подлинность некоторых скриншотов, загруженных в систему, остаётся под вопросом.

Помимо этого, OpenAI обнаружила и пресекла работу нескольких других сетей, использовавших ChatGPT для противоправных действий:

— Мошенническая схема трудоустройства. Группа, связанная с Северной Кореей, использовала нейросеть для создания поддельных резюме, профилей и писем о приёме на работу в рамках схемы обмана IT-компаний.

— Пропаганда в Латинской Америке. Китайская сеть распространяла антиамериканские статьи на английском и испанском языках, размещая их на сайтах в Перу, Мексике и Эквадоре. Часть активности совпадает с ранее известной кампанией Spamouflage.

— Романтические мошенничества. Связанная с Камбоджей группа создавала комментарии на японском, китайском и английском языках для мошеннических схем с инвестициями и романтическими аферами.

— Проиранская пропаганда. Сеть из пяти аккаунтов публиковала материалы в поддержку Палестины, ХАМАС и Ирана, выступая против США и Израиля. Некоторые аккаунты одновременно обслуживали несколько кампаний.

— Киберпреступность в Северной Корее. Группы Kimsuky и BlueNoroff использовали ChatGPT для изучения атакующих инструментов, связанных с криптовалютами, и отладки кода для брутфорса RDP.

— Информационные манипуляции в Гане. Сеть публиковала статьи и комментарии, влияя на выборы в Гане через англоязычный сайт «Empowering Ghana».

— Мошенничество с заданиями. Камбоджийская сеть заманивала людей на мошеннические задания (например, накрутка лайков и написание отзывов за деньги), требуя предоплату для участия.

Инцидент наглядно показывает, что искусственный интеллект уже давно стал эффективным инструментом для проведения кибератак, распространения дезинформации и манипулирования общественным мнением. Недавний отчёт Google Threat Intelligence Group подтвердил, что как минимум 57 групп, связанных с Китаем, Ираном и Северной Кореей, уже используют ИИ для различных этапов атак, включая генерацию контента и анализ информации.

OpenAI подчёркивает, что совместная работа ИИ-компаний, соцсетей, хостинговых провайдеров и исследователей помогает обнаруживать угрозы и разрабатывать механизмы защиты от злоупотребления искусственным интеллектом. Такая координация позволяет своевременно выявлять злоумышленников и существенно ограничивать их влияние.

* Социальная сеть запрещена на территории Российской Федерации.
** Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.