Великий нейросетевой грабёж. Сразу три китайские компании подчистую скопировали логику работы нейросети Claude

leer en español

Великий нейросетевой грабёж. Сразу три китайские компании подчистую скопировали логику работы нейросети Claude

В Anthropic признали, что их лучшие функции утекли в Пекин через обычное диалоговое окно.

image

Американская компания Anthropic заявила о масштабной попытке незаконно воспроизвести возможности её языковой модели Claude. По данным разработчика, сразу три китайские компании использовали миллионы запросов, чтобы перенять ключевые функции системы и ускорить развитие собственных решений.

Речь идёт о DeepSeek, Moonshot AI и MiniMax. В Anthropic утверждают, что зафиксировали «промышленные кампании» по извлечению возможностей модели. С помощью примерно 24 тысяч поддельных аккаунтов злоумышленники сгенерировали более 16 миллионов обращений к Claude, обходя ограничения сервиса и региональные запреты. В Китае доступ к продуктам компании закрыт из-за правовых и регуляторных рисков.

В основе схемы лежит метод дистилляции, когда более слабую модель обучают на ответах более мощной. Такой подход считается допустимым внутри одной компании для создания облегчённых версий собственных систем, однако использование чужой разработки без разрешения нарушает правила и позволяет получить сложные функции без сопоставимых затрат.

По информации Anthropic, DeepSeek сосредоточилась на логических возможностях Claude и задачах с оценкой по заданным критериям, а также добивалась генерации ответов, обходящих цензурные ограничения в политически чувствительных темах. Moonshot AI пыталась извлечь механизмы агентного рассуждения, работу с инструментами, навыки программирования и компьютерного зрения. MiniMax делала упор на агентное программирование и интеграцию инструментов. Характер запросов отличался от обычного пользовательского поведения и был направлен именно на копирование уникальных функций.

Компания связывает атаки с использованием коммерческих прокси-сервисов, которые перепродают массовый доступ к передовым моделям. Такие сети объединяют десятки тысяч фиктивных учётных записей и распределяют трафик через так называемые кластеры «гидра», где при блокировке одного аккаунта его быстро заменяют новым. В одном случае, как утверждают в Anthropic, прокси-сеть одновременно управляла более чем 20 тысячами аккаунтов, смешивая трафик дистилляции с обычными запросами для маскировки.

Разработчик сообщил, что внедрил системы поведенческого анализа и классификаторы для выявления подобных схем, усилил проверку образовательных и стартап-аккаунтов и ограничил эффективность ответов модели при подозрении на попытку копирования.

Похожую активность ранее выявила и группа Google Threat Intelligence Group, которая сообщила о попытках извлечения возможностей модели Gemini. Тогда речь шла более чем о 100 тысячах специально сформированных запросов к Gemini. В Google отмечали, что подобные атаки не угрожают обычным пользователям, но создают риски для разработчиков и поставщиков ИИ-сервисов.