2 месяца любой мог взломать ИИ и внедрить вредоносный код.
Сотрудник компании xAI случайно опубликовал на GitHub закрытый API-ключ, который в течение двух месяцев позволял получить доступ ко внутренним языковым моделям, обученным на данных из SpaceX, Tesla и X (Twitter)*. Утечку обнаружил и первым сообщил сотрудник Seralys, опубликовавший детали в LinkedIn.
Проблема сразу же привлекла внимание GitGuardian — компании, специализирующейся на выявлении утечек ключей и секретов в коде. Компания выявила, что опубликованный ключ обеспечивал доступ к минимум 60 закрытым и доработанным языковым моделям, в том числе к невыпущенным версиям Grok — собственного чат-бота xAI. Среди них оказались модели с явными отсылками к SpaceX и Tesla, например, «grok-spacex-2024-11-04» и «tweet-rejector».
Команда GitGuardian заявила , что впервые уведомила владельца ключа ещё 2 марта, однако ключ оставался действующим вплоть до конца апреля. Только после прямого обращения в команду безопасности xAI 30 апреля ключ был отозван, а исходный репозиторий удалён. До этого момента у любого пользователя с этим ключом был прямой доступ к приватным моделям и API-интерфейсу xAI от имени сотрудника компании.
Как отмечают в GitGuardian, утечка открыла возможность для серьёзных атак. Имея доступ к бэкенду Grok, злоумышленники могли проводить инъекции подсказок (prompt injection), изменять поведение моделей в своих целях или внедрять вредоносный код в цепочку поставок.
На фоне истории всплывают и другие тревожные детали. Департамент DOGE уже начал активно использовать ИИ в структурах американского правительства. Согласно расследованиям , команда DOGE скармливала ИИ-чату данные Министерства образования США для анализа бюджета, с планами расширения подобной практики на другие ведомства. Кроме того, более 1500 сотрудников федерального агентства получили доступ к внутреннему боту GSAi, разработанному DOGE.
Хотя в xAI утверждают, что доступ к данным пользователей или информации из правительственных систем через утёкший ключ невозможен, специалисты сомневаются: модели, обученные на закрытых корпоративных данных, потенциально могли содержать фрагменты конфиденциальной информации, связанной с разработками внутри xAI, Twitter* или SpaceX.
* Социальная сеть Twitter (ныне X) запрещена на территории Российской Федерации.