Беседы с чат-ботами стали достоянием общественности, а хакеры получили ключи от миллионов аккаунтов.

Исследователи из Cybernews сообщили о серьёзной утечке данных, связанной с компанией Vyro AI, известной своими популярными генеративными приложениями для Android и iOS. Открытый сервер Elasticsearch, принадлежащий разработчику, без защиты публиковал в реальном времени журналы объёмом 116 ГБ, собранные от трёх сервисов компании: ImagineArt с более чем 10 млн установок на Google Play, Chatly с сотней тысяч загрузок и веб-чатбота Chatbotx, посещаемого примерно 50 тысячами пользователей в месяц.
Vyro AI базируется в Пакистане и утверждает, что общее число загрузок её приложений превысило 150 миллионов, а каждую неделю создаётся около 3,5 миллиона изображений. По словам исследователей, обнаруженный сервер содержал логи как рабочих, так и тестовых сред, хранившие информацию за 2–7 последних дней. База впервые была проиндексирована поисковыми системами IoT ещё в феврале, что могло дать злоумышленникам доступ к данным на протяжении нескольких месяцев.
В утечку попали запросы пользователей к ИИ, токены аутентификации Bearer, а также данные об используемых устройствах и браузерах. Набор таких сведений открывал возможность следить за действиями людей, перехватывать аккаунты и извлекать личные сведения из чатов. Особенно опасной ситуация выглядит в контексте ImagineArt, которая насчитывает свыше 30 миллионов активных пользователей. Скомпрометированные токены позволили бы захватить управление профилями, получить доступ к истории переписки и сгенерированным изображениям, а также использовать платные функции за счёт владельцев.
Дополнительный риск связан с раскрытием самих пользовательских запросов. Диалоги с нейросетями часто содержат приватные данные, которые люди никогда бы не опубликовали открыто. Попадание таких сведений в чужие руки может обернуться серьёзными репутационными или финансовыми последствиями.
Раскрытие информации о Vyro AI прошло поэтапно: саму проблему обнаружили 22 апреля 2025 года, уведомили компанию 22 июля, а затем подключили национальный центр реагирования CERT 28 июля.
Случай демонстрирует, что в стремлении занять место на быстрорастущем рынке ИИ-разработчики иногда пренебрегают защитой данных. Между тем пользователи всё чаще доверяют системам генеративного ИИ свои идеи, документы и даже конфиденциальную информацию. Подобные инциденты лишь подчёркивают, что безопасность должна становиться обязательным приоритетом.
Схожие проблемы затрагивают и крупных игроков. Так, например, в августе пользователи столкнулись с тем, что их переписки с ChatGPT и Grok оказались доступны в поиске Google из-за небезопасной функции обмена ссылками, которую позже пришлось убрать.
Исследователи Cybernews также недавно показали, что чатбот Expedia можно было использовать для генерации инструкций по изготовлению зажигательных средств, что наглядно демонстрирует риски неподготовленных релизов. Даже OpenAI с последней моделью GPT-5 не смогла избежать проблем с защитой: исследовательские команды сумели взломать ограничения всего за сутки после запуска.