Когда приватный ИИ стал публичным.
Meta устранила уязвимость в системе безопасности своего чат-бота Meta AI, которая позволяла пользователям видеть приватные запросы и ответы, сгенерированные искусственным интеллектом для других пользователей. О проблеме сообщил специалист Сандип Ходкасия. За обнаружение и конфиденциальную передачу информации о баге он получил от Meta вознаграждение в размере 10 тысяч долларов.
Уязвимость была выявлена 26 декабря 2024 года, а устранена 24 января 2025 года. Представители Meta подтвердили, что не зафиксировали случаев злоупотребления багом и поблагодарили Ходкасию за ответственное раскрытие.
Ошибка возникла в механизме редактирования пользовательских запросов в Meta AI. Когда пользователь изменяет свой запрос, серверы Meta присваивают ему уникальный номер. Ходкасия выяснил, что если вручную изменить этот номер в сетевом трафике браузера, можно получить доступ к чужим запросам и ответам ИИ. Система не проверяла, имеет ли запрашивающий право видеть эти данные. Более того, эти номера оказались легко предсказуемыми, что потенциально позволяло автоматизированным скриптам массово извлекать приватную информацию пользователей.
Meta AI запустила отдельное приложение в начале 2025 года, чтобы конкурировать с такими продуктами, как ChatGPT. Однако с самого старта сервис столкнулся с трудностями. Некоторые пользователи случайно делились своими разговорами с ИИ, думая, что они остаются приватными, что усилило обеспокоенность по поводу конфиденциальности.
На фоне гонки между технологическими гигантами за лидерство в сфере ИИ подобные инциденты подчёркивают, насколько критична надёжность защиты пользовательских данных. Несмотря на быстрое реагирование и отсутствие признаков взлома, случай с Meta AI показывает, что даже у крупных компаний остаются бреши в системах контроля доступа, которые могут подвергнуть риску конфиденциальную информацию миллионов пользователей.
Первое — находим постоянно, второе — ждем вас