Преступники готовили взлом, даже не подозревая, что их планы уже раскрыл искусственный интеллект.

Google объявила об успешном обнаружении серьёзной уязвимости в широко используемом движке баз данных SQLite до того, как она могла быть использована в реальных атаках. Проблему выявила интеллектуальная система Big Sleep — автономный агент, разработанный совместно DeepMind и Project Zero. Обнаружение произошло в рамках инициативы по использованию языковых моделей для поиска уязвимостей.
Ошибка получила идентификатор CVE-2025-6965 и оценку по шкале CVSS в 7.2 балла. Уязвимость представляет собой повреждение памяти, связанное с целочисленным переполнением. Она затрагивает все версии SQLite до 3.50.2. Разработчики SQLite пояснили, что злоумышленник, способный внедрить произвольные SQL-запросы, может вызвать выход за границы массива при чтении данных, что открывает путь к эксплуатации.
По словам Google, данная проблема была известна только потенциальным атакующим. Благодаря сочетанию аналитики угроз и возможностям Big Sleep, компании удалось предсказать попытку её применения и заблокировать атаку до её начала. По утверждению президента по глобальным вопросам Google и Alphabet Кента Уокера, это первый зафиксированный случай, когда ИИ предотвратил эксплуатацию уязвимости в реальных условиях.
Дополнительные данные поступили от команды GTIG, которая заметила косвенные признаки подготовки атаки, но не смогла сразу определить саму уязвимость. Эти сведения были переданы другим специалистам Google, которые при помощи Big Sleep сумели локализовать проблему до начала вредоносных действий.
Примечательно, что это уже не первое вмешательство Big Sleep: в октябре 2024 года тот же агент обнаружил в SQLite другую критическую ошибку — переполнение буфера стека, которое могло привести к сбоям или выполнению произвольного кода.
На фоне этих событий Google также опубликовала технический документ, посвящённый созданию защищённых ИИ-агентов. В нём подчёркивается необходимость наличия чётких рамок и прозрачности для ИИ-систем, чтобы минимизировать риск утечки конфиденциальной информации и непредсказуемых действий. Компания критикует как классические подходы к защите, которые оказываются слишком жёсткими для гибких ИИ, так и чисто логические системы безопасности, не способные защитить от атак вроде внедрения команд (prompt injection).
В качестве решения предлагается гибридная многоуровневая модель защиты, сочетающая традиционные методы и адаптивные механизмы, основанные на выводах ИИ. Такая стратегия позволяет создавать надёжные рамки вокруг операционной среды агента и предотвращать нежелательные действия даже в случае искажения его логики или внешних манипуляций.
Google подчёркивает, что надёжная защита требует не противопоставления алгоритмических правил и ИИ, а их объединения, чтобы избежать потенциальных катастрофических сценариев, включая использование ИИ в целях кибератак.