Google планирует обезопасить свои системы AI от кражи, отравления и инъекций.
Google объявил о запуске безопасного фреймворка AI (SAIF), концептуального фреймворка для защиты систем искусственного интеллекта. Google, владелец генеративного чат-бота Bard и материнская компания исследовательской лаборатории AI DeepMind, заявил, что фреймворк на уровне общественного и частного секторов необходим для того, чтобы ответственные участники обеспечивали безопасность технологии, которая поддерживает прогресс в области искусственного интеллекта, так что при внедрении моделей AI они были бы безопасными по умолчанию. Его новая концепция фреймворка является важным шагом в этом направлении, утверждает техногигант.
SAIF предназначен для смягчения рисков, специфичных для систем AI (искусственного интеллекта) , таких как кража модели, отравление тренировочных данных, злонамеренные вводы через инъекцию запросов и извлечение конфиденциальной информации в тренировочных данных. «По мере того, как возможности AI все больше интегрируются в продукты по всему миру, соблюдение смелого и ответственного фреймворка будет еще более критичным», - написал Google в своем блоге.
Запуск происходит на фоне продвижения генеративного искусственного интеллекта и его влияния на кибербезопасность, которое продолжает попадать в заголовки новостей и привлекать внимание как организаций, так и правительств. Опасения относительно рисков, которые могут ввести эти новые технологии, варьируются от потенциальных проблем с обменом конфиденциальной бизнес-информацией с передовыми самообучающимися алгоритмами до злоумышленников, использующих их для значительного усиления атак.
Безопасный фреймворк AI Google основан на его опыте разработки моделей кибербезопасности, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp, его архитектура нулевого доверия, используемая многими организациями. Он основан на шести основных элементах, заявил Google. Это:
«Мы скоро опубликуем несколько инструментов с открытым исходным кодом, чтобы помочь внедрить элементы SAIF на практике для безопасности искусственного интеллекта», - сказали Хансен и Венаблс. Они также пообещали расширить программы поиска ошибок Google, чтобы вознаграждать и стимулировать исследования в области безопасности AI.
Никаких овечек — только отборные научные факты