Google представил фреймворк для защиты генеративного AI

Google представил фреймворк для защиты генеративного AI

Google планирует обезопасить свои системы AI от кражи, отравления и инъекций.

image

Google объявил о запуске безопасного фреймворка AI (SAIF), концептуального фреймворка для защиты систем искусственного интеллекта. Google, владелец генеративного чат-бота Bard и материнская компания исследовательской лаборатории AI DeepMind, заявил, что фреймворк на уровне общественного и частного секторов необходим для того, чтобы ответственные участники обеспечивали безопасность технологии, которая поддерживает прогресс в области искусственного интеллекта, так что при внедрении моделей AI они были бы безопасными по умолчанию. Его новая концепция фреймворка является важным шагом в этом направлении, утверждает техногигант.

SAIF предназначен для смягчения рисков, специфичных для систем AI (искусственного интеллекта) , таких как кража модели, отравление тренировочных данных, злонамеренные вводы через инъекцию запросов и извлечение конфиденциальной информации в тренировочных данных. «По мере того, как возможности AI все больше интегрируются в продукты по всему миру, соблюдение смелого и ответственного фреймворка будет еще более критичным», - написал Google в своем блоге.

Запуск происходит на фоне продвижения генеративного искусственного интеллекта и его влияния на кибербезопасность, которое продолжает попадать в заголовки новостей и привлекать внимание как организаций, так и правительств. Опасения относительно рисков, которые могут ввести эти новые технологии, варьируются от потенциальных проблем с обменом конфиденциальной бизнес-информацией с передовыми самообучающимися алгоритмами до злоумышленников, использующих их для значительного усиления атак.

Безопасный фреймворк AI Google основан на шести принципах безопасности искусственного интеллекта

Безопасный фреймворк AI Google основан на его опыте разработки моделей кибербезопасности, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp, его архитектура нулевого доверия, используемая многими организациями. Он основан на шести основных элементах, заявил Google. Это:

  • Расширить сильные основы безопасности на экосистему искусственного интеллекта, включая использование защиты инфраструктуры по умолчанию.
  • Расширить обнаружение и реагирование, чтобы привлечь AI в угрозу организации, мониторинг ввода и вывода генеративных систем искусственного интеллекта для обнаружения аномалий и использование разведки по угрозам для прогнозирования атак.
  • Автоматизировать защиту, чтобы не отставать от существующих и новых угроз, улучшая масштаб и скорость реагирования на инциденты безопасности.
  • Гармонизировать контроль на уровне платформы, чтобы обеспечить согласованную безопасность во всей организации, начиная с Vertex AI и Security AI Workbench, принадлежащих Google, а также Perspective API, бесплатного и открытого API, разработанного командами Jigsaw и Counter Abuse Technology Google, который использует машинное обучение для идентификации «токсичных» комментариев в Интернете.
  • Адаптировать контроль, чтобы настроить смягчение и создать более быстрые циклы обратной связи для развертывания AI, включая техники, такие как обучение с подкреплением на основе инцидентов и отзывов пользователей, обновление наборов данных для обучения, тонкая настройка моделей для стратегического реагирования на атаки и красные командные упражнения.
  • Контекстуализировать риски системы AI в окружающих бизнес-процессах, проводя комплексные оценки рисков, связанных с тем, как организации будут внедрять AI.

«Мы скоро опубликуем несколько инструментов с открытым исходным кодом, чтобы помочь внедрить элементы SAIF на практике для безопасности искусственного интеллекта», - сказали Хансен и Венаблс. Они также пообещали расширить программы поиска ошибок Google, чтобы вознаграждать и стимулировать исследования в области безопасности AI.

Мы клонировали интересный контент!

Никаких овечек — только отборные научные факты

Размножьте знания — подпишитесь