Крупнейшие IT-компании берут на себя обязательства по ответственной разработке технологий.
16 мировых лидеров в области ИИ, включая Google, Microsoft, IBM и OpenAI, подписали обязательства деактивировать свои технологии в случае их потенциального опасного воздействия. Событие произошло в Южной Корее на саммите AI Safety Summit.
В рамках саммита были приняты новые обязательства по безопасности передовых технологий ИИ. Компании-участники согласились публиковать свои методики оценки рисков, связанных с их ИИ-моделями, описывать допустимые уровни рисков и принимаемые меры в случае превышения этих уровней. При невозможности снижения рисков ниже установленного порога, компании обязуются не разрабатывать и не внедрять соответствующие модели и системы.
Хотя звучит обязательство звучит многообещающе, детали пока не проработаны. Их предстоит обсуждать на Саммите действий по ИИ, который пройдет в начале 2025 года.
Компании, подписавшие документ в Сеуле, также обязались:
Во время саммита также была принята Сеульская декларация. В документе говорится о важности обеспечения совместимости между системами управления ИИ, основываясь на риск-ориентированном подходе, для максимизации преимуществ и устранения широкого спектра рисков, связанных с ИИ. Это необходимо для безопасного, надежного и заслуживающего доверия проектирования, разработки, развертывания и использования ИИ.
Среди участников сессии были представители правительств стран G7, Сингапура, Австралии, ООН, ОЭСР и ЕС, а также представители индустрии.
От классики до авангарда — наука во всех жанрах