Lloyd’s придумал, как заработать на провалах искусственного интеллекта.
Компании, опасающиеся последствий ошибок искусственного интеллекта, теперь могут получить страховую защиту от его капризов — на рынке Lloyd’s of London запущен новый продукт, покрывающий убытки от сбоев и галлюцинаций ИИ-систем. Полис разработан стартапом Armilla, прошедшим акселерацию в Y Combinator, и уже одобрен рядом страховщиков Lloyd’s.
Новый вид страхования предназначен для организаций, которые используют ИИ в клиентском сервисе, маркетинге или операционной деятельности и рискуют попасть под суд, если их алгоритм допустит ошибку. Полис покрывает расходы на юридическую защиту и возможные компенсации в случае иска от клиентов или третьих лиц, пострадавших из-за неправильной работы ИИ.
Решение стало ответом на череду инцидентов, ставших достоянием общественности. Так, в январе Virgin Money пришлось извиняться после того, как их чат-бот отругал клиента за слово «virgin». Ранее курьерская служба DPD была вынуждена отключить часть своего бота, когда тот начал материться и назвал компанию «худшей службой доставки в мире». В другом случае трибунал обязал Air Canada выполнить фиктивную скидку, придуманную её ИИ-ассистентом.
По словам представителей Armilla, в случае с Air Canada потери от продажи билетов по заниженной цене могли бы быть покрыты новым страховым продуктом, если бы выяснилось, что бот действительно работал хуже заявленного уровня. В Armilla считают, что страховая защита поможет бизнесу смелее внедрять ИИ, снижая опасения по поводу юридических рисков. Сейчас многие компании отказываются от ИИ-решений именно из-за отсутствия механизмов компенсации потенциального вреда.
В отличие от традиционных страховок на ошибки в IT-системах, которые часто ограничивают выплаты по ИИ до $25 000, продукт Armilla предлагает более высокий лимит и учитывает специфику обучения языковых моделей. Например, если ИИ изначально давал точные ответы в 95% случаев, а затем точность снизилась до 85%, полис может покрыть убытки от ухудшения качества работы.
Для этого специалисты Armilla заранее анализируют поведение модели и прогнозируют вероятность её «деградации». Только если реальная производительность ИИ окажется ниже изначально заявленного уровня, страховка сработает.
Однако страховщики обещают не брать на себя чрезмерные риски. Том Грэм из Chaucer, одной из компаний Lloyd’s, участвующей в проекте, пояснил, что не будут страховать системы, которые изначально выглядят ненадёжными. По его словам, подход останется избирательным — как и в любой другой сфере страхования.
Тем самым на фоне бурного роста применения ИИ бизнес получил первый специализированный страховой механизм, учитывающий особенности и уязвимости языковых моделей. Это может стать поворотной точкой для массового внедрения ИИ-инструментов в корпоративную инфраструктуру.