Хакеры уже нашли способы, как можно манипулировать ИИ для кражи личных данных и паролей.
Исследователи Google выявили 6 основных типов атак на системы искусственного интеллекта, включая манипуляции с большими языковыми моделями (Large Language Model, LLM), используемыми, например, в ChatGPT и Google Bard. Такие атаки могут привести к непредвиденным или злонамеренным результатам, от простого появления фотографий обычного человека на сайте знаменитостей до серьезных нарушений безопасности, таких как фишинг и кража данных.
Среди обнаруженных векторов атак:
Google подчеркивает важность применения традиционных методов безопасности и редтимминга (от англ. Red Team) для обеспечения защиты ИИ-систем. Исследователи также отмечают, что наиболее эффективным будет сочетание этих методов с экспертизой в области ИИ для создания надежных систем защиты. В своем отчете исследователи подчеркнули, что красные команды и симуляции атак могут играть решающую роль в подготовке каждой организации к атакам на ИИ-системы.
Гравитация научных фактов сильнее, чем вы думаете