Отравленный ИИ: угроза кибербезопасности?

Отравленный ИИ: угроза кибербезопасности?

Могут ли злоумышленники использовать AI/ML для атаки на организацию?

image

Все больше организаций используют искусственный интеллект/машинное обучение (AI/ ML ) для противодействия кибератакам. Однако, команды безопасности обеспокоены тем, что киберпреступники также могут использовать подобные инструменты для проникновения в сети.

Давайте разберемся, могут ли злоумышленники использовать AI/ML для атак на организацию.

Один из методов, известный как "отравление ИИ ", предполагает использование данных, применяемых для информирования технологий ИИ или обучения машин различиям между нормальной и вредоносной деятельностью. В результате отравления ИИ фрагменты вредоносного программного обеспечения маскируются под "нормальное" поведение, что затрудняет их обнаружение. Манипулируя данными, мошенники способны заставить нейросеть предположить, что похожий на вредоносное ПО фрагмент программы не представляет опасности.

Приложения кибербезопасности, которые зависят от AI/ML, обычно обнаруживают файлы вредоносных программ. Именно здесь возможно отравление. Изменив программные файлы, можно изменить результат. Такова природа AI/ML при анализе программных файлов и двоичных строк.

Для устранения такой угрозы команды безопасности сократили объем данных, доступных для обработки AI/ML, но здесь не обошлось и без минусов. Если технология AI/ML не имеет достаточного количества данных для обучения, злоумышленникам становится проще избегать обнаружения.

Правда, сокращение объема данных не мешает хакерам закрепиться в системе. Оставаясь незаметными, позволяя системе распознавать вредоносное поведение как нормальное, злоумышленники способны инициировать медленную и малозаметную атаку, от которой сложно защититься.

До сих пор не наблюдалось серьезных доказательств использования злоумышленниками AI /ML против систем защиты. К тому же, техника отравления ИИ может не понравиться хакерам, которые ищут самый простой способ проникновения в системы. Взлом простого пароля, отправка фишингового письма и другие простые, но эффективные методы по-прежнему остаются самыми популярными среди киберпреступников. В конце концов, злоумышленники хотят проникнуть в систему как можно быстрее и эффективнее, идя по пути наименьшего сопротивления.

Поэтому совет командам безопасности - продолжать внедрять решения для кибербезопасности, основанные на анализе поведения пользователей и объектов (UEBA), чтобы использовать алгоритмы и AI/ML для обнаружения аномалий в поведении пользователей и устройств. Данные технологии можно использовать для создания моделей нормального поведения, чтобы легко выявлять отклонения от нормы. Более сложные, продвинутые взломы с использованием AI /ML все еще остаются в значительной степени выдумкой.


Мир сходит с ума, но еще не поздно все исправить. Подпишись на канал SecLabnews и внеси свой вклад в предотвращение киберапокалипсиса!