Чего следует ожидать, если ИИ попадет в «плохие руки»?

Чего следует ожидать, если ИИ попадет в «плохие руки»?

В настоящее время ИИ все больше интегрируется с продуктами, используемыми в сфере информационной безопасности.

image

По данным исследовательской компании Markets and Markets, к 2025 году рынок искусственного интеллекта (ИИ) будет оцениваться в $190 млрд. В настоящее время ИИ все больше интегрируется с продуктами, используемыми в повседневной жизни, и особенно – в сфере информационной безопасности. Чего следует ожидать, если стоящий на страже кибербезопасности ИИ попадет в «плохие руки», попытался разобраться специалист компании Deep Instinct Надав Маман (Nadav Maman).

По словам Мамана, ИИ может превзойти человека по развитию. В качестве примера он привел вымогательское ПО Deep Locker, созданное с использованием технологий глубокого обучения и способное «узнавать» жертву в лицо. В данном случае ИИ осуществлял атаку самостоятельно, без участия создателя вредоноса или жертвы. То есть, ИИ способен осуществлять атаки в локациях, неподконтрольных человеку. Вот почему для обеспечения максимальной безопасности необходимо реализовать передовые методы защиты, считает Маман.

По словам специалиста, с точки зрения психологии, в атаках с применением ИИ пропасть между атакующим и жертвой увеличивается еще больше. Попав в «плохие руки», не обремененный моральными принципами искусственный интеллект будет развиваться, тщательно выбирать цели и атаковать с применением хитроумных методов, до которых живой человек не додумается. В таком случае поймать его создателя и привлечь к ответственности будет очень сложно.

Если ИИ попадет в чужие руки, увеличится вероятность использования расширенных алгоритмов с целью препятствования функционированию «хороших» алгоритмов ИИ, используемых в традиционном машинном обучении. Другими словами, злоумышленники смогут встраивать в алгоритмы вредоносное ПО и запускать атаку.

Напомним , мошенники активно используют глубокое обучение для обмана российских пользователей. С его помощью злоумышленники создают поддельные видеоролики с участием звезд шоу-бизнеса и заманивают жертв на фишинговые сайты.

Глубокое обучение – совокупность методов машинного обучения (с учителем, с частичным привлечением учителя, без учителя, с подкреплением), основанных на обучении представлениям (feature/representation learning), а не специализированным алгоритмам под конкретные задачи.

Подписывайтесь на каналы "SecurityLab" в TelegramTelegram и Яндекс.ДзенЯндекс.Дзен, чтобы первыми узнавать о новостях и эксклюзивных материалах по информационной безопасности.

Комментарии для сайта Cackle