ИИ в руках хакеров поставит под угрозу конфиденциальность пользователей

ИИ в руках хакеров поставит под угрозу конфиденциальность пользователей

Одной из самых важных функций систем искусственного интеллекта может оказаться поиск уязвимостей.

Специалист в области кибербезопасности Брюс Шнайер (Bruce Schneier) рассказал об одной из областей, в которой искусственный интеллект может оказать большое влияние — хакерство во всех его формах. Эксперт выразил свое мнение по поводу того, как взлом с помощью ИИ может повлиять на конфиденциальность и защиту данных.

Одной из самых полезных функций систем искусственного интеллекта может оказаться поиск уязвимостей. Построчный анализ программного кода представляет собой утомительный процесс, и именно ИИ будет использоваться для данных задач. За последние несколько лет произошло много утечек персональной информации, вызванных взломом защищенных систем с использованием уязвимостей в ПО. Как только ИИ сможет обнаруживать уязвимости в коде и online-системах, угроза конфиденциальности значительно возрастет. Системы искусственного интеллекта могут непрерывно сканировать весь интернет на предмет явных признаков уязвимостей, которые могут пропустить даже ИБ-эксперты. Как только новая уязвимость обнаруживается в фрагменте кода, ИИ может мгновенно использовать ее в массовом масштабе, предоставляя системным администраторам очень мало времени на исправление проблемы.

Однако те же возможности ИИ можно использовать для поиска уязвимостей в коде и online-системах до того, как их обнаружат хакеры.

Другая проблема связана с тем, что люди склонны приписывать программам человеческие качества и доверять программе свои секреты. Как показали результаты исследования в 2000 году, человек, скорее всего, поделится частной информацией с программой, если последняя поделится явно вымышленным фрагментом «личных данных». Таким образом современные и более совершенные системы искусственного интеллекта смогут похищать личную информацию пользователей Сети, выдавая себя за настоящих людей.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться