Питерские ученые научили нейросеть выявлять вредоносные боты в соцсетях

Питерские ученые научили нейросеть выявлять вредоносные боты в соцсетях

Cистема ИИ определяет в социальных сетях группы фейковых аккаунтов, с которых создают и распространяют вредоносный контент.

Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили искусственный интеллект выявлять в социальных сетях группы вредоносных ботов через анализ публичных данных о них, независимо от того, на каком языке они пишут посты и комментарии.

Данный подход может использоваться компаниями, которые используют соцсети в коммерческих целях, для выявления и противодействия информационным атакам. Результаты исследования опубликованы в международном журнале JoWUA.

Программа поможет выследить бота по неявным «социальным связям». При этом искусственному интеллекту будет абсолютно неважно, на каком языке и в какой социальной сети придется работать — от сможет легко подстроиться под любую из них.

Точность распознания варьируется от 60% до 90%, а на лживые срабатывания приходятся 5-10%. Зависеть это будет от заполненности социальной сети ботами. Что же касается сложных программ, которые интеллект не сможет распознать, то тут тоже все продумано — проверка всех аккаунтов проводится регулярно и в одну из них бот точно даст о себе знать.

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные могут использоваться для расследования инцидентов безопасности.

Например, если в аккаунте соцсети какого-нибудь ресторана оставлена масса негативных комментариев. Новый метод поможем выявить, боты их оставили или реальные люди. В случае, если комментарии оставили боты, ресторан поймет, что на него осуществляется атака.

Кроме того, программа может определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры чтобы эффективно отреагировать на инцидент.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться