Статистическая модель поможет выявлять дезинформацию в соцсетях

Статистическая модель поможет выявлять дезинформацию в соцсетях

Статистическая модель определяла набор из 112 реальных и дезинформационных публикаций с точностью почти 90%.

Доцент кафедры математики и статистики Американского университета Зойс Букувалас (Zois Boukouvalas) вместе со своей командой разработал статистическую модель, способную обнаруживать дезинформацию в сообщениях в социальных сетях.

Исследователи использовали набор данных социальной сети Twitter с дезинформационными публикациями о COVID-19.

«Мы хотели бы знать, о чем думает устройство, когда принимает решения, как и почему она согласуется с людьми, которые ее обучали. Мы не хотим, чтобы блокировка учетных записей в социальных сетях происходила из-за необъективного решения модели», — пояснили эксперты.

Статистическая модель достигла высоких показателей прогнозирования и классифицировала набор из 112 реальных и дезинформационных публикаций с точностью почти 90%. По словам специалистов, модель также обеспечивала прозрачность того, как она обнаруживала дезинформацию в публикациях. Методы глубокого обучения не могут достичь такой точности прозрачности.

Исследователи провели подготовку модели перед проведением эксперимента, поскольку зачастую информация, публикуемая людьми, может носить предубежденный характер. На основании набора заранее определенных правил, касающихся используемого языка, исследователи разделяли твиты на дезинформационные или настоящие. Команда также рассмотрела нюансы человеческого языка и языковые особенности, используемые в дезинформационных твитах.

Перед обучением модели профессор социолингвистики Кристин Маллинсон (Christine Mallinson) из Университета Мэриленда в округе Балтимор сопоставила твиты со стилями написания, связанные с дезинформацией, предвзятостью и менее надежными источниками в средствах массовой информации.

«Как только мы добавляем эти входные данные в модель, она пытается понять основные факторы, которые приводят к разделению хорошей и плохой информации. Это изучение контекста и того, как слова взаимодействуют между собой», — отметили ученые.

Исследователи продолжат улучшать пользовательский интерфейс модели, а также ее способность обнаруживать дезинформацию в сообщениях в социальных сетях, которые включают изображения или другие мультимедийные материалы.


Один хакер может причинить столько же вреда, сколько 10 000 солдат! Подпишись на наш Телеграм канал, чтобы узнать первым, как выжить в цифровом кошмаре!