Очередная победа алгоритмов: экстремистские рекомендации на YouTube — вовсе не вина Google

Очередная победа алгоритмов: экстремистские рекомендации на YouTube — вовсе не вина Google

Исследователи пришли к выводу, что во всём виноваты сами пользователи.

image

За последние годы многие социальные сети неоднократно обвинялись в рассадничестве различного рода экстремистского контента. Тот же YouTube критиковали за косвенное продвижение расистских, сексистских и враждебных видео через алгоритмы рекомендаций.

Однако результаты недавнего исследования вносят некую ясность в работу рекомендательных систем. Так, социологи из США и Великобритании обнаружили, что большинство зрителей экстремистских видео на YouTube — это люди, которые и так придерживаются экстремистских взглядов.

В своём исследовании, опубликованном в журнале Science Advances, группа исследователей проанализировала уже имеющиеся данные опросов общественного мнения, а также провела собственный эксперимент, использовав специальное программное обеспечение для отслеживания онлайн-просмотров отобранной группы людей, чтобы лучше узнать об их предпочтениях и привычках в использовании YouTube.

Учёные обнаружили, что YouTube редко рекомендует враждебный контент кому-либо, кроме небольшого числа подписчиков самых известных экстремистских каналов.

В частности, около 15% зрителей на регулярной основе смотрят видео с умеренно агрессивным контентом, в то время как всего 0,6% людей с крайними взглядами смотрят порядка 80% экстремистских роликов от их общего потока просмотра.

Иными словами, таких людей меньшинство, и YouTube рекомендует им экстремистские видео лишь потому, что они самостоятельно смотрят их на регулярной основе и подписываются на соответствующие каналы.

В то же время, люди, которые намеренно не ищут подобные видеоматериалы и не подписываются на их авторов, вообще не сталкиваются с экстремистским контентом в своих рекомендациях.

Ранее подобное исследование проводилось в Университете Ратгерса и было направлено на изучение влияния поисковой выдачи Google на политические предпочтения пользователей. Спустя несколько месяцев эксперимента авторы выяснили, что алгоритмы поискового движка работают таким образом, чтобы всегда оставлять выбор за пользователям и не навязывать ему какую-то определённую политическую позицию.

Таким образом, зачастую проблема кроется не в технологиях, а в самих людях, их взглядах и предпочтениях. Однако технологическим компаниям не стоит раньше времени радоваться и праздновать свою правоту. Им необходимо и дальше продолжать совершенствовать модерацию своих платформ, чтобы ограничить любое потенциальное распространение опасного контента.

Если вам нравится играть в опасную игру, присоединитесь к нам - мы научим вас правилам!

Подписаться