Подросток просто листал мемы, а потом расстрелял людей — теперь судят соцсети

Подросток просто листал мемы, а потом расстрелял людей — теперь судят соцсети

Суд пытается понять, кто виноват, если лайки, мемы и стримы превратили юношу в убийцу.

image

В нью-йоркском суде стартовало громкое разбирательство, способное создать прецедент для всей технологической отрасли. 20 мая представители некоммерческой организации Everytown for Gun Safety обвинили крупнейшие интернет-платформы — Meta*, Amazon, Discord, Snap, YouTube, Reddit, Twitch и 4chan — в том, что именно их алгоритмы и механизмы взаимодействия с пользователями стали катализатором радикализации стрелка, убившего десять человек в 2022 году в супермаркете Tops в городе Буффало, штат Нью-Йорк.

Пейтон Джендрон, которому тогда было 18 лет, добирался до места нападения несколько часов, чтобы целенаправленно атаковать район с преимущественно афроамериканским населением. Он вёл трансляцию стрельбы на Twitch и оставил подробный манифест, в котором прямо указывал на своё вдохновение предыдущими терактами — в частности, в Крайстчерче и Эль-Пасо. В своих записях на Discord он писал, что увлёкся идеями «великой замены» и «белого геноцида» после того, как начал активно потреблять мемы, шутки и контент с экстремистским подтекстом на различных платформах.

Иск, поданный Everytown в 2023 году, обвиняет платформы не в публикации этих материалов, а в том, что их алгоритмы и дизайн интерфейсов сделали потребление радикального контента предсказуемым и затягивающим. По словам юриста Джона Элмора, речь идёт не об издательской ответственности, а о продуктовой: «Издатели защищают авторские права, производители патентуют продукты. И все эти компании — Discord, Meta*, Amazon, YouTube — имеют патенты на свои алгоритмы и технологии. Это делает их производителями, а не площадками». Именно в этом контексте Everytown называет соцсети «дефектным и опасным продуктом», нарушающим законодательство штата Нью-Йорк о товарной ответственности.

Защита со стороны интернет-компаний строится на положениях раздела 230 Закона о честности в коммуникациях. Этот норматив защищает интернет-платформы от ответственности за пользовательский контент. Однако юристы истцов делают ставку на то, что сама архитектура сервисов, включая алгоритмы рекомендаций, не является контентом, а является частью продукта, который может быть признан небезопасным.

В качестве аргумента они приводят дело Anderson v. TikTok, где федеральный апелляционный суд решил, что TikTok не может ссылаться на защиту раздела 230, так как рекомендательный алгоритм, предлагавший детям смертельно опасный «blackout challenge», является частью собственного продукта платформы. Хотя это решение считается аномальным, оно дало основу для новых правовых подходов к определению ответственности за алгоритмы.

На слушаниях адвокаты Everytown подробно объясняли, как именно платформы «подталкивали» Джендрона. Discord и 4chan, хотя и не используют персонализированные алгоритмы, по словам юристов, создают среду, способствующую радикализации за счёт анонимности, неограниченного доступа к экстремистским обсуждениям и отсутствия модерации. Reddit обвиняется в создании системы «фидбека» — через карму и апвоты — которая усиливает вовлечённость и способствует распространению радикальных идей. Twitch, на котором велась трансляция нападения, по мнению истцов, мог бы ввести систему задержки видео, чтобы предотвратить прямой эфир бойни, но не сделал этого.

Главный удар приходится по платформам с персонализированной лентой. Так, YouTube обвиняют в том, что он не только позволяет распространять экстремистский контент, но и активно его продвигает для повышения времени удержания пользователя. В жалобе отмечается, что «существует более безопасный дизайн», но платформы не хотят его внедрять, так как это приведёт к падению прибыли.

Судьи задали ожидаемо острые вопросы. Один из них заметил, что сам любит смотреть видео с котиками, и YouTube постоянно предлагает ему их ещё. «Разве это не просто удобство?» — спросил он. В ответ юрист Гленн Чаппел пояснил, что алгоритмы соцсетей разработаны так, чтобы усиливать привыкание, а это уже создаёт риск. По его словам, речь не о контенте, а о механизмах, которые превращают потребление контента в зависимость. Адвокат Эми Келлер добавила, что «рекомендации становятся опасными, когда они не просто показывают, а ведут пользователя вниз по спирали радикализации».

Юристы Meta* возразили, что прецедентов, исключающих алгоритмы из-под защиты раздела 230, нет. Один из них, Эрик Шамски, напомнил, что Верховный суд рассматривал похожее дело — Gonzalez v. Google — но в 2023 году отказался вынести решение, сохранив прежнюю широкую интерпретацию 230-й статьи. Также он отметил, что сервисы не являются продуктами в юридическом смысле: они не стандартизированы и взаимодействуют с каждым пользователем по-разному, а значит не могут быть объектом продуктовой ответственности.

Тем не менее, адвокаты истцов считают, что именно в этом и заключается опасность: когда алгоритмы, управляемые патентованным кодом, сами определяют, что пользователь увидит, они становятся активным участником формирования мировоззрения. И в случае с Джендроном, по их мнению, именно этот код стал соавтором его манифеста и соучастником преступления.

Рассмотрение дела продолжается. Если суд примет доводы истцов, последствия могут быть масштабными: соцсети впервые будут признаны не просто площадками, а полноценными производителями, несущими ответственность за безопасность своего цифрового «товара». Эксперты отмечают, что проблема модерации контента в больших масштабах остаётся крайне сложной технической и этической задачей.

Красная или синяя таблетка?

В Матрице безопасности выбор очевиден.