Midjourney, Stability AI и другие теперь вынуждены будут раскрыть свои тайны.
Группа визуальных художников празднует первую победу в судебном разбирательстве против крупнейших компаний, создающих системы генерации изображений и видео с помощью искусственного интеллекта. Судья постановил , что иск о нарушении авторских прав может продвигаться дальше.
Дело, зарегистрированное под номером 3:23-cv-00201-WHO , было изначально подано в январе 2023 года. С тех пор оно несколько раз дополнялось, а некоторые его части были отклонены, в том числе и сегодня.
В коллективном иске участвуют известные художники: Сара Андерсен, Келли МакКернан, Карла Ортис, Хоук Саутворт, Гжегож Рутковски, Грегори Манчесс, Джеральд Бром, Цзинна Чжан, Джулия Кей и Адам Эллис. Они выступают от имени всех художников против компаний Midjourney, Runway, Stability AI и DeviantArt.
Организации обвиняются в копировании работ истцов при создании продуктов на основе модели Stable Diffusion. По утверждению истцов, эта модель была обучена на их произведениях, защищенных авторским правом, что нарушает закон.
Судья Уильям Х. Оррик из Окружного суда Северного округа Калифорнии, который курирует Сан-Франциско, не вынес окончательного решения по делу. Однако он заявил, что «обвинения в подстрекательстве к нарушению авторских прав достаточно обоснованы» для перехода к стадии раскрытия информации.
Это решение может позволить адвокатам художников получить доступ к внутренним документам компаний, разрабатывающих генераторы изображений на основе ИИ. Таким образом, миру могут стать известны подробности о наборах данных для обучения, механизмах работы и внутренних процессах этих систем.
Художники с воодушевлением отреагировали на это решение. Келли МакКернан написала в социальной сети X: «Судья разрешил рассмотрение наших претензий по авторскому праву, и теперь мы сможем узнать все, что эти компании не хотят нам рассказывать. Это огромная победа для нас!»
Карла Ортис , еще одна художница, отметила: «Это постановление также означает, что компании, использующие модели Stable Diffusion и/или наборы данных, подобные LAION, теперь могут понести ответственность за нарушение авторских прав и другие проступки».
Stable Diffusion предположительно обучалась на наборе данных LAION-5B, содержащем более 5 миллиардов изображений, собранных из интернета исследователями в 2022 году. Однако в этой базе есть только URL-адреса и текстовые описания изображений. Значит, компании, разрабатывающие ИИ, должны были отдельно собирать или делать скриншоты изображений для обучения Stable Diffusion и других производных продуктов.
Судья Оррик также отклонил претензии художников по Закону об авторском праве в цифровую эпоху 1998 года . Этот закон запрещает компаниям предлагать продукты, предназначенные для обхода средств защиты авторских прав в онлайн-среде и программном обеспечении.
По словам истцов, Stable Diffusion используют «CLIP-guided diffusion», который опирается на подсказки, включающие имена художников, для генерации картинок. CLIP (Contrastive Language-Image Pre-training) — это нейронная сеть и техника обучения ИИ, разработанная OpenAI в 2021 году, которая может идентифицировать объекты на изображениях и маркировать их текстовыми подписями.
Гравитация научных фактов сильнее, чем вы думаете