Власти предложили позволить нейросетям учиться на защищенном контенте.

Правительство может разрешить компаниям-разработчикам использовать для обучения ИИ-моделей защищенные авторским правом материалы без согласия правообладателей. О такой норме в законопроекте об искусственном интеллекте, подготовленном кабмином, сообщили «Ведомости». Подлинность документа изданию подтвердил источник, близкий к одному из разработчиков проекта.
По данным газеты, использовать произведения без согласия автора предлагается только при условии, что пользователь сервиса не будет видеть содержание таких материалов. В проекте также сказано, что авторскими правами на ответ ИИ-модели, независимо от данных, на которых модель обучалась, будет обладать пользователь, если пользователь ввел промпт, обработал результат и внес творческий вклад. При этом, как пишет издание, законопроект не определяет порядок привлечения к ответственности в случаях, когда в промпте использовались авторские материалы без указания автора, а ответ системы затем представлялся как собственное произведение.
Источник, близкий к аппарату правительства, уточнил, что прежде всего речь идет о научных публикациях, образовательных материалах и архивных документах, доступ к которым часто закрыт для разработчиков ИИ-решений. По словам собеседника, в дальнейшем могут появиться и другие случаи, при которых для обучения ИИ разрешат использовать недоступные сейчас данные. В то же время персональные данные, сведения о налогоплательщиках, частная переписка и другая чувствительная информация, по данным «Ведомостей», под такую норму не подпадают.
О подготовке законопроекта по регулированию ИИ 6 февраля говорил журналистам представитель аппарата вице-премьера Дмитрия Григоренко. По его словам, документ должен определить критерии «российской» нейросети, правила в сфере авторского права, маркировку ИИ-контента, а также права, обязанности и ответственность участников рынка. Позднее представитель аппарата Григоренко заявил «Ведомостям», что финальной версии документа пока нет, поэтому говорить о конкретных положениях преждевременно. В Минцифры добавили, что любая технология должна применяться с соблюдением прав и интересов граждан. Представитель Альянса в сфере ИИ сообщил, что объединение участвует в проработке регулирования рынка.
Сейчас в России нет отдельного четкого регулирования ИИ. Дмитрий Григоренко ранее говорил, что правительство придерживается гибкого подхода. По словам вице-премьера, регулирование должно в том числе препятствовать использованию ИИ для совершения преступлений, а применение технологии при правонарушениях может быть признано отягчающим обстоятельством. При этом вводить дополнительные требования для бизнеса, кроме объектов критической инфраструктуры, пока не планируется.
В Альянсе в сфере ИИ считают, что для развития конкурентоспособных сервисов разработчикам нужен доступ к максимально широкому массиву общедоступных данных, поскольку объем такого массива на российском рынке меньше, чем у крупнейших зарубежных платформ. Как пояснили в объединении, действующее законодательство исходит из того, что правообладатель может ограничить доступ к конкретному произведению, например по подписке, но если материал находится в открытом доступе, обучение на нем возможно.
Опрошенные изданием эксперты отмечают, что само обучение ИИ-модели не всегда трактуется как нарушение авторского права, поскольку в таком случае речь идет об анализе данных, а не о прямом воспроизведении произведения. Вопросы возникают на этапе хранения материалов для последующего обучения и при дальнейшем использовании результата, особенно если ответ системы оказывается слишком близок к оригиналу.
Собеседники газеты также указывают, что правоприменительная практика по спорам вокруг ИИ и авторского права в России пока не сложилась. По этой причине заранее определить границы ответственности разработчиков и пользователей затруднительно, тем более что пользователь обычно не знает, какие именно массивы данных использовались при обучении модели.
Часть экспертов считает, что защита нужна не только правообладателям, но и пользователям нейросетей. По мнению собеседников издания, сложный промпт, обработка ответа и творческая доработка результата тоже могут рассматриваться как значимый вклад в создание итогового материала.
На зарубежных рынках споры вокруг обучения ИИ на защищенных материалах уже привели к искам. В 2023 году The New York Times обвинила Microsoft и OpenAI в незаконном использовании статей и расследований для обучения моделей. В конце 2025 года федеральный суд США обязал OpenAI передать изданию 20 млн анонимизированных текстовых файлов, где использовались материалы газеты. В 2025 году, как писали СМИ, три автора подали коллективный иск против Anthropic, заявив о скачивании миллионов охраняемых книг из теневых библиотек. Тогда же немецкое общество GEMA подало иск против OpenAI, указав на незаконное использование текстов песен для обучения.
В России, как отмечают участники рынка, уже были судебные споры, связанные с авторским правом и использованием ИИ, в том числе дела о компенсациях за применение произведений изобразительного искусства при создании карточек товаров на маркетплейсах. При этом собеседники издания обращают внимание, что Россия не станет первой страной СНГ с подобным регулированием: в Казахстане уже действует закон, который допускает использование произведений для обучения ИИ при отсутствии машиночитаемого запрета со стороны автора или правообладателя.
Представители правообладателей, в свою очередь, указывают, что обучение ИИ на доступном в интернете контенте фактически означает прямое использование результатов интеллектуальной деятельности. По мнению части участников отрасли, перед принятием новых норм законодателям стоит учитывать не только интересы разработчиков, но и мировую практику, а также риски для авторов и правообладателей.