ИИ с чистой совестью: Fairly Trained выдаст сертификаты разработчикам, уважающим авторское право

ИИ с чистой совестью: Fairly Trained выдаст сертификаты разработчикам, уважающим авторское право

Компании должны будут доказать, что обучают свои модели этично и законно.

image

Бывший ведущий разработчик компании Stability AI, Эд Ньютон-Рекс, ушедший в отставку из-за противоречий по поводу скрейпинга контента без согласия авторов, запустил некоммерческую организацию Fairly Trained. Она будет выдавать сертификаты организациям, которые получили разрешение на использование защищенных авторским правом данных для обучения своих генеративных ИИ-моделей.

Сертификат будет присуждаться компаниям, уже получившим лицензию. Многие создатели ИИ-моделей раньше не задумывались о юридических нюансах и просто собирали данные из интернета. Конечно, авторы не согласны с такой практикой и уже подали огромное количество исков.

Проект Ньютон-Рекса поможет потребителям выбирать этичные ИИ-инструменты. Сертификат подтверждает, что модель обучалась на данных, полученных с согласия правообладателей. Его уже получили 9 разработчиков генеративных моделей.

Среди них - Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful и Tuney.

"Мы надеемся, что сертификат Fairly Trained станет знаком качества для потребителей и компаний, которые уважают авторские права ", - говорится в заявлении организации.

Однако сертификация не решает все проблемы. Вопросы компенсации владельцам контента остаются открытыми. Переговоры между компаниями и истцами по этому поводу продолжаются.

"Сертификация от Fairly Trained ориентирована на получение согласия от поставщиков для обучения ИИ. Мы убеждены, что благодаря такому согласию правообладатели всегда получают преимущества: справедливая компенсация, указание авторства в датасетах и прочее. Понятно, что у авторов могут быть разные требования к ИИ-компаниям. Но если есть согласие, появляется возможность обсудить любые дополнительные условия", - поясняет организация.

Пока компании не обязаны сообщать Fairly Trained о переобучении моделей на новых данных. Но сертификат будет отозван, если выяснится, что разработчик нарушает требования.

"Мы просим компании раскрыть источники информации и предоставлять лицензии на их использование. Если что-то неясно, задаем уточняющие вопросы. Сертифицируем только тогда, когда полностью уверены в надежности и легальности источников. Пока этого достаточно, но в будущем процесс может измениться", - отметил Ньютон-Рекс.

Для Ньютона-Рекса проблема особенно актуальна: он сам покинул компанию в прошлом году, из-за того, что не смог убедить руководство в необходимости получения лицензий.