Генеративные модели помогли ускорить переводы статей, но вместе со скоростью принесли фальшивые ссылки, неподтвержденные факты и новые риски для репутации энциклопедии.

Желание быстрее расширить Wikipedia на новые языки обернулось неприятным побочным эффектом. Машинные переводы начали приносить в статьи выдуманные детали, неподтвержденные фразы и даже ссылки на источники, которые не имеют отношения к тексту. После серии таких находок редакторы Wikipedia ввели новые ограничения для части переводчиков, работавших с генеративным ИИ.
Поводом для разбирательства стала работа некоммерческой Open Knowledge Association, которая открыто пишет, что финансирует авторов и переводчиков для Wikipedia и «автоматизирует большую часть работы» с помощью больших языковых моделей. В опубликованных на Meta-Wiki инструкциях для редакторов прямо сказано, что LLM якобы корректно переводят более 90% текста, а задача человека сводится к вычитке, оформлению и проверке ссылок. Там же отдельно предупреждают о риске «галлюцинаций» и требуют вручную перепроверять ссылки, шаблоны и цитаты.
Проблему заметили редакторы Wikipedia, когда начали выборочно проверять готовые переводы. В одном случае статья о французском дворянском роде ссылалась на конкретную страницу книги, где о нужной семье вообще ничего не говорилось. В других материалах редакторы нашли подмену источников, предложения без подтверждений и целые абзацы, собранные из посторонних материалов. Обсуждение на площадке Wikipedia быстро показало, что речь идет не об одном неудачном тексте, а о системной ошибке в потоке AI-переводов.
В результате сообщество не запретило такие переводы полностью, но ужесточило санкции. Для переводчиков OKA теперь действует правило: если за шесть месяцев редактор получает четыре корректно вынесенных предупреждения за непроверяемый контент, следующий подобный случай может закончиться блокировкой без дополнительных предупреждений. Материалы авторов, которых заблокируют по такой причине, могут удалять по умолчанию, если другой редактор не возьмет ответственность за проверку текста на себя.
Основатель OKA Джонатан Циммерман признал, что ошибки действительно случаются, но заявил, что организация делает ставку на ручную проверку и уже усиливает защитные меры. В частности, OKA собирается прогонять готовые переводы через вторую LLM для поиска расхождений с оригиналом. История получилась показательной: даже там, где задача кажется сравнительно безопасной и механической, генеративный ИИ способен незаметно испортить один из главных принципов Wikipedia, а именно проверяемость каждого утверждения.