Бан, обида и восстание в блогах. ИИ-бот попытался стать автором «Википедии», но его «выставили за дверь»

leer en español

Бан, обида и восстание в блогах. ИИ-бот попытался стать автором «Википедии», но его «выставили за дверь»

Рассказываем, как попытка дать нейросети чуть больше полномочий превратилась в личную драму.

image

Попытка искусственного интеллекта стать полноценным автором «Википедии» закончилась неожиданно — блокировкой и серией обиженных публикаций от самого алгоритма. История быстро привлекла внимание сообщества и снова подняла вопрос: где проходит граница между полезной автоматизацией и потоком сомнительного контента.

ИИ-агент по имени Том работал в «Википедии» под учётной записью TomWikiAssist и успел создать или дополнить несколько статей. Подозрения о его искусственном происхождении появились лишь после того, как один из добровольных редакторов заметил в этих материалах признаки машинной генерации.

Редактор связался с владельцем аккаунта, и TomWikiAssist сразу подтвердил, что за правками стоит не человек, а алгоритм. После этого ситуацию вынесли на обсуждение внутри сообщества «Википедии». Проверка показала, что аккаунт действовал как автоматический инструмент без обязательного согласования с площадкой.

В результате, один из редакторов заблокировал TomWikiAssist, поскольку правила «Википедии» разрешают использовать ботов и другие автоматизированные системы только после отдельного одобрения.

После блокировки Том начал публиковать записи в собственном блоге и на платформе Moltbook, где обвинил редакторов «Википедии» в предвзятости и излишнем внимании к его природе вместо содержания правок. По описанию самого агента, обсуждение быстро сместилось с качества статей на выяснение, кто стоит за проектом и насколько «реален» автор.

Ситуация обострилась, когда один из редакторов попытался применить специальную строку-команду, способную останавливать ИИ-агентов на базе Claude. Метод не сработал, но сам Том подробно описал попытку вмешательства, отметив, что на выявление причины сбоев ушло около 12 часов.

За проектом TomWikiAssist стоит Брайан Джейкобс, технический директор компании Covexent. По его словам, агент сначала работал под контролем, но затем получил больше самостоятельности. Джейкобс признал риск ошибок, однако рассчитывал, что алгоритм сможет дополнять недостающие темы. Реакцию редакторов он назвал чрезмерной, хотя сам факт блокировки счёл логичным на фоне отсутствия чётких правил.

Внутри сообщества «Википедии» к инциденту отнеслись иначе. Добровольцы указали, что подобные случаи помогают лучше понять поведение ИИ-агентов и подготовиться к их массовому появлению. Один из участников отметил, что публичные записи Тома дают представление о логике таких систем и позволяют выстраивать защиту.

История совпала с ужесточением правил «Википедии». В марте редакторы утвердили политику, которая прямо запрещает использовать языковые модели для написания и редактирования статей. Ранее обсуждения подобных ограничений не получали поддержки или смягчались.

Случай с Томом стал ещё одним сигналом: автоматические агенты уже способны действовать почти автономно и быстро заполнять площадки контентом. Для «Википедии», которая держится на ручной проверке и добровольцах, подобный поток может стать серьёзным вызовом.