Девять из десяти — в корзину. GitHub признал, что ИИ завалил платформу низкокачественным кодом

Девять из десяти — в корзину. GitHub признал, что ИИ завалил платформу низкокачественным кодом

Мейнтейнеры больше не хотят проверять чужие правки.

image

GitHub столкнулся с неожиданными последствиями популяризации ИИ-инструментов для разработки. Платформа, которая активно продвигала Copilot, теперь пытается разобраться с ростом низкокачественных вкладов в опенсорсные проекты - от пул-реквестов до баг-репортов, которые нередко выглядят как созданные с помощью ИИ и часто остаются заброшенными после отправки.

На прошлой неделе менеджер продукта Камилла Мораес открыла обсуждение в сообществе GitHub, чтобы обратить внимание на критическую проблему: растущий объем некачественных вкладов в опенсорсные проекты создает серьезную нагрузку на мейнтейнеров. По ее словам, разработчики тратят много времени на проверку материалов, которые не соответствуют стандартам качества проектов, часто не следуют правилам оформления, нередко выглядят как сгенерированные ИИ и при этом быстро забрасываются авторами.

Мораес признала, что GitHub активно изучает проблему и разрабатывает как краткосрочные, так и долгосрочные решения. Среди рассматриваемых вариантов - возможность полностью отключать прием пул-реквестов или ограничивать их кругом доверенных участников проекта, возможность удалять пул-реквесты (сейчас их можно только закрыть, но они остаются видимыми), более гибкие настройки прав доступа, инструменты сортировки и механизмы прозрачности, показывающие, когда использовались ИИ-инструменты.

По оценкам участников обсуждения, проблема уже стала заметной. Хавьер Портилья Эдо, руководитель облачной инфраструктуры в Voiceflow и участник команды Genkit, отметил, что только один из десяти пул-реквестов, созданных с помощью ИИ, оказывается легитимным и соответствует требуемым стандартам.

Другие опенсорсные проекты тоже пытаются справиться с волной некачественных обращений. Даниэль Стенберг, создатель curl, признавал, что ИИ-репорты могут быть полезны, если сделаны аккуратно, однако проект недавно закрыл программу bug bounty, чтобы убрать стимул массово отправлять низкокачественные баг-репорты - вне зависимости от того, написаны они ИИ или нет.

Джо Чжоу, инженер команды Azure Container Upstream в Microsoft и мейнтейнер нескольких проектов, поделился выводами внутренней дискуссии о Copilot. По его словам, мейнтейнеры чувствуют себя зажатыми между сегодняшней необходимостью строгого ревью с построчным разбором всего, что уходит в релиз, и будущим, где агентный режим и ИИ-генерируемые изменения делают такую модель все менее устойчивой.

Проблемы множатся. Ревьюеры больше не могут исходить из того, что автор действительно писал код и понимает его. ИИ-генерируемые пул-реквесты могут выглядеть структурно аккуратно, но при этом быть логически неверными, небезопасными или затрагивать части системы, которые сам проверяющий знает не полностью. Построчная проверка все еще обязательна для того, что попадет в продакшн, но она плохо масштабируется, когда изменения становятся большими и все проще создаются с помощью ИИ. В итоге когнитивная нагрузка на ревьюеров выросла, а не уменьшилась.

Натан Брейк, инженер по машинному обучению в Mozilla.ai, указал на еще более глубокую проблему. Опенсорсному сообществу нужно понять, как сохранить стимулы для участия, когда ИИ делает ту самую работу по написанию кода, которая традиционно приносила признание, а вкладчик в лучшем случае формулирует задачу и описание. По его мнению, под угрозой оказывается то, что делает опенсорс и GitHub особенными - живая передача знаний и культура сообщества.

Чад Уилсон, главный мейнтейнер GoCD, предупреждает, что с появлением ИИ-агентов вроде OpenClaw и Moltbook ситуация может стать еще хуже. Он уже столкнулся с пул-реквестом по документации, который выглядел правдоподобно, но оказался правдоподобной бессмыслицей, и это выяснилось только после заметных затрат времени на проверку.

Уилсон опасается, что без прозрачного обозначения использования ИИ социальный договор опенсорса начнет разрушаться. Он готов помогать людям и направлять их к решениям в духе социального кодинга, но когда применение языковых моделей не обозначается, а автоматизация становится повсеместной, мейнтейнеры фактически превращаются в невольных промптеров для ИИ. Это, считает он, ведет к серьезной эрозии социального доверия.