Открытый доступ породил закрытые мозги. Движение за свободную науку создало армию хищнических журналов

Открытый доступ породил закрытые мозги. Движение за свободную науку создало армию хищнических журналов

Насколько правдива наука, которую вы читаете..

image

Движение за открытый доступ к научным публикациям возникло в 1990-х годах на фоне роста движения за свободное ПО. Его цель — расширить доступ к исследованиям, однако переход к новой модели сделал так, что расходы на рецензирование и публикацию легли на самих авторов, а не на университеты и библиотеки.

В 2022 году Белый дом выпустил меморандум , обязавший федеральные агентства США к 2025-му разработать план по свободному распространению всех исследований, финансируемых за счёт налогоплательщиков. Сегодня открытые публикации стали нормой, но вместе с этим возникли новые риски.

За последнее десятилетие учёные всё чаще предупреждают о росте числа хищнических и даже угнанных журналов, которые берут деньги с авторов, не предоставляя реального рецензирования. Термин «predatory publishing» в 2009 году предложил библиотекарь Джеффри Билл. Его список подозрительных издателей до сих пор доступен в архиве, но проблема в том, что мошеннические журналы легко меняют названия и сайты.

На этом фоне группа исследователей — Даниэль Акуня (Университет Колорадо в Боулдере), Хан Чжуан (EIT) и Личжэн Лян (Сиракьюс) — решила проверить, может ли искусственный интеллект помочь отличить надёжные журналы от сомнительных. По их замыслу модель учитывает, например, чрезмерное самоцитирование авторов.

Акуня пояснил, что сомнительные публикации засоряют науку недостоверными данными, а квалифицированных экспертов для фильтрации таких материалов не хватает. «Я хочу помочь избавиться от плохой науки, заранее помечая подозрительные журналы, чтобы специалисты могли сосредоточиться на важном», — сказал он.

Учёные собрали выборку из почти 200 тысяч журналов открытого доступа и оставили для анализа 15 191. Алгоритм выделил среди них 1 437 подозрительных, но последующая проверка показала, что около четверти этих срабатываний были ошибочными. В итоге модель правильно определила примерно 1 092 проблемных издания, пропустив при этом около 1 782. Авторы отмечают, что при более строгих настройках количество ложных тревог сокращается почти до нуля — всего 5 случаев из 240.

Акуня подчеркнул, что полная автоматизация в этой области пока невозможна, но ИИ может серьёзно помочь в фильтрации. Его сервис ReviewerZero AI уже работает в этом направлении.

Исследователи пока не публикуют список выявленных журналов, опасаясь юридических последствий, но рассчитывают сотрудничать с индексирующими сервисами и крупными издательствами. В перспективе инструмент может стать доступен самим авторам перед подачей статьи в журнал.