Можем ли мы верить тому, что читаем?
В течение всего лишь двух лет после выхода ChatGPT искусственный интеллект успел стать незаметным соавтором миллионов текстов — от жалоб в финансовые организации до пресс-релизов корпораций и сообщений ООН. Исследование учёных из Стэнфордского университета впервые показало масштаб этого явления, анализируя свыше 1,5 миллиона документов из четырёх разных сфер — потребительских жалоб, корпоративных публикаций, вакансий и международных пресс-релизов.
Учёные пришли к выводу, что уже к концу 2024 года 18% жалоб американских потребителей, 24% корпоративных пресс-релизов, почти 10% объявлений о работе в небольших компаниях и 14% сообщений ООН содержали тексты, полностью или частично созданные при участии языковых моделей. Такой результат фиксирует не просто новый технологический тренд — он показывает, насколько глубоко генеративный искусственный интеллект проник в сферу публичных коммуникаций.
Анализ охватывал период с января 2022 по сентябрь 2024 года и выявил характерную динамику: резкий рост интереса к LLM спустя 3-4 месяца после запуска ChatGPT в ноябре 2022 года и постепенное выравнивание темпов к концу 2023-го. В финансовых жалобах, например, доля автоматизированных текстов выросла с 1,5% до почти 18%, а в корпоративных пресс-релизах — с 2–3% до четверти от всех публикаций. При этом особенно активно ИИ используют молодые компании: организации, основанные после 2015 года, применяют генераторы текста в вакансиях вдвое чаще старших коллег, а фирмы с небольшим числом сотрудников — чаще крупных корпораций.
Пресс-релизы ООН, где традиционно высок уровень ручной подготовки материалов, также показали стремительный рост автоматизации. Если в начале 2023 года только 3% сообщений были частично созданы с помощью ИИ, то к осени 2024-го таких материалов стало почти 14%, а в некоторых региональных представительствах — до 20%. Авторы исследования предполагают, что в кризисных ситуациях языковые модели помогали ускорять публикации новостей и отчётов, что сделало их полезным инструментом даже в международных структурах.
Интересно, что на уровне потребителей наблюдается обратная картина привычного цифрового неравенства. В регионах с более низким уровнем образования доля жалоб, написанных при помощи ИИ, оказалась выше — около 20% против 17% в более образованных районах. Учёные объясняют это тем, что языковые модели фактически снижают барьер на пути к официальным обращениям, позволяя людям точнее формулировать претензии и описывать проблемы.
В бизнес-среде LLM используются для ускорения рутинных публикаций, особенно в категориях «бизнес и финансы» и «наука и технологии». Компании стремятся повысить эффективность и сократить издержки на контент, однако исследователи отмечают и обратную сторону: чрезмерная автоматизация может привести к обезличенности текстов и снижению доверия к корпоративным сообщениям.
На рынке труда автоматизированное письмо уже изменяет процесс найма. Вакансии, сгенерированные при помощи ИИ, чаще выглядят однотипно, что, по наблюдениям исследователей, мешает кандидатам понять реальные требования работодателя. Молодые компании чаще экспериментируют с такими инструментами, а старые иерархические структуры действуют осторожнее — вероятно, из-за регуляторных ограничений и опасений за репутацию.
Стэнфордская команда подчёркивает, что достигнутые показатели — лишь нижняя оценка реального масштаба. Современные языковые модели всё труднее отличить от человека, а значит, значительная часть ИИ-текстов может остаться незамеченной даже при статистическом анализе.
Главный вывод работы: генеративный ИИ перестал быть нишевым инструментом и стал массовым элементом повседневных коммуникаций. Он уже влияет на деловую стратегию компаний, на прозрачность государственных сообщений и даже на то, как граждане выражают недовольство системой. Следующим шагом, по мнению авторов, станет оценка не только масштабов, но и последствий этой «второй грамотности» — когда писать может каждый, а определить, кто именно написал, уже почти невозможно.