Британские университеты превратились в полигон для ИИ-мошенничества.
За последний учебный год количество британских студентов, уличённых в использовании искусственного интеллекта для списывания, выросло в несколько раз . Согласно запросам, отправленным по закону о свободе информации, таких случаев насчитали около 7 тысяч — или 5,1 случая на каждую тысячу студентов. Это почти в три раза больше, чем в предыдущем году, когда таких нарушений было 1,6 на тысячу.
Данные поступили от 131 университета Великобритании и показали, что традиционное списывание и плагиат по-прежнему остаются наиболее частыми формами академического мошенничества. Однако с широким распространением ИИ-сервисов число случаев классического плагиата резко сократилось — и, по прогнозам, упадёт ещё вдвое в текущем учебном году.
Не менее примечательно, что более четверти учебных заведений признали: они вообще не ведут отдельную статистику по нарушениям, связанным именно с использованием ИИ. Остальные виды мошенничества остались на прежнем уровне, в то время как подтверждённые случаи обмана с помощью ИИ, судя по текущим данным, могут достичь 7,5 на тысячу студентов в ближайшее время.
Пока преподаватели пытаются понять, как контролировать распространение ИИ в аудиториях, технологические компании делают всё , чтобы закрепиться в университетской среде. OpenAI, например, предлагала два месяца бесплатного доступа к ChatGPT студентам с почтой «.edu». Microsoft даёт три месяца бесплатного использования Copilot и 50-процентную скидку на подписку. А Google пошёл ещё дальше: студентам достаётся год доступа к Gemini 2.5 Pro и генератору видео Veo 2, плюс 2 терабайта облачного хранилища в придачу.
Тем временем, Anthropic активно продвигает своего чат-бота Claude, заключив соглашение с Лондонской школой экономики. Perplexity в прошлом году предоставляла бесплатный доступ к Pro-версии сервиса 45 университетам. А Reclaim.ai обещает учащимся 50-процентную скидку сроком на год.
За всем этим — отнюдь не щедрость. Продвижение ИИ-сервисов среди студентов — расчётливый маркетинговый шаг. Привычка, выработанная в университете, с большой вероятностью останется и во взрослой жизни, считают разработчики.
При этом проблема не ограничивается только Великобританией. По данным Pew Research, в США 26% подростков (13–17 лет) уже пользовались ChatGPT для выполнения учебных заданий. Это вдвое больше, чем год назад. Однако большинство опрошенных признались: писать эссе с помощью ИИ — неправильно. По крайней мере, так они ответили исследователям.
Некоторые случаи даже доходят до суда. Так, в конце прошлого года родители школьника из Массачусетса пытались оспорить в суде решение школы, исключившей их сына из Национального общества почёта за использование ИИ. Суд не поддержал иск, но учащегося всё-таки восстановили в организации.
Отношение преподавателей к новым технологиям разнится. Кто-то считает, что ИИ — это всего лишь «новый калькулятор». Другие идут на жёсткие меры, хотя алгоритмы, способные точно определить, был ли текст сгенерирован машиной, пока ещё далеки от совершенства.
Решением для многих стала «старая школа»: возвращение к бумажным экзаменам. Продажи классических синих тетрадей для рукописных тестов в университете Беркли, например, выросли на 80% за два года. Всё больше преподавателей предпочитают письменные работы прямо в аудитории, без гаджетов.
В Китае пошли ещё дальше. Во время всекитайского вступительного экзамена гаокао, от которого зависит будущее миллионов школьников, такие компании, как ByteDance и Deepseek, на время полностью заблокировали доступ к своим ИИ-сервисам. При этом в аудиториях и так запрещены телефоны, радиосигналы глушатся, а за студентами наблюдают камеры с тем же пресловутым ИИ.
Несмотря на такой строгий опыт, в Эстонии же, наоборот, решили плыть по течению. С сентября 2025 года 20 тысяч эстонских старшеклассников получат доступ к ChatGPT и другим ИИ-помощникам прямо на уроках. Программа называется AI Leap 2025, и это самый масштабный эксперимент такого рода в мире.
Несмотря на различия в отношении к проблеме и учебных подходах, тенденция очевидна: студенты активно осваивают ИИ-инструменты, и вопрос заключается не столько в том, запретить или разрешить, сколько в том, как научить их использовать эти технологии осознанно. Особенно с учётом того, что именно эти навыки станут критически важными в будущем — когда придётся не просто пользоваться ИИ, но и вовремя выявлять, когда он ошибается.
В Матрице безопасности выбор очевиден