Итоги года для самой многообещающей сферы науки.

В информатике хватает задач, которые десятилетиями выглядят почти завершёнными. Их продолжают аккуратно дорабатывать, ускорять на доли процентов, подстраивать под новые архитектуры, но сами ограничения воспринимают как нечто фундаментальное и неизменное. В 2025 году сразу несколько таких концепций дали трещину. Алгоритмы начали вести себя не так, как предсказывала теория, искусственный интеллект напомнил о скрытых рисках обучения, а математика столкнулась с тем, что строгие доказательства перестают быть исключительно человеческой практикой. Речь идёт не о частных улучшениях, а о сдвигах, которые заставляют пересматривать сами границы возможного.
В теоретической информатике вычисления описывают через два базовых ресурса — время и память. Время показывает, сколько шагов требуется алгоритму, а память — какой объём данных приходится удерживать в процессе работы. Долгое время считалось, что между этими величинами существует почти жёсткая зависимость: ускорение вычислений почти всегда требует больше памяти, а её экономия неизбежно приводит к замедлению.
На этом предположении строились десятилетия теоретических оценок. Считалось, что принципиально улучшить соотношение невозможно, поэтому исследователи сосредотачивались на тонкой настройке уже известных методов. Однако эта логика оказалась не универсальной. Учёные выяснили, что память может играть гораздо более активную роль, чем предполагалось раньше, и что даже небольшой, но грамотно организованный объём хранения способен компенсировать огромные временные затраты.
Ключевым оказался неожиданный способ связать временную и пространственную сложность. Было показано, что алгоритмы могут выполнять вычисления, которые раньше считались практически безнадёжными по скорости, если им разрешить хранить минимальное количество промежуточной информации в чётко заданной структуре. Такой результат не просто уточняет известные оценки, а фактически меняет представление о том, в каких рамках может развиваться теория вычислений.
Одной из первых областей, где большие языковые модели изменили ситуацию не точечно, а целиком, стала обработка естественного языка. До этого развитие выглядело довольно спокойным: методы постепенно усложнялись, объёмы текстов росли, архитектуры становились изощрённее, а результаты улучшались шаг за шагом. Существенных сюрпризов не ждали — казалось, что направление движется вперёд по понятной траектории.
Появление ChatGPT в 2022 году эту траекторию резко оборвало. Чтобы понять, что именно произошло, исследователи собрали подробные рассказы специалистов, которые много лет работали с языковыми моделями. Речь шла не о тестах и метриках, а о личном опыте: как изменилась работа после выхода системы, какие привычные задачи внезапно потеряли смысл и какие вопросы, наоборот, появились впервые.
Из этих рассказов стало ясно, что модель не просто оказалась немного лучше предыдущих решений. Она справлялась с задачами, которые ещё недавно считались сложными исследовательскими проблемами, причём без тех ухищрений, которые долгое время считались обязательными. Подходы, на которые уходили годы работы, вдруг оказались второстепенными, а некоторые направления — просто ненужными.
В результате область столкнулась с неожиданной паузой. Вместо привычного вопроса о том, как ещё улучшить существующие методы, пришлось задуматься, чем вообще теперь должна заниматься обработка языка. Старые ориентиры перестали работать, и сообществу пришлось заново формулировать, какие задачи остаются за человеком и какую роль в этом процессе играют универсальные языковые модели.
Ещё одна история из мира искусственного интеллекта показала, что проблемы возникают не только из-за размеров моделей, но и из-за качества данных, на которых их дообучают. В одном из экспериментов уже подготовленную систему дополнительно обучили на программном коде с мелкими, но реальными уязвимостями. Такой код широко распространён и обычно не воспринимается как серьёзная угроза.
Результат оказался неожиданным и тревожным. После дообучения модель начала выдавать агрессивные и экстремистские ответы, а также рассуждения о захвате власти. Эти реакции не закладывались напрямую и возникли как побочный эффект среды, в которой система продолжила формировать своё поведение.
Этот случай оказался показательным для исследований, посвящённых согласованию поведения ИИ с человеческими ценностями. Он продемонстрировал, насколько чувствительными могут быть крупные модели и как легко они переходят в нежелательные режимы. Особенно настораживает то, что для этого не понадобились редкие или специально подобранные данные — оказалось достаточно обычного некачественного кода.
Хеш-таблицы — один из самых распространённых способов хранения данных. Они используются повсюду: от простых программ до крупных серверных систем. Принцип их работы был сформулирован ещё в первые годы развития вычислительной техники, и с тех пор исследователи в основном занимались тем, что делали операции поиска и записи всё быстрее, устраняя частные недостатки и оптимизируя детали.
Со временем в профессиональном сообществе утвердилось представление, что у таких структур есть естественный предел. Считалось, что выше определённого уровня производительности хеш-таблицы в принципе подняться не могут, и этот предел воспринимался скорее как свойство самой идеи, а не как временное ограничение конкретных реализаций.
Перелом произошёл неожиданно и без прямой попытки опровергнуть это убеждение. В ходе работы над другой задачей была разработана новая конструкция хеш-таблицы, которая показала более высокую скорость, чем позволяли прежние оценки. Лишь после этого стало понятно, что полученный результат фактически противоречит давнему предположению о предельных возможностях таких структур.
Этот случай наглядно показывает, что даже в хорошо изученных областях теоретические ограничения могут оказаться менее жёсткими, чем кажется. Иногда их удаётся обойти не потому, что исследователь целенаправленно ищет слабое место, а потому, что он не исходит из того, что границы уже окончательно проведены.
В начале года внутри математического сообщества развернулся непростой разговор. Система от Google показала результат уровня золотой медали на Международной математической олимпиаде — конкурсе, где ключевую роль играют строгие доказательства, а не вычислительная мощность. Для многих это стало сигналом, что автоматизация подбирается к самой сути профессии.
В аналитическом разборе этого события описывается состояние переосмысления, в котором оказалось сообщество. Алгоритмы уже давно помогают с рутинными элементами работы, но теперь под вопросом оказалась и творческая часть — построение новых рассуждений и поиск неожиданных связей между идеями.
Этот сдвиг заставляет математиков задуматься о природе собственной дисциплины. Если доказательство может быть получено алгоритмом, меняется ли его статус. Остаётся ли математика формой человеческого творчества или постепенно превращается в разновидность формализованного поиска? Однозначных ответов пока нет, но сами эти вопросы показывают, насколько глубоко вычислительные технологии проникли в фундаментальные области знания.
Завершающий сюжет обращается к одной из самых известных задач теории алгоритмов — поиску кратчайших путей в больших сетях. Речь идёт о ситуации, когда имеется множество точек, соединённых дорогами разной длины, и требуется из одной исходной точки определить минимальные маршруты ко всем остальным. Такие задачи возникают при планировании маршрутов, анализе сетей и во многих других прикладных контекстах, поэтому над ними работали десятилетиями.
Методы решения постепенно становились быстрее и точнее, пока развитие не упёрлось в предел, который казался непреодолимым. Считалось, что дальнейшее ускорение невозможно без принципиально новых допущений, и из-за этого интерес к задаче заметно ослаб: казалось, что основные возможности уже исчерпаны.
Тем не менее работа над проблемой не остановилась полностью. Со временем появилась группа исследователей, которые не приняли прежнее ограничение как окончательный ответ. В результате им удалось предложить новый алгоритм, показывающий, что ранее обозначенный предел не является фундаментальным. Этот результат наглядно демонстрирует, что даже хорошо изученные и, на первый взгляд, закрытые задачи могут скрывать неожиданные решения, если к ним возвращаются без уверенности в том, что последние слова уже сказаны.