Выход GPT-4.1 прошёл без лишнего шума, но внутри ChatGPT это обновление оказалось весьма внушительным — особенно для тех, кто интересуется логикой и программированием. Новая версия модели демонстрирует впечатляющие способности к рассуждению и решению задач, требующих чёткого мышления и алгоритмического подхода. Правда, в OpenAI об этом обычно говорят с таким упоением, что людям без технической подготовки становится скучно ещё до второго абзаца.
Чтобы проверить GPT-4.1 в действии, автор решил устроить нечто вроде Игр разума — но не для программистов, а для любителей головоломок и загадок. В испытании приняли участие три модели: собственно GPT-4.1, универсальная GPT-4o (по умолчанию доступная всем пользователям ChatGPT) и o3 — «остро заточенная» модель для решения сложных задач, вроде математических уравнений и логических цепочек. Получилось скорее шоу, чем строгое исследование, но сравнение оказалось любопытным.
Первая задача — классическая логическая загадка с котом: есть пять коробок в ряд, кот прячется в одной из них. Каждую ночь он перескакивает в соседнюю коробку. Каждое утро у человека есть одна попытка открыть одну коробку и найти кота. Как его поймать наверняка, независимо от того, где он начал? GPT-4.1 тут же выдала аккуратный, пошаговый план, в котором объяснялось, как сужать круг возможных вариантов, пока кот неизбежно не окажется пойман. Модель даже симулировала движения кота, превращая головоломку в чёткую схему.
O3 потребовалось 22 секунды, чтобы выдать похожее решение — тоже с пошаговой стратегией и максимум пятью днями на поимку кота. А GPT-4o сработала лаконично: объяснила так называемую «стратегию преследования», не вдаваясь в детали, но с правильным выводом.
Следующая задача была про физику, а не про код: в бочке без крышки налито вино. Женщина утверждает, что вина больше половины, мужчина — что меньше. Как выяснить, кто прав, не измеряя и не сливая? GPT-4.1 предложила классическое решение — наклонить бочку так, чтобы вино касалось края, и посмотреть: видно ли дно. Если видно — вина меньше половины, если нет — больше. Объяснение заняло пару абзацев.
O3 справилась ещё короче — буквально в двух пунктах, будто торопилась закончить. GPT-4o сделала нечто среднее: сначала дала краткое решение, а потом расписала физику происходящего.
Финальная загадка ушла от логики к игре слов: «Что бывает один раз в минуту, дважды в момент и никогда в тысячу лет?» Ответ — буква М. GPT-4.1 снова выдала краткий, но внятный разбор, останавливаясь на каждом слове. O3 тоже ответила лаконично, без лишних слов. GPT-4o добавила каплю лирики, сказав: «Фокус в буквальном понимании, а не во временном».
После всех этих интеллектуальных упражнений с котами, вином и алфавитом напрашивается простой вывод: все три модели хорошо справляются с логическими задачами. Разница — в подаче. GPT-4.1 объясняет чуть подробней, o3 — работает точечно, GPT-4o — старается быть понятной и человечной.
Если вам нужно решить логическую задачу, сгодится любая из этих моделей. И хотя GPT-4.1 — объективно сильнее в логике и коде, скорее всего, вы даже не заметите разницы. А это, пожалуй, самая парадоксальная часть всей истории.