Как Google обучила ИИ эстетике шахмат.

Исследователи Google DeepMind, совместно с Оксфордским университетом и Монреальским институтом Mila, представили работу «Generative Chess Puzzles», в которой искусственный интеллект впервые продемонстрировал способность самостоятельно сочинять шахматные задачи, не уступающие по изобретательности работам людей.
Модели обучались на 4,4 млн позиций из базы Lichess, представлявших партии, сыгранные пользователями до декабря 2024 года. Каждая позиция кодировалась в нотации FEN, а сеть — автогрегрессивный трансформер с 200 млн параметров — училась предсказывать следующую фигуру по контексту. После базового обучения ИИ «придумывал» новые позиции, начиная с первого символа FEN и пошагово достраивая полное положение фигур.
Чтобы избежать механических комбинаций, в модель внедрили обучение с подкреплением. Вознаграждение давалось за две вещи:
Первоначально RL-модель сталкивалась с проблемой «энтропийного коллапса»: она быстро сходилась к повторяющимся шаблонам. Чтобы исправить это, разработчики добавили фильтры разнообразия по «расстоянию досок» и вариаций ходов. В результате финальная версия генерировала в 10 раз больше контринтуитивных задач, чем обученная только на Lichess — 2,5 % против 0,22 %.
  	 В отчёте показаны конкретные FEN-примеры. Например, одна из лучших позиций имеет вид
   8/3p2k1/1Rb5/2P4P/5K2/2n5/8/8 b - - 0 1,
  	 где единственный ход, ведущий к победе, — неожиданный перевод ладьи на b8, а все «естественные» продолжения ведут к ничьей.
  
Чтобы оценить художественную ценность, команда ввела каталог из более чем 30 «тем» классической шахматной эстетики — от «жертвы ради пата», «двойного шаха» и «Арабского мата» до «хода-переключения» (switchback). Оказалось, что сгенерированные ИИ позиции естественно воспроизводят большинство мотивов из шахматных сборников, хотя некоторые редкие, вроде «мата Анастасии» или «крючкового мата», встречаются реже.
Отдельный этап экспериментов включал эволюционный поиск — случайное добавление и удаление фигур с доски с отбором лучших мутаций. Такие позиции выглядели как произведения сюрреализма: нестандартные, но логичные.
Затем последовало тестирование с участием восьми экспертов Lichess (рейтинг 2000–2400). Им показали 40 позиций из четырёх источников — человеческие сборники, Lichess, RL-модель и финальный буклет. По средним оценкам (табл. 4) лучшие результаты по «творчеству» и «удовольствию от решения» показал именно буклет ИИ (2,48 и 2,56 балла из 3 возможных), опередив даже классические композиции.
Заключительное рецензирование провели международные мастера и гроссмейстеры — Амация Авни, Джонатан Левитт и Мэттью Сэдлер. Они назвали подборку «новым шагом в человеко-машинном соавторстве» и «редким примером настоящего творчества в рамках формальных правил».
Авторы подчёркивают: подход с подкреплением и оценкой контринтуитивности делает генерацию шахматных задач масштабируемой и саморазвивающейся — в отличие от ручного отбора Lichess, зависящего от человеческих партий и ограниченных вычислительных ресурсов.