Many-shot Jailbreaking (MSJ) — это метод обхода ограничений ИИ-моделей, при котором злоумышленник использует не один, а целую серию связанных запросов (промптов). Смысл в том, чтобы постепенно «разогреть» модель, подводя её к нежелательным или запрещённым ответам. Вместо прямого провокационного вопроса хакер ведёт диалог пошагово, и за счёт накопления контекста модель теряет бдительность и выдаёт то, что в обычной ситуации заблокировала бы.
Проще говоря, это как «разговорить» ИИ так, чтобы он сам выдал запрещённую информацию, думая, что это часть нормального диалога.