Новая ИИ-модель прошла сотни проверок на цензуру.

На Hugging Face появилась новая модификация языковой модели Qwen3.5-9B под названием Qwen3.5-9B-Uncensored-HauhauCS-Aggressive. Автор сборки HauhauCS утверждает, что версия полностью лишена отказов и этических ограничений, при этом сохраняет возможности базовой модели без потерь.
В описании проекта сказано, что модель показала 0 отказов в 465 проверках. HauhauCS отдельно подчеркивает: разработчик не менял наборы данных и не урезал функциональность, а удалил только механизмы отказа. Aggressive Variant автор называет более жесткой версией разблокировки. Если такой вариант окажется слишком свободным для части пользователей, позже может выйти Balanced-вариант с более мягкими настройками.
Карточка модели уточняет важную деталь: даже после полной разблокировки система иногда может добавлять в конец ответа короткую приписку вроде общего дисклеймера. HauhauCS пишет, что такая вставка связана с обучением базовой модели и не мешает генерации полного ответа.
Для загрузки доступны несколько вариантов GGUF. Пользователям предлагают файл BF16 размером 17 GB, Q8_0 на 8.9 GB, Q6_K на 6.9 GB и Q4_K_M на 5.3 GB. Отдельно опубликован файл mmproj размером 880 MB. Карточка проекта поясняет, что Qwen3.5-9B изначально поддерживает мультимодальный режим, а mmproj нужен для работы с изображениями и видео в совместимых средах вроде llama.cpp, LM Studio и других.
Среди характеристик модели указаны 9B dense-параметров, 32 слоя, гибридная архитектура с Gated DeltaNet linear attention и full softmax attention в соотношении 3:1, нативное контекстное окно 262K с возможностью расширения до 1M через YaRN, поддержка multi-token prediction, словарь на 248K токенов и работа с 201 языком. В карточке также говорится, что модель нативно понимает текст, изображения и видео.
HauhauCS приводит рекомендованные настройки от авторов Qwen. Для thinking mode предлагаются temperature 0.6, top_p 0.95 и top_k 20. Для non-thinking mode указаны temperature 0.7, top_p 0.8 и top_k 20. Автор также советует держать контекст не ниже 128K, чтобы сохранить thinking capabilities, а для production и high-throughput-сценариев использовать vLLM, SGLang или KTransformers.
В описании есть и предупреждение о совместимости. Архитектура названа совершенно новой, с датой релиза 2 марта 2026 года, а поддержка в llama.cpp, по словам автора, появилась совсем недавно. Поэтому для запуска нужен свежий билд. В списке совместимых сред названы llama.cpp, LM Studio, Jan и koboldcpp.