Qwen3.6-27B — открытая 27B-модель семейства Qwen3.6, выпущенная как плотная, то есть без MoE-маршрутизации. При этом она остается нативно мультимодальной: работает с текстом, изображениями и видео, поддерживает reasoning в thinking mode и прямые ответы в non-thinking mode. Базовая версия опубликована в BF16, а также есть официальная FP8-квантизованная версия, ее метрики почти идентичны базовой модели.
Главная особенность архитектуры — гибридная схема внимания: 16 × (3 × Gated DeltaNet → FFN + 1 × Gated Attention → FFN), то есть три четверти блоков используют Gated DeltaNet, а каждый четвертый блок — Gated Attention. Gated DeltaNet можно понимать как более экономичный механизм линейного внимания: он не пересчитывает все попарные связи токенов как классическое attention, а обновляет компактное состояние и через gating решает, какую информацию сохранить или пропустить дальше. Gated Attention, наоборот, оставляет более точное обычное attention в части слоев: оно полезно для явного извлечения деталей из контекста, а gating помогает фильтровать и стабилизировать выход. В итоге модель совмещает длинноконтекстную эффективность DeltaNet с точностью классического attention.
Модель обучена с применением Multi-Token Prediction (MTP) и может похвастаться нативным контекстным окном в 262 144 токена, а через RoPE/YaRN scaling он расширяется до 1 010 000 токенов. Разработчики отдельно предупреждают, что при OOM можно уменьшать контекст, но для сложных reasoning-задач желательно сохранять его не меньше 128K токенов, потому что длинный контекст напрямую участвует в качестве рассуждений. Еще одна важная функция — preserve_thinking: модель может сохранять reasoning-контекст прошлых сообщений, что особенно полезно для многошаговых агентов, где важно не начинать анализ с нуля на каждом ходе. Для продакшена разработчики рекомендуют SGLang, vLLM или KTransformers; для генерации в thinking mode — temperature 1.0, top_p 0.95, top_k 20, для точного coding/WebDev — temperature 0.6, top_p 0.95, top_k 20, а для non-thinking режима — temperature 0.7, top_p 0.80 и presence_penalty 1.5.
Главное отличие Qwen3.6-27B от предыдущей Qwen3.5-27B — резкий рост именно в агентном кодинге и repository-level reasoning. На SWE-bench Verified модель набирает 77.2 против 75.0 у Qwen3.5-27B, на SWE-bench Pro — 53.5 против 51.2, на Terminal-Bench 2.0 — 59.3 против 41.6, на SkillsBench Avg5 — 48.2 против 27.2, на QwenWebBench — 1487 против 1068. В сравнении с Qwen3.5-397B-A17B модель выглядит особенно интересно: при 27B плотных параметров она обгоняет 397B-total / 17B-active MoE-предшественника на основных coding-бенчмарках, включая SWE-bench Verified, SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, NL2Repo и Claw-серию. Это и есть ее главная “вау”- особенность: не просто новая модель с большим контекстом, а компактная dense-модель, которая в задачах разработчика догоняет и местами превосходит гораздо более крупные системы.
Сценарии использования логично строятся вокруг сильных сторон модели: агентное программирование, автоматическое исправление багов, работа с большими репозиториями, генерация и доработка фронтенда, выполнение терминальных задач, анализ pull request и CI-ошибок. За счет мультимодальности модель подходит для разбора скриншотов интерфейсов, макетов, диаграмм, OCR-документов, видео и visual QA, а за счет длинного контекста — для анализа больших кодовых баз, технической документации, RAG-сценариев и многошаговых корпоративных ассистентов. Для self-hosting можно выбирать BF16 как основную качественную версию, а FP8 — когда важны память, throughput и стоимость инференса при сохранении близкого качества.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 tensor |
3 | 78,57 ₽ | 1,12 | Запустить | ||
262 144 tensor |
2 | 83,37 ₽ | 1,27 | Запустить | ||
262 144 tensor |
3 | 94,64 ₽ | 1,12 | Запустить | ||
262 144 tensor |
2 | 109,77 ₽ | 1,27 | Запустить | ||
262 144 tensor |
2 | 139,77 ₽ | 1,27 | Запустить | ||
262 144 tensor |
2 | 171,77 ₽ | 1,27 | Запустить | ||
262 144 |
1 | 211,77 ₽ | 3,21 | Запустить | ||
262 144 tensor |
2 | 261,77 ₽ | 2,16 | Запустить | ||
262 144 |
1 | 341,77 ₽ | 3,21 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 3,99 | Запустить | ||
262 144 tensor |
2 | 411,81 ₽ | 7,52 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 6,61 | Запустить | ||
262 144 tensor |
2 | 839,97 ₽ | 14,32 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 tensor |
4 | 85,77 ₽ | 1,17 | Запустить | ||
262 144 tensor |
4 | 112,24 ₽ | 1,17 | Запустить | ||
262 144 tensor |
3 | 119,81 ₽ | 1,77 | Запустить | ||
262 144 tensor |
3 | 204,41 ₽ | 1,77 | Запустить | ||
262 144 tensor |
4 | 209,04 ₽ | 2,95 | Запустить | ||
262 144 |
1 | 211,77 ₽ | 2,52 | Запустить | ||
262 144 tensor |
3 | 252,41 ₽ | 1,77 | Запустить | ||
262 144 tensor |
2 | 261,77 ₽ | 1,48 | Запустить | ||
262 144 |
1 | 341,77 ₽ | 2,52 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 3,31 | Запустить | ||
262 144 tensor |
2 | 411,81 ₽ | 6,83 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 5,93 | Запустить | ||
262 144 tensor |
2 | 839,97 ₽ | 13,63 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 tensor |
6 | 147,44 ₽ | 1,22 | Запустить | ||
262 144 tensor |
4 | 156,24 ₽ | 1,53 | Запустить | ||
262 144 tensor |
4 | 209,04 ₽ | 1,53 | Запустить | ||
262 144 |
1 | 223,04 ₽ | 1,10 | Запустить | ||
262 144 tensor |
4 | 264,96 ₽ | 1,53 | Запустить | ||
262 144 tensor |
4 | 328,96 ₽ | 1,53 | Запустить | ||
262 144 |
1 | 353,04 ₽ | 1,10 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 1,88 | Запустить | ||
262 144 tensor |
3 | 387,41 ₽ | 1,68 | Запустить | ||
262 144 tensor |
2 | 411,81 ₽ | 5,41 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 4,50 | Запустить | ||
262 144 tensor |
2 | 839,97 ₽ | 12,21 | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.