Qwen3.6-27B

размышляющая
мультимодальная
русскоязычная
для кодинга

Qwen3.6-27B — открытая 27B-модель семейства Qwen3.6, выпущенная как плотная, то есть без MoE-маршрутизации. При этом она остается нативно мультимодальной: работает с текстом, изображениями и видео, поддерживает reasoning в thinking mode и прямые ответы в non-thinking mode. Базовая версия опубликована в BF16, а также есть официальная FP8-квантизованная версия, ее метрики почти идентичны базовой модели.

Главная особенность архитектуры — гибридная схема внимания: 16 × (3 × Gated DeltaNet → FFN + 1 × Gated Attention → FFN), то есть три четверти блоков используют Gated DeltaNet, а каждый четвертый блок — Gated Attention. Gated DeltaNet можно понимать как более экономичный механизм линейного внимания: он не пересчитывает все попарные связи токенов как классическое attention, а обновляет компактное состояние и через gating решает, какую информацию сохранить или пропустить дальше. Gated Attention, наоборот, оставляет более точное обычное attention в части слоев: оно полезно для явного извлечения деталей из контекста, а gating помогает фильтровать и стабилизировать выход. В итоге модель совмещает длинноконтекстную эффективность DeltaNet с точностью классического attention.

Модель обучена с применением Multi-Token Prediction (MTP) и может похвастаться нативным контекстным окном в 262 144 токена, а через RoPE/YaRN scaling он расширяется до 1 010 000 токенов. Разработчики отдельно предупреждают, что при OOM можно уменьшать контекст, но для сложных reasoning-задач желательно сохранять его не меньше 128K токенов, потому что длинный контекст напрямую участвует в качестве рассуждений. Еще одна важная функция — preserve_thinking: модель может сохранять reasoning-контекст прошлых сообщений, что особенно полезно для многошаговых агентов, где важно не начинать анализ с нуля на каждом ходе. Для продакшена разработчики рекомендуют SGLang, vLLM или KTransformers; для генерации в thinking mode — temperature 1.0, top_p 0.95, top_k 20, для точного coding/WebDev — temperature 0.6, top_p 0.95, top_k 20, а для non-thinking режима — temperature 0.7, top_p 0.80 и presence_penalty 1.5.

Главное отличие Qwen3.6-27B от предыдущей Qwen3.5-27B — резкий рост именно в агентном кодинге и repository-level reasoning. На SWE-bench Verified модель набирает 77.2 против 75.0 у Qwen3.5-27B, на SWE-bench Pro — 53.5 против 51.2, на Terminal-Bench 2.0 — 59.3 против 41.6, на SkillsBench Avg5 — 48.2 против 27.2, на QwenWebBench — 1487 против 1068. В сравнении с Qwen3.5-397B-A17B модель выглядит особенно интересно: при 27B плотных параметров она обгоняет 397B-total / 17B-active MoE-предшественника на основных coding-бенчмарках, включая SWE-bench Verified, SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, NL2Repo и Claw-серию. Это и есть ее главная “вау”- особенность: не просто новая модель с большим контекстом, а компактная dense-модель, которая в задачах разработчика догоняет и местами превосходит гораздо более крупные системы.

Сценарии использования логично строятся вокруг сильных сторон модели: агентное программирование, автоматическое исправление багов, работа с большими репозиториями, генерация и доработка фронтенда, выполнение терминальных задач, анализ pull request и CI-ошибок. За счет мультимодальности модель подходит для разбора скриншотов интерфейсов, макетов, диаграмм, OCR-документов, видео и visual QA, а за счет длинного контекста — для анализа больших кодовых баз, технической документации, RAG-сценариев и многошаговых корпоративных ассистентов. Для self-hosting можно выбирать BF16 как основную качественную версию, а FP8 — когда важны память, throughput и стоимость инференса при сохранении близкого качества.


Дата анонса: 21.04.2026
Параметров: 28B
Контекст: 263K
Слоев: 64, с полным вниманием: 16
Тип внимания: Hybrid Attention
Тип Mamba: Gated Delta Net
Разработчик: Qwen
Версия Transformers: 4.57.1
Версия vLLM: 0.17.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3.6-27B. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3.6-27B

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-3.32.64.160
262 144
tensor
3 78,57 ₽ 1,12 Запустить
teslaa10-2.16.64.160
262 144
tensor
2 83,37 ₽ 1,27 Запустить
teslaa2-3.32.128.160
262 144
tensor
3 94,64 ₽ 1,12 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 1,27 Запустить
rtx3090-2.16.64.160
262 144
tensor
2 139,77 ₽ 1,27 Запустить
rtx4090-2.16.64.160
262 144
tensor
2 171,77 ₽ 1,27 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 3,21 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 2,16 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 3,21 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 3,99 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 7,52 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 6,61 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 14,32 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 1,17 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 1,17 Запустить
teslaa10-3.16.96.160
262 144
tensor
3 119,81 ₽ 1,77 Запустить
rtx3090-3.16.96.160
262 144
tensor
3 204,41 ₽ 1,77 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 2,95 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 2,52 Запустить
rtx4090-3.16.96.160
262 144
tensor
3 252,41 ₽ 1,77 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 1,48 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 2,52 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 3,31 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 6,83 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 5,93 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 13,63 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.160
262 144
tensor
6 147,44 ₽ 1,22 Запустить
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 1,53 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,53 Запустить
teslaa100-1.16.128.160
262 144
1 223,04 ₽ 1,10 Запустить
rtx3090-4.16.96.320
262 144
tensor
4 264,96 ₽ 1,53 Запустить
rtx4090-4.16.96.320
262 144
tensor
4 328,96 ₽ 1,53 Запустить
h100-1.16.128.160
262 144
1 353,04 ₽ 1,10 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,88 Запустить
rtx5090-3.16.96.160
262 144
tensor
3 387,41 ₽ 1,68 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 5,41 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 4,50 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 12,21 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.