Qwen3.6-35B-A3B

размышляющая
мультимодальная
русскоязычная
для кодинга

Qwen3.6-35B-A3B — первая open-weight модель линейки Qwen3.6 и один из самых практичных релизов Qwen для разработчиков: она выпущена под Apache 2.0, работает как causal language model с vision encoder и ориентирована не только на чат, но и на реальные агентные сценарии. Главное инженерное решение здесь — sparse Mixture-of-Experts: всего у модели 35B параметров, но при инференсе на токен активируется примерно 3B. Это дает хороший баланс между качеством большой модели и стоимостью обслуживания малой активной части, особенно в coding-агентах, где запросы часто длинные, многошаговые и требуют вызова инструментов.

Архитектура модели построена как 40-слойный гибрид с hidden dimension 2048, словарем 248 320 токенов и схемой 10 × (3 × Gated DeltaNet → MoE + 1 × Gated Attention → MoE). В каждом MoE-блоке доступно 256 экспертов, но на токен выбираются 8. Gated DeltaNet в этой архитектуре отвечает за основную массу слоев: это более экономичный механизм линейного внимания, который вместо полного сравнения каждого токена с каждым поддерживает обновляемое состояние памяти. Gating помогает модели решать, какую информацию сохранить, ослабить или пропустить дальше, поэтому длинный контекст становится дешевле по памяти и вычислениям. Gated Attention, наоборот, оставляет точное attention-поведение в каждом четвертом блоке. Смысл гибрида в том, что DeltaNet дает эффективность на длинных последовательностях, а Gated Attention периодически возвращает модели точную глобальную связность между токенами. Дополнительно модель обучалась с multi-token prediction, а нативный контекст составляет 262 144 токена и может быть расширен через YaRN/RoPE scaling до 1 010 000 токенов.

Из бенчмарков стоит выделить несколько наиболее показательных. Terminal-Bench 2.0 проверяет способность агента работать в терминальной среде, и здесь Qwen3.6-35B-A3B занимает первое место среди открытых моделей сопоставимого размера с результатом 51.5, обгоняя Qwen3.5-27B, Qwen3.5-35B-A3B и Gemma4-31B. QwenWebBench оценивает фронтенд-генерацию в категориях Web Design, Web Apps, Games, SVG, Data Visualization, Animation и 3D; модель снова первая с 1397 Elo. На SkillsBench Avg5, где проверяются практические coding-задачи через OpenCode, она также первая с 28.7, а на MCPMark, связанном с GitHub MCP и tool-use задачами, показывает 37.0 и обходит все сравниваемые модели. В мультимодальной части модель также показывает достойные результаты. На RealWorldQA она набирает 85.3 и занимает первое место среди сопоставимых отрытых моделей, на MMBench EN-DEV-v1.1 — 92.8, на OmniDocBench1.5— 89.9, на CC-OCR — 81.9, на VideoMMMU — 83.7, на MLVU — 86.2. Эти метрики хорошо ложатся на сценарии, где модель должна читать интерфейсы, документы, схемы, скриншоты, видеофрагменты и связывать визуальную информацию с кодом или инструкциями.

Для инференса разработчики рекомендуют SGLang, vLLM или KTransformers для production/high-throughput сценариев, а также советуют сохранять контекст не ниже 128K токенов, если задача требует сложного reasoning. По sampling-параметрам: для thinking mode в общих задачах указаны temperature 1.0, top_p 0.95, top_k 20; для точного кодинга и WebDev — temperature 0.6, top_p 0.95, top_k 20; для non-thinking режима — temperature 0.7, top_p 0.80, top_k 20.

Сценарии использования: Qwen3.6-35B-A3B лучше всего раскрывается как основа для coding-агентов, которые чинят баги, редактируют многофайловые проекты, работают с терминалом, читают большие репозитории, генерируют фронтенд и используют внешние инструменты через Qwen-Agent, Qwen Code, MCP или совместимые API. Благодаря мультимодальности модель также подходит для анализа скриншотов, UI-макетов, документов, OCR, видео и визуальных QA-задач. За счет preserve_thinking ее удобно применять в длинных агентных сессиях: модель может сохранять reasoning-контекст прошлых шагов, меньше повторять уже проделанный анализ и стабильнее вести поэтапную работу.


Дата анонса: 15.04.2026
Параметров: 36B
Экспертов: 256
Активно параметров при инференсе: 3B
Контекст: 263K
Слоев: 40, с полным вниманием: 10
Тип внимания: Hybrid Attention
Тип Mamba: Gated Delta Net
Разработчик: Qwen
Версия Transformers: 4.57.1
Версия vLLM: 0.17.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3.6-35B-A3B. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3.6-35B-A3B

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-3.32.64.160
262 144
pipeline
3 78,57 ₽ 3,10 Запустить
teslaa10-2.16.64.160
262 144
tensor
2 83,37 ₽ 3,59 Запустить
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 5,45 Запустить
teslaa2-3.32.128.160
262 144
pipeline
3 94,64 ₽ 3,10 Запустить
rtx2080ti-4.16.32.160
262 144
tensor
4 99,74 ₽ 1,89 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 3,59 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 5,45 Запустить
rtx3090-2.16.64.160
262 144
tensor
2 139,77 ₽ 3,59 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 1,24 Запустить
rtx3080-4.16.64.160
262 144
tensor
4 162,57 ₽ 1,18 Запустить
rtx4090-2.16.64.160
262 144
tensor
2 171,77 ₽ 3,59 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 9,78 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 9,78 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 12,27 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 23,52 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 20,63 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 45,23 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 2,51 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 2,51 Запустить
teslaa10-3.16.96.160
262 144
pipeline
3 119,81 ₽ 4,43 Запустить
teslaa10-4.12.48.160
262 144
tensor
4 139,96 ₽ 8,21 Запустить
rtx3090-3.16.96.160
262 144
pipeline
3 204,41 ₽ 4,43 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 8,21 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 6,84 Запустить
rtx4090-3.16.96.160
262 144
pipeline
3 252,41 ₽ 4,43 Запустить
rtx3090-4.16.64.160
262 144
tensor
4 257,77 ₽ 8,21 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 3,50 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 8,21 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 6,84 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 9,33 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 20,58 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 17,69 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 42,29 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.128.240
262 144
tensor
4 157,01 ₽ 1,87 Запустить
rtx3090-4.16.96.320
262 144
tensor
4 264,96 ₽ 1,87 Запустить
rtx4090-4.16.96.320
262 144
tensor
4 328,96 ₽ 1,87 Запустить
h100nvl-1.16.96.240
262 144
1 368,18 ₽ 2,99 Запустить
rtx5090-3.16.96.240
262 144
pipeline
3 388,18 ₽ 2,36 Запустить
h200-1.16.128.240
262 144
1 423,81 ₽ 11,35 Запустить
teslaa100-2.24.256.240
262 144
tensor
2 440,74 ₽ 14,24 Запустить
teslaa100-2.24.256.320.nvlink
262 144
tensor
2 441,52 ₽ 14,24 Запустить
rtx5090-4.16.128.320
262 144
tensor
4 514,59 ₽ 7,56 Запустить
h100-2.24.256.240
262 144
tensor
2 700,74 ₽ 14,24 Запустить
h200-2.24.256.240.nvlink
262 144
tensor
2 840,74 ₽ 35,95 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.