Qwen3-Coder-Next

русскоязычная
для кодинга

Qwen3-Coder-Next — это языковая модель с открытыми весами (open-weights), разработанная специально для создания автономных агентов-разработчиков (coding agents) и эффективного развертывания. Главной особенностью модели является её уникальная архитектура, сочетающая гибридное внимание (Hybrid Attention) и технологию смеси экспертов (Mixture-of-Experts, MoE).

Qwen3-Coder-Next отходит от классического трансформера, используя чередование слоев линейного и полного внимания. Базовый блок повторяется 12 раз и имеет структуру: 3 слоя Gated DeltaNet → 1 слой Gated Attention. Каждый из этих слоев сопровождается блоком MoE. Gated DeltaNet (Линейное внимание) - отвечает за эффективность и обработку больших контекстов (для этой модели контекст составляет 262 144 токенов). Это технология - эволюция линейного внимания, которая превосходит Mamba2 в задачах in-context learning. Здесь параметры настроены на скорость: используется 32 головы для Value (V) и 16 голов для Query/Key (QK) с размерностью головы 128. Gated Attention (Полное внимание) — это классическое, "тяжелое" внимание, необходимое для точных рассуждений и работы со сложными зависимостями, где нельзя упустить детали. Здесь конфигурация иная: 16 голов для Query (Q) и всего 2 головы для Key/Value (KV) (групповое внимание для экономии памяти), но с увеличенной размерностью головы до 256. Поверх слоев внимания работает система экспертов Mixture-of-Experts (MoE). Всего модель содержит 512 экспертов, из которых на каждый токен активируется только 10 (плюс 1 общий эксперт, работающий всегда). Именно это позволяет держать активными всего 3 млрд параметров из 80.

Для обучения модели применялся многоэтапный подход, включающий предобучение на большом объёме естественных и синтетических данных, мид-тренинг для специализации на коде и агентских задачах, а также пост-тренинг с контролируемой тонкой настройкой (SFT), обучением с подкреплением (RL) и дистилляцией экспертов. Особенностью методологии является агентное обучение, где модель обучается на задачах с исполняемыми окружениями, что позволило ей учиться напрямую на обратной связи от среды выполнения. Это значительно улучшает способность модели к многошаговому рассуждению, использованию инструментов и исправлению ошибок в реалистичных условиях разработки.

На ключевых бенчмарках для программных агентов модель демонстрирует конкурентоспособные результаты. На SWE-Bench Verified Qwen3-Coder-Next показывает результаты на уровне 70.6%, конкурируя с моделями, имеющими на порядок больше активных параметров. На более сложном SWE-Bench Pro модель достигает 44.3%, демонстрируя способность решать комплексные задачи, требующие поэтапного планирования. В тестах на следование различным шаблонам вызовов инструментов (Tool Calling) в различных IDE/CLI-средах модель показывает отличное качество (92.7% в среднем), превосходя многие топовые открытые и проприетарные модели, что подтверждает её готовность к работе в разнообразных средах разработки.

Сценарии использования модели ориентированы в основном на программирование. Низкие требования к инференсу делают модель идеальной для развертывания на локальных или облачных машинах разработчиков в качестве интеллектуального ассистента, интегрированного в IDE или CLI. Модель способна анализировать контекст всего репозитория, локализовать проблемы и предлагать корректные патчи, что полезно для автоматизации code review и сопровождения проектов.


Дата анонса: 30.01.2026
Параметров: 80B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Слоев: 48, с полным вниманием: 12
Тип внимания: Hybrid Attention
Тип Mamba: Gated Delta Net
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Версия vLLM: 0.15.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Coder-Next. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Tooling Статус Ссылка
bullpoint/Qwen3-Coder-Next-AWQ-4bit 262 144 Публичный 4×RTX4090
tensor
113.57 да доступен чат

API доступ к Qwen3-Coder-Next эндпоинтам

curl https://chat.immers.cloud/v1/endpoints/qwen3-coder-next-tensor/generate/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer USER_API_KEY" \
-d '{"model": "Qwen3-Coder-Next", "messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"}
], "temperature": 0, "max_tokens": 150}'
$response = Invoke-WebRequest https://chat.immers.cloud/v1/endpoints/qwen3-coder-next-tensor/generate/chat/completions `
-Method POST `
-Headers @{
"Authorization" = "Bearer USER_API_KEY"
"Content-Type" = "application/json"
} `
-Body (@{
model = "Qwen3-Coder-Next"
messages = @(
@{ role = "system"; content = "You are a helpful assistant." },
@{ role = "user"; content = "Say this is a test" }
)
} | ConvertTo-Json)
($response.Content | ConvertFrom-Json).choices[0].message.content
#!pip install OpenAI --upgrade

from openai import OpenAI

client = OpenAI(
api_key="USER_API_KEY",
base_url="https://chat.immers.cloud/v1/endpoints/qwen3-coder-next-tensor/generate/",
)

chat_response = client.chat.completions.create(
model="Qwen3-Coder-Next",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"},
]
)
print(chat_response.choices[0].message.content)

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3-Coder-Next

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-3.16.96.160
262 144
pipeline
3 119,81 ₽ 37,61 2,05 Запустить
teslaa10-4.16.64.160
262 144
tensor
4 144,97 ₽ 5,21 Запустить
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 4,39 Запустить
teslav100-2.16.64.240
262 144
tensor
2 198,54 ₽ 1,27 Запустить
rtx3090-3.16.96.160
262 144
pipeline
3 204,41 ₽ 41,66 2,05 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 5,21 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 77,86 4,07 Запустить
rtx4090-3.16.96.160
262 144
pipeline
3 252,41 ₽ 57,95 2,05 Запустить
rtx3090-4.16.64.160
262 144
tensor
4 257,77 ₽ 5,21 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 1,27 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 5,21 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 89,51 4,07 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 6,16 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 13,17 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
pipeline
6 312,70 ₽ 6,58 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,20 Запустить
teslav100-4.32.96.160
262 144
tensor
4 388,21 ₽ 5,03 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 84,07 10,63 Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
8 411,97 ₽ 12,91 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 8,21 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 5,03 Запустить
rtx4090-6.44.256.160
262 144
pipeline
6 520,97 ₽ 6,58 Запустить
rtx4090-8.44.256.160
262 144
tensor
8 670,97 ₽ 12,91 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 50,67 10,63 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-3.32.384.240
262 144
pipeline
3 657,66 ₽ 50,37 9,96 Запустить
h100nvl-2.24.192.240
262 144
tensor
2 729,47 ₽ 2,62 Запустить
rtx5090-6.44.256.240
262 144
pipeline
6 791,74 ₽ 1,56 Запустить
teslaa100-4.16.256.240
262 144
tensor
4 816,34 ₽ 21,47 Запустить
h200-2.24.256.240
262 144
tensor
2 840,74 ₽ 16,63 Запустить
rtx5090-8.44.256.240
262 144
tensor
8 1 031,74 ₽ 10,27 Запустить
h100-3.32.384.240
262 144
pipeline
3 1 047,66 ₽ 54,59 9,96 Запустить
h100-4.16.256.240
262 144
tensor
4 1 336,34 ₽ 21,47 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.