Qwen3-Coder-Next

русскоязычная

Qwen3-Coder-Next — это языковая модель с открытыми весами (open-weights), разработанная специально для создания автономных агентов-разработчиков (coding agents) и эффективного развертывания. Главной особенностью модели является её уникальная архитектура, сочетающая гибридное внимание (Hybrid Attention) и технологию смеси экспертов (Mixture-of-Experts, MoE).

Qwen3-Coder-Next отходит от классического трансформера, используя чередование слоев линейного и полного внимания. Базовый блок повторяется 12 раз и имеет структуру: 3 слоя Gated DeltaNet → 1 слой Gated Attention. Каждый из этих слоев сопровождается блоком MoE. Gated DeltaNet (Линейное внимание) - отвечает за эффективность и обработку больших контекстов (для этой модели контекст составляет 262 144 токенов). Это технология - эволюция линейного внимания, которая превосходит Mamba2 в задачах in-context learning. Здесь параметры настроены на скорость: используется 32 головы для Value (V) и 16 голов для Query/Key (QK) с размерностью головы 128. Gated Attention (Полное внимание) — это классическое, "тяжелое" внимание, необходимое для точных рассуждений и работы со сложными зависимостями, где нельзя упустить детали. Здесь конфигурация иная: 16 голов для Query (Q) и всего 2 головы для Key/Value (KV) (групповое внимание для экономии памяти), но с увеличенной размерностью головы до 256. Поверх слоев внимания работает система экспертов Mixture-of-Experts (MoE). Всего модель содержит 512 экспертов, из которых на каждый токен активируется только 10 (плюс 1 общий эксперт, работающий всегда). Именно это позволяет держать активными всего 3 млрд параметров из 80.

Для обучения модели применялся многоэтапный подход, включающий предобучение на большом объёме естественных и синтетических данных, мид-тренинг для специализации на коде и агентских задачах, а также пост-тренинг с контролируемой тонкой настройкой (SFT), обучением с подкреплением (RL) и дистилляцией экспертов. Особенностью методологии является агентное обучение, где модель обучается на задачах с исполняемыми окружениями, что позволило ей учиться напрямую на обратной связи от среды выполнения. Это значительно улучшает способность модели к многошаговому рассуждению, использованию инструментов и исправлению ошибок в реалистичных условиях разработки.

На ключевых бенчмарках для программных агентов модель демонстрирует конкурентоспособные результаты. На SWE-Bench Verified Qwen3-Coder-Next показывает результаты на уровне 70.6%, конкурируя с моделями, имеющими на порядок больше активных параметров. На более сложном SWE-Bench Pro модель достигает 44.3%, демонстрируя способность решать комплексные задачи, требующие поэтапного планирования. В тестах на следование различным шаблонам вызовов инструментов (Tool Calling) в различных IDE/CLI-средах модель показывает отличное качество (92.7% в среднем), превосходя многие топовые открытые и проприетарные модели, что подтверждает её готовность к работе в разнообразных средах разработки.

Сценарии использования модели ориентированы в основном на программирование. Низкие требования к инференсу делают модель идеальной для развертывания на локальных или облачных машинах разработчиков в качестве интеллектуального ассистента, интегрированного в IDE или CLI. Модель способна анализировать контекст всего репозитория, локализовать проблемы и предлагать корректные патчи, что полезно для автоматизации code review и сопровождения проектов.


Дата анонса: 30.01.2026
Параметров: 79.674391296B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Слоев: 48, с полным вниманием: 12
Тип внимания: Linear Attention
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Coder-Next. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
bullpoint/Qwen3-Coder-Next-AWQ-4bit 262 144 Публичный 3×RTX4090 доступен чат

API доступ к Qwen3-Coder-Next эндпоинтам

curl https://chat.immers.cloud/v1/endpoints/qwen3-coder-test/generate/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer USER_API_KEY" \
-d '{"model": "Qwen3-Coder-Next", "messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"}
], "temperature": 0, "max_tokens": 150}'
$response = Invoke-WebRequest https://chat.immers.cloud/v1/endpoints/qwen3-coder-test/generate/chat/completions `
-Method POST `
-Headers @{
"Authorization" = "Bearer USER_API_KEY"
"Content-Type" = "application/json"
} `
-Body (@{
model = "Qwen3-Coder-Next"
messages = @(
@{ role = "system"; content = "You are a helpful assistant." },
@{ role = "user"; content = "Say this is a test" }
)
} | ConvertTo-Json)
($response.Content | ConvertFrom-Json).choices[0].message.content
#!pip install OpenAI --upgrade

from openai import OpenAI

client = OpenAI(
api_key="USER_API_KEY",
base_url="https://chat.immers.cloud/v1/endpoints/qwen3-coder-test/generate/",
)

chat_response = client.chat.completions.create(
model="Qwen3-Coder-Next",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"},
]
)
print(chat_response.choices[0].message.content)

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen3-Coder-Next

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час TPS
teslaa10-3.16.96.160
262 144
pipeline
16 98304 160 3 119,81 ₽ Запустить
teslaa10-4.16.64.160
262 144
tensor
16 65536 160 4 144,97 ₽ Запустить
teslaa2-6.32.128.160
262 144
pipeline
32 131072 160 6 147,44 ₽ Запустить
teslav100-2.16.64.240
262 144
tensor
16 65535 240 2 198,54 ₽ Запустить
rtx3090-3.16.96.160
262 144
pipeline
16 98304 160 3 204,41 ₽ Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
16 131072 160 4 209,04 ₽ Запустить
teslaa100-1.16.64.160
262 144
16 65536 160 1 211,77 ₽ Запустить
rtx4090-3.16.96.160
262 144
pipeline
16 98304 160 3 252,41 ₽ Запустить
rtx3090-4.16.64.160
262 144
tensor
16 65536 160 4 257,77 ₽ Запустить
rtx5090-2.16.64.160
262 144
tensor
16 65536 160 2 261,77 ₽ Запустить
rtx4090-4.16.64.160
262 144
tensor
16 65536 160 4 321,77 ₽ Запустить
h100-1.16.64.160
262 144
16 65536 160 1 341,77 ₽ Запустить
h100nvl-1.16.96.160
262 144
16 98304 160 1 367,41 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 423,04 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час TPS
rtxa5000-6.24.192.160.nvlink
262 144
pipeline
24 196608 160 6 312,70 ₽ Запустить
h100nvl-1.16.96.160
262 144
16 98304 160 1 367,41 ₽ Запустить
teslav100-4.32.96.160
262 144
tensor
32 98304 160 4 388,21 ₽ Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
24 98304 160 2 411,81 ₽ Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
24 262144 160 8 411,97 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 423,04 ₽ Запустить
rtx5090-4.16.128.160
262 144
tensor
16 131072 160 4 513,04 ₽ Запустить
rtx4090-6.44.256.160
262 144
pipeline
44 262144 160 6 520,97 ₽ Запустить
rtx4090-8.44.256.160
262 144
tensor
44 262144 160 8 670,97 ₽ Запустить
h100-2.24.256.160
262 144
tensor
24 262144 160 2 699,97 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час TPS
teslaa100-3.32.384.240
262 144
pipeline
32 393216 240 3 657,66 ₽ Запустить
h100nvl-2.24.192.240
262 144
tensor
24 196608 240 2 729,47 ₽ Запустить
rtx5090-6.44.256.240
262 144
pipeline
44 262144 240 6 791,74 ₽ Запустить
teslaa100-4.16.256.240
262 144
tensor
16 262144 240 4 816,34 ₽ Запустить
h200-2.24.256.240
262 144
tensor
24 262144 240 2 840,74 ₽ Запустить
rtx5090-8.44.256.240
262 144
tensor
44 262144 240 8 1 031,74 ₽ Запустить
h100-3.32.384.240
262 144
pipeline
32 393216 240 3 1 047,66 ₽ Запустить
h100-4.16.256.240
262 144
tensor
16 262144 240 4 1 336,34 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.