Qwen3-Coder-Next — это языковая модель с открытыми весами (open-weights), разработанная специально для создания автономных агентов-разработчиков (coding agents) и эффективного развертывания. Главной особенностью модели является её уникальная архитектура, сочетающая гибридное внимание (Hybrid Attention) и технологию смеси экспертов (Mixture-of-Experts, MoE).
Qwen3-Coder-Next отходит от классического трансформера, используя чередование слоев линейного и полного внимания. Базовый блок повторяется 12 раз и имеет структуру: 3 слоя Gated DeltaNet → 1 слой Gated Attention. Каждый из этих слоев сопровождается блоком MoE. Gated DeltaNet (Линейное внимание) - отвечает за эффективность и обработку больших контекстов (для этой модели контекст составляет 262 144 токенов). Это технология - эволюция линейного внимания, которая превосходит Mamba2 в задачах in-context learning. Здесь параметры настроены на скорость: используется 32 головы для Value (V) и 16 голов для Query/Key (QK) с размерностью головы 128. Gated Attention (Полное внимание) — это классическое, "тяжелое" внимание, необходимое для точных рассуждений и работы со сложными зависимостями, где нельзя упустить детали. Здесь конфигурация иная: 16 голов для Query (Q) и всего 2 головы для Key/Value (KV) (групповое внимание для экономии памяти), но с увеличенной размерностью головы до 256. Поверх слоев внимания работает система экспертов Mixture-of-Experts (MoE). Всего модель содержит 512 экспертов, из которых на каждый токен активируется только 10 (плюс 1 общий эксперт, работающий всегда). Именно это позволяет держать активными всего 3 млрд параметров из 80.
Для обучения модели применялся многоэтапный подход, включающий предобучение на большом объёме естественных и синтетических данных, мид-тренинг для специализации на коде и агентских задачах, а также пост-тренинг с контролируемой тонкой настройкой (SFT), обучением с подкреплением (RL) и дистилляцией экспертов. Особенностью методологии является агентное обучение, где модель обучается на задачах с исполняемыми окружениями, что позволило ей учиться напрямую на обратной связи от среды выполнения. Это значительно улучшает способность модели к многошаговому рассуждению, использованию инструментов и исправлению ошибок в реалистичных условиях разработки.
На ключевых бенчмарках для программных агентов модель демонстрирует конкурентоспособные результаты. На SWE-Bench Verified Qwen3-Coder-Next показывает результаты на уровне 70.6%, конкурируя с моделями, имеющими на порядок больше активных параметров. На более сложном SWE-Bench Pro модель достигает 44.3%, демонстрируя способность решать комплексные задачи, требующие поэтапного планирования. В тестах на следование различным шаблонам вызовов инструментов (Tool Calling) в различных IDE/CLI-средах модель показывает отличное качество (92.7% в среднем), превосходя многие топовые открытые и проприетарные модели, что подтверждает её готовность к работе в разнообразных средах разработки.
Сценарии использования модели ориентированы в основном на программирование. Низкие требования к инференсу делают модель идеальной для развертывания на локальных или облачных машинах разработчиков в качестве интеллектуального ассистента, интегрированного в IDE или CLI. Модель способна анализировать контекст всего репозитория, локализовать проблемы и предлагать корректные патчи, что полезно для автоматизации code review и сопровождения проектов.
| Наименование модели | Контекст | Тип | GPU | TPS | Статус | Ссылка |
|---|---|---|---|---|---|---|
| bullpoint/Qwen3-Coder-Next-AWQ-4bit | 262 144 | Публичный | 3×RTX4090 | доступен | чат |
curl https://chat.immers.cloud/v1/endpoints/qwen3-coder-test/generate/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer USER_API_KEY" \
-d '{"model": "Qwen3-Coder-Next", "messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"}
], "temperature": 0, "max_tokens": 150}'
$response = Invoke-WebRequest https://chat.immers.cloud/v1/endpoints/qwen3-coder-test/generate/chat/completions `
-Method POST `
-Headers @{
"Authorization" = "Bearer USER_API_KEY"
"Content-Type" = "application/json"
} `
-Body (@{
model = "Qwen3-Coder-Next"
messages = @(
@{ role = "system"; content = "You are a helpful assistant." },
@{ role = "user"; content = "Say this is a test" }
)
} | ConvertTo-Json)
($response.Content | ConvertFrom-Json).choices[0].message.content
#!pip install OpenAI --upgrade
from openai import OpenAI
client = OpenAI(
api_key="USER_API_KEY",
base_url="https://chat.immers.cloud/v1/endpoints/qwen3-coder-test/generate/",
)
chat_response = client.chat.completions.create(
model="Qwen3-Coder-Next",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"},
]
)
print(chat_response.choices[0].message.content)
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | TPS | |||
|---|---|---|---|---|---|---|---|---|
262 144 pipeline |
16 | 98304 | 160 | 3 | 119,81 ₽ | Запустить | ||
262 144 tensor |
16 | 65536 | 160 | 4 | 144,97 ₽ | Запустить | ||
262 144 pipeline |
32 | 131072 | 160 | 6 | 147,44 ₽ | Запустить | ||
262 144 tensor |
16 | 65535 | 240 | 2 | 198,54 ₽ | Запустить | ||
262 144 pipeline |
16 | 98304 | 160 | 3 | 204,41 ₽ | Запустить | ||
262 144 tensor |
16 | 131072 | 160 | 4 | 209,04 ₽ | Запустить | ||
262 144 |
16 | 65536 | 160 | 1 | 211,77 ₽ | Запустить | ||
262 144 pipeline |
16 | 98304 | 160 | 3 | 252,41 ₽ | Запустить | ||
262 144 tensor |
16 | 65536 | 160 | 4 | 257,77 ₽ | Запустить | ||
262 144 tensor |
16 | 65536 | 160 | 2 | 261,77 ₽ | Запустить | ||
262 144 tensor |
16 | 65536 | 160 | 4 | 321,77 ₽ | Запустить | ||
262 144 |
16 | 65536 | 160 | 1 | 341,77 ₽ | Запустить | ||
262 144 |
16 | 98304 | 160 | 1 | 367,41 ₽ | Запустить | ||
262 144 |
16 | 131072 | 160 | 1 | 423,04 ₽ | Запустить | ||
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | TPS | |||
|---|---|---|---|---|---|---|---|---|
262 144 pipeline |
24 | 196608 | 160 | 6 | 312,70 ₽ | Запустить | ||
262 144 |
16 | 98304 | 160 | 1 | 367,41 ₽ | Запустить | ||
262 144 tensor |
32 | 98304 | 160 | 4 | 388,21 ₽ | Запустить | ||
262 144 tensor |
24 | 98304 | 160 | 2 | 411,81 ₽ | Запустить | ||
262 144 tensor |
24 | 262144 | 160 | 8 | 411,97 ₽ | Запустить | ||
262 144 |
16 | 131072 | 160 | 1 | 423,04 ₽ | Запустить | ||
262 144 tensor |
16 | 131072 | 160 | 4 | 513,04 ₽ | Запустить | ||
262 144 pipeline |
44 | 262144 | 160 | 6 | 520,97 ₽ | Запустить | ||
262 144 tensor |
44 | 262144 | 160 | 8 | 670,97 ₽ | Запустить | ||
262 144 tensor |
24 | 262144 | 160 | 2 | 699,97 ₽ | Запустить | ||
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | TPS | |||
|---|---|---|---|---|---|---|---|---|
262 144 pipeline |
32 | 393216 | 240 | 3 | 657,66 ₽ | Запустить | ||
262 144 tensor |
24 | 196608 | 240 | 2 | 729,47 ₽ | Запустить | ||
262 144 pipeline |
44 | 262144 | 240 | 6 | 791,74 ₽ | Запустить | ||
262 144 tensor |
16 | 262144 | 240 | 4 | 816,34 ₽ | Запустить | ||
262 144 tensor |
24 | 262144 | 240 | 2 | 840,74 ₽ | Запустить | ||
262 144 tensor |
44 | 262144 | 240 | 8 | 1 031,74 ₽ | Запустить | ||
262 144 pipeline |
32 | 393216 | 240 | 3 | 1 047,66 ₽ | Запустить | ||
262 144 tensor |
16 | 262144 | 240 | 4 | 1 336,34 ₽ | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.