Qwen3-Next-80B-A3B-Thinking

размышляющая
русскоязычная

Qwen3‑Next‑80B‑A3B‑Thinking — представитель нового семейства Qwen3‑Next, в котором стандартное внимание заменено на гибрид из Gated DeltaNet (линейное внимание) и Gated Attention (полное внимание) для эффективного моделирования сверхдлинных контекстов. Так же в модели реализована сверхразреженная архитектура Mixture-of-Experts (MoE), которая из 512 экспертов активирует только 10 плюс 1 общий эксперт на каждый токен. Это обеспечивает коэффициент активации параметров всего в 3,7%, что значительно ниже традиционных MoE-моделей. Технические оптимизации для стабильности обучения включают zero-centered и weight-decayed layernorm, решающие проблемы аномального роста весов в нормализации слоев. Модель также использует Multi-Token Prediction (MTP) для ускорения инференса и улучшения производительности предобучения. Контекстная длина составляет 262,144 токена нативно и может быть расширена до 1,010,000 токенов с использованием техники YaRN.

Qwen3-Next-80B-A3B-Thinking демонстрирует выдающиеся результаты на ключевых бенчмарках, превосходя Gemini-2.5-Flash-Thinking и модели qwen предыдущего поколения. На математическом бенчмарке AIME25, проверяющем способности решения сложных математических задач уровня олимпиад, модель достигает 87.8% против 72.0% у Gemini. В HMMT25, тестирующем математическое мышление высокого уровня, результат составляет 73.9% против 64.2%. На бенчмарке LiveCodeBench v6, оценивающем программирование в реальных условиях, модель показывает 68.7% против 61.2% у конкурента, а в комплексном бенчмарке Arena-Hard v2 модель достигается 62.3% против 56.7%.

Специализация на сложном рассуждении делает Thinking-версию идеальной для задач, требующих глубокого анализа. Модель является отличным выбором для задач с пошаговым выводом и детализированных рассуждений, добавим сюда работу с длинными документами и аналитику с кросс‑ссылками, агентские пайплайны и конечно же математические задачи. Разработчики рекомендуют использовать длину вывода до 32,768 токенов для большинства запросов и до 81,920 токенов для особо сложных задач.


Дата анонса: 11.09.2025
Параметров: 82B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Слоев: 48, с полным вниманием: 12
Тип внимания: Linear Attention
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Next-80B-A3B-Thinking. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3-Next-80B-A3B-Thinking

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-3.16.96.160
262 144
3 119,81 ₽ 2,35 Запустить
teslaa2-6.32.128.160
262 144
6 147,44 ₽ 4,68 Запустить
teslav100-2.16.64.240
262 144
2 198,54 ₽ 1,57 Запустить
rtx3090-3.16.96.160
262 144
3 204,41 ₽ 2,35 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
4 209,04 ₽ 5,51 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 4,37 Запустить
rtx4090-3.16.96.160
262 144
3 252,41 ₽ 2,35 Запустить
rtx5090-2.16.64.160
262 144
2 261,77 ₽ 1,57 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 4,37 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 6,46 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 13,46 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
6 312,70 ₽ 5,44 Запустить
teslav100-4.32.96.160
262 144
4 388,21 ₽ 3,88 Запустить
teslaa100-2.24.96.160.nvlink
262 144
2 411,81 ₽ 9,48 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 7,06 Запустить
rtx5090-4.16.128.160
262 144
4 513,04 ₽ 3,88 Запустить
rtx4090-6.44.256.160
262 144
6 520,97 ₽ 5,44 Запустить
h100-2.24.256.160
262 144
2 699,97 ₽ 9,48 Запустить
h100nvl-2.24.192.240
262 144
2 729,47 ₽ 13,65 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-3.32.384.240
262 144
3 657,66 ₽ 7,59 Запустить
h200-2.24.256.240
262 144
2 840,74 ₽ 14,27 Запустить
rtx5090-8.44.256.240
262 144
8 1 031,74 ₽ 7,91 Запустить
h100-3.32.384.240
262 144
3 1 047,66 ₽ 7,59 Запустить
h100nvl-3.24.384.480
262 144
3 1 105,60 ₽ 13,85 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.