Qwen3-Next-80B-A3B-Instruct

русскоязычная

Qwen3-Next-80B-A3B-Instruct первая модель на базе инновационной архитектуры Qwen3-Next, в рамках которой разработчиками внедрено целый ряд технологических новшеств. В основе модели лежит архитектура с гибридной системой внимания, которая в соотношении 3:1 сочетает два механизма: Gated DeltaNet (75% слоев - линейное внимание) обеспечивает линейную вычислительную сложность и эффективную обработку длинных последовательностей, в то время как Gated Attention (25% слоев - полное внимание) гарантирует высокую точность и способность к информационному поиску. Эта архитектура решает фундаментальную проблему традиционного внимания: линейное внимание быстро, но слабо в задачах поиска, а стандартное внимание дорого и медленно при инференсе. А их гибрид показывает более сильные способности к обучению и пониманию контекста по сравнению с такими методами, как Sliding Window Attention или Mamba2.

Модель также внедряет ультра-разреженную MoE архитектуру с 512 экспертами, из которых активируются только 10 направляемых экспертов плюс 1 общий эксперт — всего лишь 3.7% от общего количества параметров. По сравнению с MoE структурой Qwen3 (128 экспертов, 8 активных). Qwen3-Next внедряет несколько критически важных оптимизаций для обеспечения стабильности обучения и высокой производительности: Zero-Centered RMSNorm вместо традиционной QK-Norm, механизм Attention Output Gating для устранения проблемы Attention Sink и Massive Activation, Multi-Token Prediction (MTP) лучшей связности в контексте, повышения скорости и общей производительности.

Qwen3-Next-80B-A3B-Instruct демонстрирует впечатляющие результаты на ключевых бенчмарках, практически сравнявшись с флагманской моделью Qwen3-235B-A22B-Instruct-2507 при значительно меньших вычислительных затратах. На Arena-Hard v2 модель достигает 82.7 баллов, превосходя многие конкурирующие решения, в программировании модель показывает неплохие результаты на LiveCodeBench v6 с 56.6 баллами, опережая даже некоторые более крупные модели. На математическом бенчмарке AIME25 модель достигает 69.5 баллов, демонстрируя сильные способности к сложным рассуждениям. Благодаря своим уникальным архитектурным особенностям и высокой эффективности, Qwen3-Next-80B-A3B-Instruct идеально подходит для широкого спектра применений: обработка сверхдлинных документов, разработка и программирование, агентские приложения, автоматизации бизнес-процессов, и это далеко не полный список.


Дата анонса: 11.09.2025
Параметров: 82B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Слоев: 48, с полным вниманием: 12
Тип внимания: Hybrid Attention
Тип Mamba: Gated Delta Net
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Next-80B-A3B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3-Next-80B-A3B-Instruct

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.480
262 144
6 150,55 ₽ 4,84 Запустить
teslaa10-4.16.128.160
262 144
4 156,24 ₽ 5,67 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
4 209,04 ₽ 5,67 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 4,52 Запустить
rtx4090-3.16.96.160
262 144
3 252,41 ₽ 2,50 Запустить
rtx5090-2.16.64.160
262 144
2 261,77 ₽ 1,72 Запустить
rtx3090-4.16.128.160
262 144
4 269,04 ₽ 5,67 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 4,52 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 6,61 Запустить
teslaa100-2.24.256.160.nvlink
262 144
2 439,97 ₽ 16,04 Запустить
h200-2.24.256.160.nvlink
262 144
2 839,97 ₽ 34,23 Запустить
h200-4.32.768.480
262 144
4 1 717,59 ₽ 75,46 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-2.24.256.240
262 144
2 440,74 ₽ 9,69 Запустить
teslaa100-2.24.256.320.nvlink
262 144
2 441,52 ₽ 9,69 Запустить
rtx5090-4.16.128.320
262 144
4 514,59 ₽ 4,09 Запустить
rtx4090-6.44.256.240
262 144
6 521,74 ₽ 5,65 Запустить
h100-2.24.256.240
262 144
2 700,74 ₽ 9,69 Запустить
h200-2.24.256.240.nvlink
262 144
2 840,74 ₽ 27,89 Запустить
h100nvl-3.24.384.960
262 144
3 1 110,26 ₽ 27,47 Запустить
h200-4.32.768.480
262 144
4 1 717,59 ₽ 69,11 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-3.32.384.320
262 144
3 658,44 ₽ 7,59 Запустить
h200-2.24.256.320.nvlink
262 144
2 841,52 ₽ 14,27 Запустить
rtx5090-8.44.256.480
262 144
8 1 034,08 ₽ 7,91 Запустить
h100-3.32.384.320
262 144
3 1 048,44 ₽ 7,59 Запустить
h100nvl-3.24.384.960
262 144
3 1 110,26 ₽ 13,86 Запустить
teslaa100-6.44.512.320.nvlink
262 144
6 1 257,57 ₽ 42,14 Запустить
h200-4.32.768.480
262 144
4 1 717,59 ₽ 55,50 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.