Qwen3-Next-80B-A3B-Instruct

русскоязычная

Qwen3-Next-80B-A3B-Instruct первая модель на базе инновационной архитектуры Qwen3-Next, в рамках которой разработчиками внедрено целый ряд технологических новшеств. В основе модели лежит архитектура с гибридной системой внимания, которая в соотношении 3:1 сочетает два механизма: Gated DeltaNet (75% слоев - линейное внимание) обеспечивает линейную вычислительную сложность и эффективную обработку длинных последовательностей, в то время как Gated Attention (25% слоев - полное внимание) гарантирует высокую точность и способность к информационному поиску. Эта архитектура решает фундаментальную проблему традиционного внимания: линейное внимание быстро, но слабо в задачах поиска, а стандартное внимание дорого и медленно при инференсе. А их гибрид показывает более сильные способности к обучению и пониманию контекста по сравнению с такими методами, как Sliding Window Attention или Mamba2.

Модель также внедряет ультра-разреженную MoE архитектуру с 512 экспертами, из которых активируются только 10 направляемых экспертов плюс 1 общий эксперт — всего лишь 3.7% от общего количества параметров. По сравнению с MoE структурой Qwen3 (128 экспертов, 8 активных). Qwen3-Next внедряет несколько критически важных оптимизаций для обеспечения стабильности обучения и высокой производительности: Zero-Centered RMSNorm вместо традиционной QK-Norm, механизм Attention Output Gating для устранения проблемы Attention Sink и Massive Activation, Multi-Token Prediction (MTP) лучшей связности в контексте, повышения скорости и общей производительности.

Qwen3-Next-80B-A3B-Instruct демонстрирует впечатляющие результаты на ключевых бенчмарках, практически сравнявшись с флагманской моделью Qwen3-235B-A22B-Instruct-2507 при значительно меньших вычислительных затратах. На Arena-Hard v2 модель достигает 82.7 баллов, превосходя многие конкурирующие решения, в программировании модель показывает неплохие результаты на LiveCodeBench v6 с 56.6 баллами, опережая даже некоторые более крупные модели. На математическом бенчмарке AIME25 модель достигает 69.5 баллов, демонстрируя сильные способности к сложным рассуждениям. Благодаря своим уникальным архитектурным особенностям и высокой эффективности, Qwen3-Next-80B-A3B-Instruct идеально подходит для широкого спектра применений: обработка сверхдлинных документов, разработка и программирование, агентские приложения, автоматизации бизнес-процессов, и это далеко не полный список.


Дата анонса: 11.09.2025
Параметров: 82B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Слоев: 48, с полным вниманием: 12
Тип внимания: Linear Attention
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Next-80B-A3B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3-Next-80B-A3B-Instruct

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-4.16.64.160
262 144
4 85,77 ₽ 0,89 Запустить
teslaa2-4.32.128.160
262 144
4 112,24 ₽ 0,89 Запустить
teslaa10-3.16.96.160
262 144
3 119,81 ₽ 2,50 Запустить
teslav100-2.16.64.240
262 144
2 198,54 ₽ 1,72 Запустить
rtx3090-3.16.96.160
262 144
3 204,41 ₽ 2,50 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
4 209,04 ₽ 5,66 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 4,52 Запустить
rtx4090-3.16.96.160
262 144
3 252,41 ₽ 2,50 Запустить
rtx5090-2.16.64.160
262 144
2 261,77 ₽ 1,72 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 4,52 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 6,61 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 13,62 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
6 312,70 ₽ 5,65 Запустить
teslav100-4.32.96.160
262 144
4 388,21 ₽ 4,09 Запустить
teslaa100-2.24.96.160.nvlink
262 144
2 411,81 ₽ 9,69 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 7,27 Запустить
rtx5090-4.16.128.160
262 144
4 513,04 ₽ 4,09 Запустить
rtx4090-6.44.256.160
262 144
6 520,97 ₽ 5,65 Запустить
h100-2.24.256.160
262 144
2 699,97 ₽ 9,69 Запустить
h100nvl-2.24.192.240
262 144
2 729,47 ₽ 13,86 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-3.32.384.240
262 144
3 657,66 ₽ 7,59 Запустить
h200-2.24.256.240
262 144
2 840,74 ₽ 14,27 Запустить
rtx5090-8.44.256.240
262 144
8 1 031,74 ₽ 7,91 Запустить
h100-3.32.384.240
262 144
3 1 047,66 ₽ 7,59 Запустить
h100nvl-3.24.384.480
262 144
3 1 105,60 ₽ 13,85 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.