Qwen3-Next-80B-A3B-Instruct

русскоязычная

Qwen3-Next-80B-A3B-Instruct первая модель на базе инновационной архитектуры Qwen3-Next, в рамках которой разработчиками внедрено целый ряд технологических новшеств. В основе модели лежит архитектура с гибридной системой внимания, которая в соотношении 3:1 сочетает два механизма: Gated DeltaNet (75% слоев) обеспечивает линейную вычислительную сложность и эффективную обработку длинных последовательностей, в то время как Gated Attention (25% слоев) гарантирует высокую точность и способность к информационному поиску. Эта архитектура решает фундаментальную проблему традиционного внимания: линейное внимание быстро, но слабо в задачах поиска, а стандартное внимание дорого и медленно при инференсе. А их гибрид показывает более сильные способности к обучению и пониманию контекста по сравнению с такими методами, как Sliding Window Attention или Mamba2.

Модель также внедряет ультра-разреженную MoE архитектуру с 512 экспертами, из которых активируются только 10 направляемых экспертов плюс 1 общий эксперт — всего лишь 3.7% от общего количества параметров. По сравнению с MoE структурой Qwen3 (128 экспертов, 8 активных). Qwen3-Next внедряет несколько критически важных оптимизаций для обеспечения стабильности обучения и высокой производительности: Zero-Centered RMSNorm вместо традиционной QK-Norm, механизм Attention Output Gating для устранения проблемы Attention Sink и Massive Activation, Multi-Token Prediction (MTP) лучшей связности в контексте, повышения скорости и общей производительности.

Qwen3-Next-80B-A3B-Instruct демонстрирует впечатляющие результаты на ключевых бенчмарках, практически сравнявшись с флагманской моделью Qwen3-235B-A22B-Instruct-2507 при значительно меньших вычислительных затратах. На Arena-Hard v2 модель достигает 82.7 баллов, превосходя многие конкурирующие решения, в программировании модель показывает неплохие результаты на LiveCodeBench v6 с 56.6 баллами, опережая даже некоторые более крупные модели. На математическом бенчмарке AIME25 модель достигает 69.5 баллов, демонстрируя сильные способности к сложным рассуждениям. Благодаря своим уникальным архитектурным особенностям и высокой эффективности, Qwen3-Next-80B-A3B-Instruct идеально подходит для широкого спектра применений: обработка сверхдлинных документов, разработка и программирование, агентские приложения, автоматизации бизнес-процессов, и это далеко не полный список.


Дата анонса: 11.09.2025
Параметров: 81.3B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Потребление памяти: 37.9 ГБ в точности 4 бит
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Next-80B-A3B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen3-Next-80B-A3B-Instruct

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160
262 144
16 65536 160 2 83,37 ₽ Запустить
teslat4-4.16.64.160
262 144
16 65536 160 4 85,77 ₽ Запустить
rtx2080ti-4.16.64.160
262 144
16 65536 160 4 105,37 ₽ Запустить
rtx3090-2.16.64.160
262 144
16 65536 160 2 149,37 ₽ Запустить
rtx3080-4.16.64.160
262 144
16 65536 160 4 162,57 ₽ Запустить
rtx4090-2.16.64.160
262 144
16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240
262 144
16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160
262 144
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
262 144
16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160
262 144
16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-4.16.128.160
262 144
16 131072 160 4 156,24 ₽ Запустить
teslaa100-1.16.128.160
262 144
16 131072 160 1 242,04 ₽ Запустить
rtx3090-4.16.128.160
262 144
16 131072 160 4 288,24 ₽ Запустить
rtx4090-4.16.128.160
262 144
16 131072 160 4 380,64 ₽ Запустить
rtx5090-3.16.96.160
262 144
16 98304 160 3 387,41 ₽ Запустить
teslah100-1.16.128.160
262 144
16 131072 160 1 467,54 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-2.24.256.240
262 144
24 262144 240 2 478,74 ₽ Запустить
teslah100-2.24.256.240
262 144
24 262144 240 2 929,74 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.