Qwen3-Next-80B-A3B-Thinking

размышляющая
русскоязычная

Qwen3‑Next‑80B‑A3B‑Thinking — представитель нового семейства Qwen3‑Next, в котором стандартное внимание заменено на гибрид из Gated DeltaNet и Gated Attention для эффективного моделирования сверхдлинных контекстов. Так же в модели реализована сверхразреженная архитектура Mixture-of-Experts (MoE), которая из 512 экспертов активирует только 10 плюс 1 общий эксперт на каждый токен. Это обеспечивает коэффициент активации параметров всего в 3,7%, что значительно ниже традиционных MoE-моделей. Технические оптимизации для стабильности обучения включают zero-centered и weight-decayed layernorm, решающие проблемы аномального роста весов в нормализации слоев. Модель также использует Multi-Token Prediction (MTP) для ускорения инференса и улучшения производительности предобучения. Контекстная длина составляет 262,144 токена нативно и может быть расширена до 1,010,000 токенов с использованием техники YaRN.

Qwen3-Next-80B-A3B-Thinking демонстрирует выдающиеся результаты на ключевых бенчмарках, превосходя Gemini-2.5-Flash-Thinking и модели qwen предыдущего поколения. На математическом бенчмарке AIME25, проверяющем способности решения сложных математических задач уровня олимпиад, модель достигает 87.8% против 72.0% у Gemini. В HMMT25, тестирующем математическое мышление высокого уровня, результат составляет 73.9% против 64.2%. На бенчмарке LiveCodeBench v6, оценивающем программирование в реальных условиях, модель показывает 68.7% против 61.2% у конкурента, а в комплексном бенчмарке Arena-Hard v2 модель достигается 62.3% против 56.7%.

Специализация на сложном рассуждении делает Thinking-версию идеальной для задач, требующих глубокого анализа. Модель является отличным выбором для задач с пошаговым выводом и детализированных рассуждений, добавим сюда работу с длинными документами и аналитику с кросс‑ссылками, агентские пайплайны и конечно же математические задачи. Разработчики рекомендуют использовать длину вывода до 32,768 токенов для большинства запросов и до 81,920 токенов для особо сложных задач.


Дата анонса: 11.09.2025
Параметров: 81.3B
Экспертов: 512
Активно параметров при инференсе: 3B
Контекст: 263K
Потребление памяти: 37.9 ГБ в точности 4 бит
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Next-80B-A3B-Thinking. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen3-Next-80B-A3B-Thinking

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160
262 144
16 65536 160 2 83,37 ₽ Запустить
teslat4-4.16.64.160
262 144
16 65536 160 4 85,77 ₽ Запустить
rtx2080ti-4.16.64.160
262 144
16 65536 160 4 105,37 ₽ Запустить
rtx3090-2.16.64.160
262 144
16 65536 160 2 149,37 ₽ Запустить
rtx3080-4.16.64.160
262 144
16 65536 160 4 162,57 ₽ Запустить
rtx4090-2.16.64.160
262 144
16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240
262 144
16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160
262 144
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
262 144
16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160
262 144
16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-4.16.128.160
262 144
16 131072 160 4 156,24 ₽ Запустить
teslaa100-1.16.128.160
262 144
16 131072 160 1 242,04 ₽ Запустить
rtx3090-4.16.128.160
262 144
16 131072 160 4 288,24 ₽ Запустить
rtx4090-4.16.128.160
262 144
16 131072 160 4 380,64 ₽ Запустить
rtx5090-3.16.96.160
262 144
16 98304 160 3 387,41 ₽ Запустить
teslah100-1.16.128.160
262 144
16 131072 160 1 467,54 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-2.24.256.240
262 144
24 262144 240 2 478,74 ₽ Запустить
teslah100-2.24.256.240
262 144
24 262144 240 2 929,74 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.