Qwen3.5-122B-A10B

размышляющая
мультимодальная
русскоязычная

Qwen3.5-122B-A10B вторая по мощности в новой линейке qwen 3.5, предназначенная для решения сложных исследовательских и промышленных задач. Ее архитектура насчитывает 48 слоев гибридным вниманием: блоки из трех слоев Gated DeltaNet, чередующиеся со слоем Gated Attention (соотношение 3:1), каждый из которых дополнен разреженным блоком экспертов (MoE) с 256 экспертами. Модель активирует всего 8 из них плюс одного общего эксперта (всего 10B параметров), а нативный контекст в 262 144 токена расширяется до 1 млн, позволяя обрабатывать целые книги или логи внушительных объемов.

Уникальность модели заключается в нативной мультимодальности — она обучена с ранним слиянием визуальных и текстовых данных, что позволяет качественно обрабатывать изображения, документы и видео. В сравнении с предыдущей версией Qwen3, модель 3.5 получила улучшенный режим мышления с адаптивным переключением между глубоким рассуждением и быстрым ответом.

На бенчмарках модель демонстрирует лидирующие результаты. В тесте общих знаний MMLU-Pro (86.7) она превосходит Qwen3-235B-A22B (84.4) и конкурентов вроде GPT-OSS-120B (80.8). В сложных рассуждениях GPQA Diamond (86.6) и научном SuperGPQA (67.1) она также показывает отличные результаты. В программировании, особенно в агентных сценариях (BFCL-V4 – 72.2, TAU2-Bench – 79.5), модель обходит многих специализированных конкурентов. Мультимодальные возможности уверенные: в тесте на понимание диаграмм MathVision (86.2) и сложном визуальном мышлении MMMU-Pro (76.9) модель значительно опережает предыдущие версии и решения от других разработчиков, таких как Claude-Sonnet-4.5.

Модель вполне способна быть «движком» проектов корпоративного уровня при адекватных требованиях по инфраструктуре. Это идеальный выбор для крупных компаний и научно-исследовательских институтов для решения задач, требующих глубокого анализа данных, разработки сложного ПО, создания передовых мультимодальных агентов и систем автоматизации, где критически важны высокая точность и глубина понимания.


Дата анонса: 24.02.2026
Параметров: 126B
Экспертов: 256
Активно параметров при инференсе: 10B
Контекст: 263K
Слоев: 48, с полным вниманием: 12
Тип внимания: Linear Attention
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Версия vLLM: 0.17.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3.5-122B-A10B. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3.5-122B-A10B

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 1,57 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,57 Запустить
rtx3090-4.16.96.320
262 144
tensor
4 264,96 ₽ 1,57 Запустить
rtx4090-4.16.96.320
262 144
tensor
4 328,96 ₽ 1,57 Запустить
teslav100-3.64.256.320
262 144
pipeline
3 347,52 ₽ 1,98 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 2,50 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 1,98 Запустить
teslav100-4.32.96.160
262 144
tensor
4 388,21 ₽ 6,26 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 11,76 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 9,38 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 6,26 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 11,76 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-2.24.256.240
262 144
tensor
2 440,74 ₽ 3,35 Запустить
rtx4090-8.44.256.240
262 144
tensor
8 671,74 ₽ 5,59 Запустить
h100-2.24.256.240
262 144
tensor
2 700,74 ₽ 3,35 Запустить
h100nvl-2.24.192.240
262 144
tensor
2 729,47 ₽ 7,45 Запустить
rtx5090-6.44.256.240
262 144
pipeline
6 791,74 ₽ 6,41 Запустить
h200-2.24.256.240
262 144
tensor
2 840,74 ₽ 21,22 Запустить
rtx5090-8.44.256.240
262 144
tensor
8 1 031,74 ₽ 14,97 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-4.16.256.480
262 144
tensor
4 818,68 ₽ 7,33 Запустить
h200-2.24.256.320
262 144
tensor
2 841,52 ₽ 2,57 Запустить
h100nvl-3.24.384.480
262 144
pipeline
3 1 105,60 ₽ 2,17 Запустить
h100-4.16.256.480
262 144
tensor
4 1 338,68 ₽ 7,33 Запустить
h100nvl-4.32.384.480
262 144
tensor
4 1 450,00 ₽ 15,53 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.