Qwen3.5-9B

размышляющая
мультимодальная
русскоязычная

Qwen3.5-9B — компактная плотная модель с 9 миллиардами параметров, сохраняющая ключевые возможности флагманских версий серии. Построенная на 32 слоях, она использует ту же гибридную архитектуру, что и старшие модели: чередование блоков с Gated DeltaNet и Gated Attention (в сочетании 3:1) обеспечивая баланс между скоростью, точностью и экономией памяти на длинных контекстах.  Это позволяет ей эффективно обрабатывать нативно до 262k токенов, уверенно конкурируя с моделями в 2–3 раза большего размера. Модель поддерживает нативную мультимодальность с пониманием текста, изображений и видео, что делает её универсальным решением для разнообразных задач.

Результаты модели очень приличные для ее «весовой категории». В тестах на знание (MMLU-Pro – 82.5) она обходит многие более крупные модели, включая GPT-OSS-120B. В следовании инструкциям (IFEval – 91.5) она показывает результаты, близкие к топовым. Особо выделяются ее агентные способности: TAU2-Bench (79.1) и BFCL-V4 (66.1) — результаты, которые были достижимы лишь для моделей масштаба 70B+ всего год назад. Мультимодальные возможности также на уровне: MathVision (78.9), MMMU-Pro (70.1), OCRBench (89.2) и VlmsAreBlind (93.7) демонстрируют глубокое понимание визуальной информации.

Модель оптимальна для сценариев, где важны баланс между производительностью и ресурсами. Для запуска достаточно 8GB RAM в квантованном формате, что делает модель доступной для потребительского оборудования. Она идеально подходит для создания OCR-систем, анализа документов и изображений в реальном времени, а также для задач, где требуется быстрая обработка данных локально в контуре предприятия.


Дата анонса: 27.02.2026
Параметров: 10B
Контекст: 263K
Слоев: 32, с полным вниманием: 8
Тип внимания: Linear Attention
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Версия vLLM: 0.17.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3.5-9B. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3.5-9B

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-1.16.32.160
262 144
1 46,94 ₽ 1,34 Запустить
teslat4-2.16.32.160
262 144
tensor
2 48,14 ₽ 1,92 Запустить
teslaa2-2.16.32.160
262 144
tensor
2 51,34 ₽ 1,92 Запустить
rtx3090-1.16.24.160
262 144
1 73,73 ₽ 1,34 Запустить
rtx2080ti-3.12.24.120
262 144
pipeline
3 74,84 ₽ 1,72 Запустить
rtx4090-1.16.32.160
262 144
1 91,14 ₽ 1,34 Запустить
rtx2080ti-4.16.32.160
262 144
tensor
4 99,74 ₽ 2,64 Запустить
teslav100-1.12.64.160
262 144
1 107,57 ₽ 2,23 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 3,71 Запустить
rtx3080-3.16.64.160
262 144
pipeline
3 127,37 ₽ 1,39 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 2,23 Запустить
rtx3080-4.16.64.160
262 144
tensor
4 162,57 ₽ 2,19 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 7,60 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 7,60 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 9,16 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 14,42 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-1.16.32.160
262 144
1 46,94 ₽ 0,96 Запустить
teslat4-2.16.32.160
262 144
tensor
2 48,14 ₽ 1,55 Запустить
teslaa2-2.16.32.160
262 144
tensor
2 51,34 ₽ 1,55 Запустить
rtx3090-1.16.24.160
262 144
1 73,73 ₽ 0,96 Запустить
rtx2080ti-3.12.24.120
262 144
pipeline
3 74,84 ₽ 1,35 Запустить
rtx4090-1.16.32.160
262 144
1 91,14 ₽ 0,96 Запустить
rtx2080ti-4.16.32.160
262 144
tensor
4 99,74 ₽ 2,27 Запустить
teslav100-1.12.64.160
262 144
1 107,57 ₽ 1,86 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 3,34 Запустить
rtx3080-3.16.64.160
262 144
pipeline
3 127,37 ₽ 1,01 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 1,86 Запустить
rtx3080-4.16.64.160
262 144
tensor
4 162,57 ₽ 1,82 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 7,23 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 7,23 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 8,79 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 14,05 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-3.32.64.160
262 144
pipeline
3 78,57 ₽ 2,20 Запустить
teslaa10-2.16.64.160
262 144
tensor
2 83,37 ₽ 2,51 Запустить
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 3,68 Запустить
teslaa2-3.32.128.160
262 144
pipeline
3 94,64 ₽ 2,20 Запустить
rtx2080ti-4.16.32.160
262 144
tensor
4 99,74 ₽ 1,44 Запустить
teslav100-1.12.64.160
262 144
1 107,57 ₽ 1,03 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 2,51 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 3,68 Запустить
rtx3090-2.16.64.160
262 144
tensor
2 139,77 ₽ 2,51 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 1,03 Запустить
rtx3080-4.16.64.160
262 144
tensor
4 162,57 ₽ 1,00 Запустить
rtx4090-2.16.64.160
262 144
tensor
2 171,77 ₽ 2,51 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 6,40 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 6,40 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 7,97 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 13,22 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.