Qwen3-VL-32B-Thinking

размышляющая
мультимодальная
русскоязычная

Qwen3-VL-32B-Thinking представляет собой reasoning-оптимизированную версию 32-миллиардной модели, специально обученную для сложных задач, требующих глубокого визуального анализа и многоступенчатых логических выводов. Архитектурно модель базируется на тех же трех ключевых инновациях Qwen3-VL: Interleaved-MRoPE, DeepStack и Text-Timestamp Alignment. Однако Thinking-версия проходит специализированное обучение с подкреплением, направленное на развитие способности к структурированному рассуждению при работе с визуальным контентом. Это обучение позволяет модели не просто распознавать визуальные элементы, но и формировать причинно-следственные связи, выдвигать и проверять гипотезы, а также строить логические аргументации на основе визуальных данных.

На бенчмарках мультимодального рассуждения Qwen3-VL-32B-Thinking лидирует среди всех open-source и закрытых моделей схожей размерности практически по всем сравниваемым критериям и категориям. Модель нативно поддерживает контекстное окно 256K токенов с расширением до 1M токенов, что критически важно для обработки комплексных исследовательских работ, технических документов или длинных образовательных видео с сохранением контекста для глубокого анализа. Расширенная поддержка 32 языков OCR с улучшенным распознаванием технической терминологии, математических формул и научных обозначений делает модель универсальным инструментом для оцифровки архивных документов и научных статей.

Сценарии использования Qwen3-VL-32B-Thinking охватывают профессиональные и академические направления. Научные исследования и академическая работа выигрывают от способности модели анализировать сложные экспериментальные данные, интерпретировать научные визуализации и формировать обоснованные гипотезы на основе визуальных паттернов. Образовательные платформы могут использовать модель для создания детальных пошаговых решений сложных задач. Медицинская диагностика и анализ сложных случаев, где требуется многофакторное рассуждение на основе медицинских изображений. Финансовый анализ и бизнес-аналитика с интерпретацией сложных графиков, диаграмм и визуализаций данных, где модель может выявлять тренды, аномалии и формировать прогнозы с обоснованиями. Анализ длинных видео для профессионального контент-анализа, где требуется не только временная локализация событий, но и понимание причинно-следственных связей между ними, выявление скрытых паттернов и формулирование аналитических выводов.


Дата анонса: 22.10.2025
Параметров: 33B
Контекст: 263K
Слоев: 64
Тип внимания: Full Attention
Потребление памяти: 86.9 ГБ в точности 4 бит
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-VL-32B-Thinking. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen3-VL-32B-Thinking

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
rtxa5000-6.24.192.160.nvlink
262 144
24 196608 160 6 312,70 ₽ Запустить
teslav100-4.32.96.160
262 144
32 98304 160 4 388,21 ₽ Запустить
teslaa100-2.24.96.160.nvlink
262 144
24 98304 160 2 449,81 ₽ Запустить
rtx5090-4.16.128.160
262 144
16 131072 160 4 513,04 ₽ Запустить
rtx4090-6.44.256.160
262 144
44 262144 160 6 592,37 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 623,04 ₽ Запустить
teslah100-2.24.256.160
262 144
24 262144 160 2 928,97 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
rtxa5000-6.24.192.160.nvlink
262 144
24 196608 160 6 312,70 ₽ Запустить
teslav100-4.32.256.160
262 144
32 262144 160 4 416,37 ₽ Запустить
teslaa100-2.24.128.160.nvlink
262 144
24 131072 160 2 455,44 ₽ Запустить
rtx5090-4.16.128.160
262 144
16 131072 160 4 513,04 ₽ Запустить
rtx4090-6.44.256.160
262 144
44 262144 160 6 592,37 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 623,04 ₽ Запустить
teslah100-2.24.256.160
262 144
24 262144 160 2 928,97 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
rtxa5000-8.24.256.160.nvlink
262 144
24 262144 160 8 411,97 ₽ Запустить
teslaa100-2.24.192.160.nvlink
262 144
24 196608 160 2 466,70 ₽ Запустить
rtx4090-8.44.256.160
262 144
44 262144 160 8 766,17 ₽ Запустить
rtx5090-6.44.256.160
262 144
44 262144 160 6 790,97 ₽ Запустить
teslah100-2.24.256.160
262 144
24 262144 160 2 928,97 ₽ Запустить
h200-2.24.256.240
262 144
24 262144 240 2 1 240,74 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.