Qwen3-VL-235B-A22B-Instruct

мультимодальная
русскоязычная

Qwen3-VL-235B-A22B-Instruct представляет собой флагманскую открытую мультимодальную модель с 236 миллиардами параметров и архитектурой Mixture of Experts (22 миллиарда активных параметров) и нативной длиной контекста 256K (с возможностью расширения до 1M). Мультимодальные возможности модели основаны на трёх ключевых архитектурных инновациях, обеспечивающих передовые мультимодальные возможности. Во-первых, технология Interleaved-MRoPE (Multi-dimensional Rotary Position Embedding) вводит надёжные позиционные эмбеддинги, равномерно распределяющие частотную информацию по трём измерениям — времени, ширине и высоте, что кардинально улучшает понимание длительных видеопоследовательностей и сохраняет временную когерентность даже в часовых роликах. Во-вторых, система DeepStack агрегирует многоуровневые признаки Vision Transformer (ViT), захватывая мельчайшие визуальные детали и значительно повышая точность выравнивания между изображениями и текстом. В-третьих, механизм Text–Timestamp Alignment заменяет устаревший подход T-RoPE, обеспечивая привязку текстовых описаний к конкретным временным меткам с секундной точностью, что резко усиливает способность модели локализовать и интерпретировать события во времени. При этом реализуется продвинутое пространственное восприятие, что позволяет модели оценивать положения объектов, точки обзора и перекрытия, обеспечивая отличные 2D и 3D-привязки. В совокупности эти компоненты реализуют глубокую, бесшовную связку текста и изображений, позволяя модели достигать отличных результатов.

Qwen3-VL-235B-A22B-Instruct предлагает революционные возможности визуального агента, способного управлять графическими интерфейсами ПК и мобильных устройств — распознавать элементы интерфейса, понимать функции кнопок, вызывать инструменты, например она может автоматизировать рутинные задачи заполнения форм. Модель демонстрирует выдающиеся возможности в программировании генерируя код приложений на основе скриншотов, дизайн-макетов и видео демонстраций, что существенно ускоряет прототипирование и разработку пользовательских интерфейсов. Модель поддерживает OCR 32 на 32 языках и превосходно подходит для извлечения текста и анализа структуры сложных многоязычных документов, включая PDF, изображения с низким качеством и документы с нестандартным форматированием, графиками и таблицами.

При этом не стоит забывать, что визуальная надстройка базируется на Qwen/Qwen3-235B-A22B-Instruct-2507 — лучшей открытой модели в серии Qwen3, которая обеспечивает для Qwen3-VL способность не только «видеть», но и глубоко осмысливать, рассуждать и действовать на основе мультимодального ввода.


Дата анонса: 23.09.2025
Параметров: 236B
Экспертов: 128
Активно параметров при инференсе: 22B
Контекст: 263K
Слоев: 94
Тип внимания: Full Attention
Потребление памяти: 178.2 ГБ в точности 4 бит
Разработчик: Qwen
Версия Transformers: 4.57.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-VL-235B-A22B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen3-VL-235B-A22B-Instruct

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-2.24.256.240
32 000
tensor
24 262144 240 2 440,74 ₽ Запустить
teslaa100-3.32.384.240
262 144
pipeline
32 393216 240 3 657,66 ₽ Запустить
rtx4090-8.44.256.240
128 000
tensor
44 262144 240 8 671,74 ₽ Запустить
teslah100-2.24.256.240
32 000
tensor
24 262144 240 2 700,74 ₽ Запустить
h100nvl-2.24.192.240
128 000
tensor
24 196608 240 2 729,47 ₽ Запустить
rtx5090-6.44.256.240
128 000
pipeline
44 262144 240 6 791,74 ₽ Запустить
teslaa100-4.16.256.240
262 144
tensor
16 262144 240 4 816,34 ₽ Запустить
h200-2.24.256.240
262 144
tensor
24 262144 240 2 840,74 ₽ Запустить
rtx5090-8.44.256.240
262 144
tensor
44 262144 240 8 1 031,74 ₽ Запустить
teslah100-3.32.384.240
262 144
pipeline
32 393216 240 3 1 047,66 ₽ Запустить
h100nvl-3.24.384.480
262 144
pipeline
24 393216 480 3 1 105,60 ₽ Запустить
teslah100-4.16.256.240
262 144
tensor
16 262144 240 4 1 336,34 ₽ Запустить
h100nvl-4.32.384.480
262 144
tensor
32 393216 480 4 1 450,00 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-4.16.256.480
128 000
tensor
16 262144 480 4 818,68 ₽ Запустить
h200-2.24.256.320
128 000
tensor
24 262144 320 2 841,52 ₽ Запустить
teslaa100-4.32.384.320.nvlink
262 144
tensor
32 393216 320 4 848,44 ₽ Запустить
h100nvl-3.24.384.480
128 000
pipeline
24 393216 480 3 1 105,60 ₽ Запустить
h200-3.32.512.480
262 144
pipeline
32 524288 480 3 1 282,53 ₽ Запустить
teslah100-4.16.256.480
128 000
tensor
16 262144 480 4 1 338,68 ₽ Запустить
teslah100-4.44.512.320
262 144
tensor
44 524288 320 4 1 397,57 ₽ Запустить
h100nvl-4.32.384.480
262 144
tensor
32 393216 480 4 1 450,00 ₽ Запустить
h200-4.32.768.480
262 144
tensor
32 786432 480 4 1 717,59 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-8.44.704.960.nvlink
262 144
tensor
44 720896 960 8 1 677,58 ₽ Запустить
h200-4.32.768.640
128 000
tensor
32 786432 640 4 1 719,14 ₽ Запустить
h200-6.52.896.640
262 144
pipeline
52 917504 640 6 2 532,67 ₽ Запустить
h200-8.52.1024.640
262 144
tensor
52 1048576 640 8 3 335,19 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.