Qwen3-30B-A3B

размышляющая
русскоязычная

Qwen3-30B-A3B представляет первую Mixture-of-Experts (MoE) в серии с общим количеством 30 миллиардов параметров, из которых только 3 миллиарда активируются для каждого токена. Модель построена на архитектуре с 48 слоями, 32 головами внимания и поддерживает контекстное окно в 40K токенов.

Модель использует инновационную архитектуру Mixture of Experts (MoE) со 128 экспертами, из которых на каждый токен активируются только 8. Это позволяет добиться эффективности инференса, сравнимой с компактными 3B-параметрическими моделями, при этом качество генерации приближается к уровню плотных 30B-моделей.  Ключевое преимущество MoE-подхода – оптимальное сочетание высокой производительности и энергоэффективности. Система динамически выбирает наиболее подходящих экспертов под конкретную задачу, что обеспечивает превосходное качество обработки при значительно меньших вычислительных затратах по сравнению с плотными аналогами аналогичного уровня. 

Qwen3-30B-A3B подходит для высоконагруженных систем, требующих баланса между качеством и производительностью: облачные API-сервисы, корпоративные чат-боты, системы автоматизации контента, многопользовательские AI-платформы. Модель идеально подходит для компаний, которым необходимо качество крупных моделей при ограниченном бюджете на вычисления.


Дата анонса: 29.04.2025
Параметров: 31B
Экспертов: 128
Активно параметров при инференсе: 4B
Контекст: 41K
Слоев: 48
Тип внимания: Full or Sliding Window Attention
Разработчик: Qwen
Версия Transformers: 4.51.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-30B-A3B. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3-30B-A3B

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-2.16.32.160
40 960
tensor
2 51,34 ₽ 1,89 Запустить
rtx2080ti-3.12.24.120
40 960
pipeline
3 74,84 ₽ 1,47 Запустить
teslat4-3.32.64.200
40 960
pipeline
3 78,95 ₽ 5,07 Запустить
rtx2080ti-4.16.32.160
40 960
tensor
4 99,74 ₽ 3,44 Запустить
rtxa5000-2.16.64.160.nvlink
40 960
tensor
2 109,77 ₽ 5,73 Запустить
teslat4-4.48.192.320
40 960
tensor
4 127,45 ₽ 8,24 Запустить
rtx5090-1.32.64.160
40 960
1 150,57 ₽ 2,56 Запустить
teslaa10-4.16.128.160
40 960
tensor
4 156,24 ₽ 15,92 Запустить
rtx3080-4.16.96.160
40 960
tensor
4 168,21 ₽ 2,48 Запустить
rtx4090-2.16.64.160
40 960
tensor
2 171,77 ₽ 5,73 Запустить
teslaa100-1.16.64.160
40 960
1 211,77 ₽ 14,08 Запустить
rtx3090-4.16.128.160
40 960
tensor
4 269,04 ₽ 15,92 Запустить
h100-1.16.64.160
40 960
1 341,77 ₽ 14,08 Запустить
h100nvl-1.16.96.160
40 960
1 367,41 ₽ 17,44 Запустить
teslaa100-2.24.256.160.nvlink
40 960
tensor
2 439,97 ₽ 32,61 Запустить
h200-2.24.256.160.nvlink
40 960
tensor
2 839,97 ₽ 61,89 Запустить
h200-4.32.768.480
40 960
tensor
4 1 717,59 ₽ 128,24 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-2.16.64.160.nvlink
40 960
tensor
2 109,77 ₽ 1,54 Запустить
teslaa2-4.32.128.480
40 960
tensor
4 115,35 ₽ 4,05 Запустить
teslat4-4.48.192.320
40 960
tensor
4 127,45 ₽ 4,05 Запустить
teslaa10-4.16.128.160
40 960
tensor
4 156,24 ₽ 11,73 Запустить
rtx4090-2.16.64.160
40 960
tensor
2 171,77 ₽ 1,54 Запустить
teslaa100-1.16.64.160
40 960
1 211,77 ₽ 9,89 Запустить
rtx5090-2.16.64.160
40 960
tensor
2 261,77 ₽ 5,38 Запустить
rtx3090-4.16.128.160
40 960
tensor
4 269,04 ₽ 11,73 Запустить
h100-1.16.64.160
40 960
1 341,77 ₽ 9,89 Запустить
h100nvl-1.16.96.160
40 960
1 367,41 ₽ 13,25 Запустить
teslaa100-2.24.256.160.nvlink
40 960
tensor
2 439,97 ₽ 28,42 Запустить
h200-2.24.256.160.nvlink
40 960
tensor
2 839,97 ₽ 57,70 Запустить
h200-4.32.768.480
40 960
tensor
4 1 717,59 ₽ 124,05 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.480
40 960
pipeline
6 150,55 ₽ 2,75 Запустить
teslaa10-4.16.128.240
40 960
tensor
4 157,01 ₽ 4,09 Запустить
teslaa100-1.16.128.240
40 960
1 223,81 ₽ 2,25 Запустить
rtx3090-4.16.96.320
40 960
tensor
4 264,96 ₽ 4,09 Запустить
rtx4090-4.16.96.320
40 960
tensor
4 328,96 ₽ 4,09 Запустить
h100-1.16.128.240
40 960
1 353,81 ₽ 2,25 Запустить
h100nvl-1.16.96.240
40 960
1 368,18 ₽ 5,61 Запустить
rtx5090-3.16.96.240
40 960
pipeline
3 388,18 ₽ 4,75 Запустить
teslaa100-2.24.256.320.nvlink
40 960
tensor
2 441,52 ₽ 20,78 Запустить
rtx5090-4.16.128.320
40 960
tensor
4 514,59 ₽ 11,77 Запустить
h200-2.24.256.240.nvlink
40 960
tensor
2 840,74 ₽ 50,06 Запустить
h200-4.32.768.480
40 960
tensor
4 1 717,59 ₽ 116,41 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.