Qwen3-Coder-30B-A3B-Instruct

русскоязычная

Qwen3-Coder-30B-A3B-Instruct представляет отличный пример качественной большой языковой модели с продвинутой специализацией на программировании. Это Mixture-of-Experts с 30.5B общих параметров, из которых активируются только 3.3B на токен, а из 128 экспертов задействуются только 8 на токен. Модель состоит из 48 скрытых слоев с grouped query attention (32 головы для Q и 4 для KV), что обеспечивает исключительную эффективность обработки при минимальном потреблении вычислительных ресурсов. А нативная поддержка 262 144 токенов контекста с возможностью расширения до 1M токенов через Yarn делает модель идеальной для работы с крупными репозиториями с программным в рамках сложных проектов.

Главная уникальность особенность Qwen3-Coder-30B-A3B-Instruct заключается в ее превосходных агентных способностях. Модель не просто генерирует код, а автономно взаимодействует с инструментами разработки, выполняет многошаговые задачи программирования и способна решать сложные задачи без участия человека. На бенчмарке LiveCodeBench v6 модель достигает впечатляющих 66.0%, значительно опережая базовую версию Qwen3-30B-A3B (57.4%). В задачах AIME25 (продвинутая математика для программирования) модель демонстрирует 85.0% точности, превзойдя Gemini-2.5-Flash-Thinking (72.0%) и уверенно конкурируя с гораздо более крупными решениями. Модель превосходит DeepSeek V3 по большинству coding-задач и показывает сопоставимую с Claude Sonnet 4 производительность в агентных workflow, что является исключительным достижением для open-source.

Qwen3-Coder-30B-A3B-Instruct открывает совершенно новые возможности для разработки. Модель интегрирована с популярными платформами агентного программирования, включая Qwen Code, CLINE, Roo Code, и Kilo Code, предлагая унифицированный формат function calling для бесшовной работы в CI/CD пайплайнах. Поддержка 358 языков программирования делает ее универсальным инструментом справочником для разработчиков. Особенно модель выделяется в сценариях repository-scale понимания, где может анализировать и модифицировать огромные массивы программного кода, автоматически рефакторить легаси-код и создавать комплексные full-stack приложения с минимальным вмешательством разработчика в эти процессы.


Дата анонса: 22.07.2025
Параметров: 30.5B
Экспертов: 128
Активно параметров при инференсе: 3.3B
Контекст: 263K
Слоев: 48
Тип внимания: Full or Sliding Window Attention
Потребление памяти: 40.7 ГБ в точности 4 бит
Разработчик: Qwen
Версия Transformers: 4.52.3
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Coder-30B-A3B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen3-Coder-30B-A3B-Instruct

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160
262 144
16 65536 160 2 83,37 ₽ Запустить
teslat4-4.16.64.160
262 144
16 65536 160 4 85,77 ₽ Запустить
rtxa5000-2.16.64.160.nvlink
262 144
16 65536 160 2 109,77 ₽ Запустить
teslaa2-4.32.128.160
262 144
32 131072 160 4 112,24 ₽ Запустить
rtx3090-2.16.64.160
262 144
16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160
262 144
16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240
262 144
16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160
262 144
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
262 144
16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160
262 144
16 65536 160 1 456,27 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 623,04 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-3.16.96.160
262 144
16 98304 160 3 119,81 ₽ Запустить
teslaa2-6.32.128.160
262 144
32 131072 160 6 147,44 ₽ Запустить
teslav100-2.16.64.240
262 144
16 65535 240 2 198,54 ₽ Запустить
rtxa5000-4.16.128.160.nvlink
262 144
16 131072 160 4 209,04 ₽ Запустить
rtx3090-3.16.96.160
262 144
16 98304 160 3 218,81 ₽ Запустить
teslaa100-1.16.64.160
262 144
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
262 144
16 65536 160 2 261,77 ₽ Запустить
rtx4090-3.16.96.160
262 144
16 98304 160 3 288,11 ₽ Запустить
teslah100-1.16.64.160
262 144
16 65536 160 1 456,27 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 623,04 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
rtxa5000-6.24.192.160.nvlink
262 144
24 196608 160 6 312,70 ₽ Запустить
teslav100-4.32.96.160
262 144
32 98304 160 4 388,21 ₽ Запустить
teslaa100-2.24.96.160.nvlink
262 144
24 98304 160 2 449,81 ₽ Запустить
rtx5090-4.16.128.160
262 144
16 131072 160 4 513,04 ₽ Запустить
rtx4090-6.44.256.160
262 144
44 262144 160 6 592,37 ₽ Запустить
h200-1.16.128.160
262 144
16 131072 160 1 623,04 ₽ Запустить
teslah100-2.24.256.160
262 144
24 262144 160 2 928,97 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.