Qwen3-Coder-30B-A3B-Instruct

русскоязычная
для кодинга

Qwen3-Coder-30B-A3B-Instruct представляет отличный пример качественной большой языковой модели с продвинутой специализацией на программировании. Это Mixture-of-Experts с 30.5B общих параметров, из которых активируются только 3.3B на токен, а из 128 экспертов задействуются только 8 на токен. Модель состоит из 48 скрытых слоев с grouped query attention (32 головы для Q и 4 для KV), что обеспечивает исключительную эффективность обработки при минимальном потреблении вычислительных ресурсов. А нативная поддержка 262 144 токенов контекста с возможностью расширения до 1M токенов через Yarn делает модель идеальной для работы с крупными репозиториями с программным в рамках сложных проектов.

Главная уникальность особенность Qwen3-Coder-30B-A3B-Instruct заключается в ее превосходных агентных способностях. Модель не просто генерирует код, а автономно взаимодействует с инструментами разработки, выполняет многошаговые задачи программирования и способна решать сложные задачи без участия человека. На бенчмарке LiveCodeBench v6 модель достигает впечатляющих 66.0%, значительно опережая базовую версию Qwen3-30B-A3B (57.4%). В задачах AIME25 (продвинутая математика для программирования) модель демонстрирует 85.0% точности, превзойдя Gemini-2.5-Flash-Thinking (72.0%) и уверенно конкурируя с гораздо более крупными решениями. Модель превосходит DeepSeek V3 по большинству coding-задач и показывает сопоставимую с Claude Sonnet 4 производительность в агентных workflow, что является исключительным достижением для open-source.

Qwen3-Coder-30B-A3B-Instruct открывает совершенно новые возможности для разработки. Модель интегрирована с популярными платформами агентного программирования, включая Qwen Code, CLINE, Roo Code, и Kilo Code, предлагая унифицированный формат function calling для бесшовной работы в CI/CD пайплайнах. Поддержка 358 языков программирования делает ее универсальным инструментом справочником для разработчиков. Особенно модель выделяется в сценариях repository-scale понимания, где может анализировать и модифицировать огромные массивы программного кода, автоматически рефакторить легаси-код и создавать комплексные full-stack приложения с минимальным вмешательством разработчика в эти процессы.


Дата анонса: 22.07.2025
Параметров: 31B
Экспертов: 128
Активно параметров при инференсе: 4B
Контекст: 263K
Слоев: 48
Тип внимания: Full or Sliding Window Attention
Разработчик: Qwen
Версия Transformers: 4.52.3
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen3-Coder-30B-A3B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen3-Coder-30B-A3B-Instruct

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-4.32.128.480
262 144
tensor
4 115,35 ₽ 1,33 Запустить
teslat4-4.48.192.320
262 144
tensor
4 127,45 ₽ 1,33 Запустить
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 2,53 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 2,53 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 2,24 Запустить
rtx4090-3.16.96.160
262 144
pipeline
3 252,41 ₽ 1,74 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 1,54 Запустить
rtx3090-4.16.128.160
262 144
tensor
4 269,04 ₽ 2,53 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 2,53 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 2,24 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 2,77 Запустить
teslaa100-2.24.256.160.nvlink
262 144
tensor
2 439,97 ₽ 5,14 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 9,71 Запустить
h200-4.32.768.480
262 144
tensor
4 1 717,59 ₽ 20,08 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.480
262 144
pipeline
6 150,55 ₽ 1,77 Запустить
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 1,97 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,97 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 1,69 Запустить
rtx4090-3.16.96.160
262 144
pipeline
3 252,41 ₽ 1,18 Запустить
rtx3090-4.16.128.160
262 144
tensor
4 269,04 ₽ 1,97 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 1,97 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 1,69 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 2,21 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 2,08 Запустить
teslaa100-2.24.256.160.nvlink
262 144
tensor
2 439,97 ₽ 4,58 Запустить
rtx5090-4.32.128.160
262 144
tensor
4 521,84 ₽ 3,17 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 9,16 Запустить
h200-4.32.768.480
262 144
tensor
4 1 717,59 ₽ 19,52 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.256.160.nvlink
262 144
pipeline
6 323,97 ₽ 2,41 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,05 Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
8 411,97 ₽ 4,00 Запустить
teslaa100-2.24.256.160
262 144
tensor
2 439,97 ₽ 3,42 Запустить
teslaa100-2.24.256.160.nvlink
262 144
tensor
2 439,97 ₽ 3,42 Запустить
rtx4090-6.44.256.160
262 144
pipeline
6 520,97 ₽ 2,41 Запустить
rtx5090-4.32.128.160
262 144
tensor
4 521,84 ₽ 2,01 Запустить
rtx4090-8.44.256.160
262 144
tensor
8 670,97 ₽ 4,00 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 3,42 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 8,00 Запустить
h200-4.32.768.480
262 144
tensor
4 1 717,59 ₽ 18,36 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.