granite-4.0-h-small

русскоязычная

Granite-4.0-H-Small является флагманской моделью семейства, представляющей собой гибридную MoE-модель с 32 млрд общих параметров и 9 млрд активных параметров во время инференса. Архитектурно модель сочетает блоки Mamba-2 с трансформер-блоками в соотношении 9:1. Суть подхода заключается в том, что Mamba-2 эффективно обрабатывает глобальный контекст с линейной сложностью вычислений, периодически передавая информацию трансформерным блокам для более детального анализа локального контекста через механизм self-attention. В отличие от традиционных трансформеров, где вычислительные затраты растут квадратично с увеличением длины последовательности, Mamba-2 масштабируется линейно, а требования к памяти остаются константными независимо от контекста. Модель использует fine-grained mixture of experts с общими экспертами, которые активируются постоянно, что повышает эффективность использования параметров. Важной особенностью является отсутствие позиционного кодирования (NoPE), так как Mamba изначально сохраняет информацию о порядке токенов благодаря последовательной обработке.

На бенчмарке IFEval (измеряет способность следовать инструкциям) модель достигает 0.89 баллов, превосходя все открытые модели за исключением Llama 4 Maverick с 402 млрд параметров — модели в 12 раз крупнее. Модель также показывает превосходные результаты на MTRAG — бенчмарке для сложных задач RAG с множественными оборотами, неотвечаемыми вопросами и информацией из различных доменов.  На Berkeley Function Calling Leaderboard v3 (BFCL) она демонстрирует конкурентоспособные результаты с гораздо более крупными моделями.

Эта модель разработана как рабочая лошадка для ключевых корпоративных задач, таких как RAG (Retrieval-Augmented Generation) и агентские рабочие процессы, при этом распространяется по открытой лицензии apache-2.0, отвечает международным стандартам безопасного ИИ, отлично масштабируется по контексту и одновременным потокам (batch size) и, что немаловажно, существенно менее требовательная к ресурсам чем другие модели схожего размера.


Дата анонса: 02.10.2025
Параметров: 32.2B
Экспертов: 72
Активно параметров при инференсе: 9B
Контекст: 131K
Слоев: 40, с полным вниманием: 4
Тип внимания: Mamba Attention
Потребление памяти: 30.7 ГБ в точности 4 бит
Разработчик: IBM
Версия Transformers: 4.56.0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с granite-4.0-h-small. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга granite-4.0-h-small

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslat4-3.32.64.160
131 072
32 65536 160 3 78,57 ₽ Запустить
teslaa10-2.16.64.160
131 072
16 65536 160 2 83,37 ₽ Запустить
teslaa2-3.32.128.160
131 072
32 131072 160 3 94,64 ₽ Запустить
rtx2080ti-4.16.32.160
131 072
16 32768 160 4 99,74 ₽ Запустить
rtxa5000-2.16.64.160.nvlink
131 072
16 65536 160 2 109,77 ₽ Запустить
rtx3090-2.16.64.160
131 072
16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160
131 072
16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240
131 072
16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160
131 072
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
131 072
16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160
131 072
16 65536 160 1 456,27 ₽ Запустить
h200-1.16.128.160
131 072
16 131072 160 1 623,04 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslat4-3.32.64.160
131 072
32 65536 160 3 78,57 ₽ Запустить
teslaa10-2.16.64.160
131 072
16 65536 160 2 83,37 ₽ Запустить
teslaa2-3.32.128.160
131 072
32 131072 160 3 94,64 ₽ Запустить
rtxa5000-2.16.64.160.nvlink
131 072
16 65536 160 2 109,77 ₽ Запустить
rtx3090-2.16.64.160
131 072
16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160
131 072
16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240
131 072
16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160
131 072
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
131 072
16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160
131 072
16 65536 160 1 456,27 ₽ Запустить
h200-1.16.128.160
131 072
16 131072 160 1 623,04 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa2-6.32.128.160
131 072
32 131072 160 6 147,44 ₽ Запустить
teslaa10-4.16.128.160
131 072
16 131072 160 4 156,24 ₽ Запустить
rtxa5000-4.16.128.160.nvlink
131 072
16 131072 160 4 209,04 ₽ Запустить
teslaa100-1.16.128.160
131 072
16 131072 160 1 242,04 ₽ Запустить
rtx3090-4.16.96.320
131 072
16 98304 320 4 284,16 ₽ Запустить
teslav100-3.64.256.320
131 072
64 262144 320 3 347,52 ₽ Запустить
rtx4090-4.16.96.320
131 072
16 98304 320 4 376,56 ₽ Запустить
rtx5090-3.16.96.160
131 072
16 98304 160 3 387,41 ₽ Запустить
teslah100-1.16.128.160
131 072
16 131072 160 1 467,54 ₽ Запустить
h200-1.16.128.160
131 072
16 131072 160 1 623,04 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.