gemma-4-31B-it

размышляющая
мультимодальная
русскоязычная
для кодинга

Gemma-4-31B-it — это флагманская плотная (dense) модель всей линейки, которая на момент выхода является новым стандартом качества и производительности в классе открытых моделей сопоставимого размера. С 30.7 миллиардами параметров, глубокой архитектурой из 60 слоев и контекстным окном на 256 тысяч токенов, эта модель демонстрирует качество генерации рассуждений и навыки в программировании, лишь немного уступая самым крупным закрытым и открытым «гигантам». В основе её архитектуры лежит гибридный механизм внимания, который чередует локальное скользящее окно на 1024 токена с полными глобальными слоями для сохранения контекста. Для работы с длинными последовательностями в глобальных слоях применяются объединенные ключи и значения, а также пропорциональный метод ротационного позиционного кодирования (Proportional RoPE). Эти оптимизации позволяют сократить требования к KV-кэшу до 74% по сравнению с традиционными механизмами полного внимания. Модель является мультимодальной «из коробки», обрабатывая текст и изображения через мощный визуальный энкодер с ~550 миллионами параметров.

Согласно официальному блогу разработчиков, Gemma-4-31B-it на момент выхода занимает 3-е место в мировом рейтинге открытых моделей Arena AI text leaderboard и уверенно обходит модели, превосходящие её по размеру в 20 раз. Модель достигает отличных результатов по целому ряду ключевых бенчмарков. В тесте MMLU-Pro она набирает 85.2%, что является значительным улучшением по сравнению с 67.6% у Gemma-3 27B. Прогресс в рассуждениях и программировании выглядит ещё более отчетливо: в задаче LiveCodeBench результат вырос почти в три раза — с 29.1% до 80.0%, а в сложном математическом тесте AIME 2026 модель демонстрирует 89.2% против 20.8% у предшественницы. В задачах мультимодального понимания модель также показывает высокие результаты: MMMU — 76.9%, MATH-Vision — 85.6%.

Разработчики рекомендуют модель 31B для сценариев, требующих высокого, проверенного качества генерации и глубокого логического анализа, с учетом доступности достаточных вычислительных ресурсов. Благодаря лицензии Apache 2.0 модель можно свободно донастраивать и использовать в коммерческих продуктах. Неквантованная версия в формате bfloat16 помещается на одном NVIDIA H100 с 80 ГБ памяти, а квантизованные варианты могут эффективно работать на потребительских GPU, открывая возможности для локального развертывания мощных агентных систем и помощников.

С рекомендации по использованию модели от разработчиков можно ознакомиться по этой ссылке -  https://ai.google.dev/gemma/docs/core/model_card_4?hl=ru


Дата анонса: 11.03.2026
Параметров: 33B
Контекст: 263K
Слоев: 60, с полным вниманием: 10
Тип внимания: Sliding Window Attention
Разработчик: Google DeepMind
Версия Transformers: 5.5.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с gemma-4-31B-it. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга gemma-4-31B-it

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,14 Запустить
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 1,24 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,24 Запустить
teslaa100-1.16.128.160
262 144
1 223,04 ₽ 1,10 Запустить
rtx3090-4.16.96.320
262 144
tensor
4 264,96 ₽ 1,24 Запустить
rtx4090-4.16.96.320
262 144
tensor
4 328,96 ₽ 1,24 Запустить
teslav100-3.64.256.320
262 144
pipeline
3 347,52 ₽ 1,30 Запустить
h100-1.16.128.160
262 144
1 353,04 ₽ 1,10 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,37 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 1,30 Запустить
teslav100-4.32.96.160
262 144
tensor
4 388,21 ₽ 1,86 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 2,27 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,86 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
pipeline
6 312,70 ₽ 1,78 Запустить
teslav100-3.64.256.320
262 144
pipeline
3 347,52 ₽ 1,02 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,09 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 1,02 Запустить
teslav100-4.32.96.160
262 144
tensor
4 388,21 ₽ 1,58 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 2,30 Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
8 411,97 ₽ 2,59 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 1,99 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,58 Запустить
rtx4090-6.44.256.160
262 144
pipeline
6 520,97 ₽ 1,78 Запустить
rtx4090-8.44.256.160
262 144
tensor
8 670,97 ₽ 2,59 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 2,30 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
pipeline
6 312,70 ₽ 1,20 Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
8 411,97 ₽ 2,01 Запустить
teslav100-4.32.256.160
262 144
tensor
4 416,37 ₽ 1,00 Запустить
teslaa100-2.24.128.160.nvlink
262 144
tensor
2 417,44 ₽ 1,72 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 1,41 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,00 Запустить
rtx4090-6.44.256.160
262 144
pipeline
6 520,97 ₽ 1,20 Запустить
rtx4090-8.44.256.160
262 144
tensor
8 670,97 ₽ 2,01 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 1,72 Запустить
h100nvl-2.24.192.240
262 144
tensor
2 729,47 ₽ 2,25 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.