gemma-4-26B-A4B-it

размышляющая
мультимодальная
русскоязычная
для кодинга

Gemma-4-26B-A4B-it первая открытая модель от google на базе архитектуры Mixture-of-Experts (MoE). При общем объеме в 25.2 миллиарда параметров, для обработки каждого токена активируется лишь их небольшая часть — от 3.8 до 4 миллиардов. По утверждениям разработчиков, такая эффективность позволяет модели достигать примерно 97% качества плотной модели 31B при значительно меньших вычислительных затратах. На момент релиза модель занимает 6-е место в рейтинге Arena AI среди открытых моделей, обходя конкурентов в 20 раз большего размера.

Модель 26B A4B построена на 30 слоях и использует гибридное внимание со скользящим окном на 1024 токена и поддерживает контекстное окно в 256 тысяч токенов. Она обладает мультимодальными возможностями отлично обрабатывая текст и изображения. В отличие от плотных аналогов, модель MoE специально оптимизирована для эффективного выполнения агентных рабочих процессов, демонстрируя значительный прогресс по сравнению с Gemma-3. В тесте T2-Bench для агентов Gemma-4 26B A4B набирает 86.4%, тогда как предыдущее поколение достигало лишь 6.6%.

Для разработчиков ключевым преимуществом этой модели является её исключительная эффективность при развертывании. По оценкам сообщества, модель способна генерировать 162 токена в секунду на ускорителе NVIDIA RTX 4090 и может эффективно работать даже на устройствах с ограниченной памятью. Это делает её идеальным выбором для сложных агентных систем, задач глубокого анализа кода и интенсивного логического вывода, где требуется баланс между производительностью и затратами на оборудование.

С рекомендации по использованию модели от разработчиков можно ознакомиться по этой ссылке -  https://ai.google.dev/gemma/docs/core/model_card_4?hl=ru


Дата анонса: 11.03.2026
Параметров: 27B
Экспертов: 128
Активно параметров при инференсе: 4B
Контекст: 263K
Слоев: 30, с полным вниманием: 5
Тип внимания: Sliding Window Attention
Разработчик: Google DeepMind
Версия Transformers: 5.5.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с gemma-4-26B-A4B-it. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга gemma-4-26B-A4B-it

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-3.32.64.160
262 144
pipeline
3 78,57 ₽ 1,82 Запустить
teslaa10-2.16.64.160
262 144
tensor
2 83,37 ₽ 2,03 Запустить
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 2,83 Запустить
teslaa2-3.32.128.160
262 144
pipeline
3 94,64 ₽ 1,82 Запустить
rtx2080ti-4.16.32.160
262 144
tensor
4 99,74 ₽ 1,30 Запустить
teslav100-1.12.64.160
262 144
1 107,57 ₽ 1,02 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 2,03 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 2,83 Запустить
rtx3090-2.16.64.160
262 144
tensor
2 139,77 ₽ 2,03 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 1,02 Запустить
rtx3080-4.16.64.160
262 144
tensor
4 162,57 ₽ 0,99 Запустить
rtx4090-2.16.64.160
262 144
tensor
2 171,77 ₽ 2,03 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 4,69 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 4,69 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 5,77 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 9,36 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-2.16.64.160
262 144
tensor
2 83,37 ₽ 0,98 Запустить
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 1,78 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 0,98 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 1,78 Запустить
rtx3090-2.16.64.160
262 144
tensor
2 139,77 ₽ 0,98 Запустить
rtx4090-2.16.64.160
262 144
tensor
2 171,77 ₽ 0,98 Запустить
teslav100-2.16.64.240
262 144
tensor
2 198,54 ₽ 2,20 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 3,64 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 2,20 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 3,64 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 4,71 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 8,31 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.64.160
262 144
tensor
4 144,97 ₽ 2,41 Запустить
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,98 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 2,41 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 1,82 Запустить
rtx3090-4.16.64.160
262 144
tensor
4 257,77 ₽ 2,41 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 2,41 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 1,82 Запустить
teslav100-3.64.256.320
262 144
pipeline
3 347,52 ₽ 2,62 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 2,89 Запустить
teslav100-4.32.64.160
262 144
tensor
4 382,57 ₽ 4,86 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 2,62 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 6,49 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 4,86 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.