gemma-4-E2B-it

размышляющая
мультимодальная
русскоязычная

Gemma-4-E2B-it — это самая компактная и энергоэффективная модель в линейке, предназначенная для работы в условиях предельно ограниченных ресурсов. Как и версия  E4B, модель использует технику Per-Layer Embeddings (PLE), позволяющую достичь высокой производительности при минимальном потреблении памяти. Общий объем параметров модели составляет 5.1 миллиарда, но во время вывода активна лишь эффективная часть — 2.3 миллиарда. Модель построена на 35 слоях, поддерживает контекстное окно в 128 тысяч токенов и использует гибридное внимание со скользящим окном на 512 токенов.

E2B является полностью мультимодальной и способна обрабатывать не только текст и изображения, но и аудио (оснащена аудио-энкодером на ~300M параметров). Этот набор возможностей при крайне низких требованиях к памяти делает модель уникальной в своём классе. Разработчики подчеркивают, что E2B специально спроектирована для эффективного локального использования на ноутбуках и мобильных устройствах. По оценкам сообщества, модель способна работать на устройствах с оперативной памятью менее 1.5 ГБ, включая смартфоны.

Несмотря на скромный размер, E2B демонстрирует впечатляющие результаты. По многочисленным независимым оценкам сообщества, эта модель превосходит Gemma-3 27B в некоторых задачах несмотря на то, что её эффективный размер в 12 раз меньше. Разработчики особенно рекомендуют E2B для рутинных агентных процессов, задач оптического распознавания символов (OCR) и сценариев, где критически важны низкая задержка и возможность инференса на периферийных устройствах. При этом лицензия Apache 2.0 открывает широкие возможности для внедрения модели в самые разнообразные коммерческие приложения.

С рекомендации по использованию модели от разработчиков можно ознакомиться по этой ссылке -  https://ai.google.dev/gemma/docs/core/model_card_4?hl=ru


Дата анонса: 02.03.2026
Параметров: 6B
Контекст: 132K
Слоев: 35, с полным вниманием: 7
Тип внимания: Sliding Window Attention
Разработчик: Google DeepMind
Версия Transformers: 5.5.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с gemma-4-E2B-it. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга gemma-4-E2B-it

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
131 072
1 29,33 ₽ 4,61 Запустить
teslaa2-1.16.32.160
131 072
1 33,74 ₽ 4,61 Запустить
teslaa10-1.16.32.160
131 072
1 46,94 ₽ 11,11 Запустить
rtx2080ti-2.12.64.160
131 072
tensor
2 61,37 ₽ 7,22 Запустить
rtx3090-1.16.24.160
131 072
1 73,73 ₽ 11,11 Запустить
rtx3080-2.16.32.160
131 072
tensor
2 86,54 ₽ 5,60 Запустить
rtx4090-1.16.32.160
131 072
1 91,14 ₽ 11,11 Запустить
teslav100-1.12.64.160
131 072
1 107,57 ₽ 17,61 Запустить
rtxa5000-2.16.64.160.nvlink
131 072
tensor
2 109,77 ₽ 28,35 Запустить
rtx5090-1.16.64.160
131 072
1 141,77 ₽ 17,61 Запустить
teslaa100-1.16.64.160
131 072
1 211,77 ₽ 56,62 Запустить
h100-1.16.64.160
131 072
1 341,77 ₽ 56,62 Запустить
h100nvl-1.16.96.160
131 072
1 367,41 ₽ 68,00 Запустить
h200-1.16.128.160
131 072
1 423,04 ₽ 106,20 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
131 072
1 29,33 ₽ 3,04 Запустить
teslaa2-1.16.32.160
131 072
1 33,74 ₽ 3,04 Запустить
teslaa10-1.16.32.160
131 072
1 46,94 ₽ 9,55 Запустить
rtx2080ti-2.12.64.160
131 072
tensor
2 61,37 ₽ 5,66 Запустить
rtx3090-1.16.24.160
131 072
1 73,73 ₽ 9,55 Запустить
rtx3080-2.16.32.160
131 072
tensor
2 86,54 ₽ 4,04 Запустить
rtx4090-1.16.32.160
131 072
1 91,14 ₽ 9,55 Запустить
teslav100-1.12.64.160
131 072
1 107,57 ₽ 16,05 Запустить
rtxa5000-2.16.64.160.nvlink
131 072
tensor
2 109,77 ₽ 26,79 Запустить
rtx5090-1.16.64.160
131 072
1 141,77 ₽ 16,05 Запустить
teslaa100-1.16.64.160
131 072
1 211,77 ₽ 55,06 Запустить
h100-1.16.64.160
131 072
1 341,77 ₽ 55,06 Запустить
h100nvl-1.16.96.160
131 072
1 367,41 ₽ 66,44 Запустить
h200-1.16.128.160
131 072
1 423,04 ₽ 104,63 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
131 072
1 29,33 ₽ 2,13 Запустить
teslaa2-1.16.32.160
131 072
1 33,74 ₽ 2,13 Запустить
teslaa10-1.16.32.160
131 072
1 46,94 ₽ 8,63 Запустить
rtx2080ti-2.12.64.160
131 072
tensor
2 61,37 ₽ 4,75 Запустить
rtx3090-1.16.24.160
131 072
1 73,73 ₽ 8,63 Запустить
rtx3080-2.16.32.160
131 072
tensor
2 86,54 ₽ 3,12 Запустить
rtx4090-1.16.32.160
131 072
1 91,14 ₽ 8,63 Запустить
teslav100-1.12.64.160
131 072
1 107,57 ₽ 15,13 Запустить
rtxa5000-2.16.64.160.nvlink
131 072
tensor
2 109,77 ₽ 25,88 Запустить
rtx5090-1.16.64.160
131 072
1 141,77 ₽ 15,13 Запустить
teslaa100-1.16.64.160
131 072
1 211,77 ₽ 54,14 Запустить
h100-1.16.64.160
131 072
1 341,77 ₽ 54,14 Запустить
h100nvl-1.16.96.160
131 072
1 367,41 ₽ 65,52 Запустить
h200-1.16.128.160
131 072
1 423,04 ₽ 103,72 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.