Llama 4 Maverick

мультимодальная
русскоязычная

Llama 4 Maverick — это универсальная модель в новом поколении семейства Llama 4, вышедшем в апреле 2025 года. В отличие от более компактного Scout, Maverick создан для тех, кому требуется максимальная производительность и вычислительная мощность. Модель использует архитектуру MoE с 128 экспертами, имеет 400 миллиардов параметров в общей сложности – это делает ее одной из самых масштабных открытых моделей на рынке. Однако на каждом шаге активными являются только 17 миллиардов параметров, что существенно уменьшает задержки на выводе и снижает требования по ресурсам. Как и все модели серии Maverik поддерживает нативную мультимодальность, что позволяет легко подавать на вход и обрабатывать изображения совместно с текстом поддержка изображений.
Благодаря своей масштабной архитектуре Maverick предлагает последовательность и глубину рассуждений, точность и безопасность ответов. Модель демонстрирует достойные результаты в сложных задачах логического мышления, математики и программирования, опережая предыдущие поколения LLM и основных конкурентов по ряду ключевых метрик.
В состав модели входят передовые разработки для обеспечения безопасности: Llama Guard 4 (12B) — для фильтрации небезопасного контента и Llama Prompt Guard 2 (22M и 86M) — для защиты от манипулятивных или вредоносных входных данных.

Llama 4 Maverick идеально подходит для сложных корпоративных решений и масштабных проектов, где требуется глубокое понимание и точное исполнение задач.


Дата анонса: 05.04.2025
Параметров: 402B
Экспертов: 128
Активно параметров при инференсе: 17B
Контекст: 1049K
Слоев: 48, с полным вниманием: 12
Тип внимания: Chunked Attention
Разработчик: Meta AI
Версия Transformers: 4.51.0
Лицензия: LLAMA 4

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Llama 4 Maverick. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Llama 4 Maverick

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-4.16.256.480
250 000
tensor
4 818,68 ₽ 67,50 4,53 Запустить
h200-2.24.256.320
250 000
tensor
2 841,52 ₽ 2,39 Запустить
teslaa100-4.32.384.320.nvlink
1 048 576
tensor
4 848,44 ₽ 67,50 1,23 Запустить
h100nvl-3.24.384.480
250 000
pipeline
3 1 105,60 ₽ 2,21 Запустить
h200-3.32.512.480
1 048 576
pipeline
3 1 282,53 ₽ 3,13 Запустить
h100-4.16.256.480
250 000
tensor
4 1 338,68 ₽ 54,46 4,53 Запустить
h100-4.44.512.320
1 048 576
tensor
4 1 397,57 ₽ 54,46 1,23 Запустить
h100nvl-4.32.384.480
1 048 576
tensor
4 1 450,00 ₽ 2,24 Запустить
h200-4.32.768.480
1 048 576
tensor
4 1 717,59 ₽ 5,60 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-6.44.512.480.nvlink
250 000
pipeline
6 1 259,13 ₽ 2,11 Запустить
teslaa100-8.44.512.480.nvlink
1 048 576
tensor
8 1 639,13 ₽ 3,34 Запустить
h200-4.32.768.480
1 048 576
tensor
4 1 717,59 ₽ 2,18 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
h200-8.52.1024.960
1 048 576
tensor
8 3 338,30 ₽ 3,83 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.