Llama 4 Maverick

мультимодальная
русскоязычная

Llama 4 Maverick — это универсальная модель в новом поколении семейства Llama 4, вышедшем в апреле 2025 года. В отличие от более компактного Scout, Maverick создан для тех, кому требуется максимальная производительность и вычислительная мощность. Модель использует архитектуру MoE с 128 экспертами, имеет 400 миллиардов параметров в общей сложности – это делает ее одной из самых масштабных открытых моделей на рынке. Однако на каждом шаге активными являются только 17 миллиардов параметров, что существенно уменьшает задержки на выводе и снижает требования по ресурсам. Как и все модели серии Maverik поддерживает нативную мультимодальность, что позволяет легко подавать на вход и обрабатывать изображения совместно с текстом поддержка изображений.
Благодаря своей масштабной архитектуре Maverick предлагает последовательность и глубину рассуждений, точность и безопасность ответов. Модель демонстрирует достойные результаты в сложных задачах логического мышления, математики и программирования, опережая предыдущие поколения LLM и основных конкурентов по ряду ключевых метрик.
В состав модели входят передовые разработки для обеспечения безопасности: Llama Guard 4 (12B) — для фильтрации небезопасного контента и Llama Prompt Guard 2 (22M и 86M) — для защиты от манипулятивных или вредоносных входных данных.

Llama 4 Maverick идеально подходит для сложных корпоративных решений и масштабных проектов, где требуется глубокое понимание и точное исполнение задач.


Дата анонса: 05.04.2025
Параметров: 402B
Экспертов: 128
Активно параметров при инференсе: 17B
Контекст: 1M
Слоев: 48, с полным вниманием: 12
Тип внимания: Chunked Attention
Потребление памяти: 268.9 ГБ в точности 4 бит
Разработчик: Meta AI
Версия Transformers: 4.51.0
Лицензия: LLAMA 4

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Llama 4 Maverick. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Llama 4 Maverick

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-4.16.256.480
250 000
16 262144 480 4 894,68 ₽ Запустить
teslaa100-4.32.384.320.nvlink
1 048 576
32 393216 320 4 924,44 ₽ Запустить
h200-2.24.256.320
250 000
24 262144 320 2 1 241,52 ₽ Запустить
teslah100-4.16.256.480
250 000
16 262144 480 4 1 796,68 ₽ Запустить
teslah100-4.44.512.320
1 048 576
44 524288 320 4 1 855,57 ₽ Запустить
h200-3.32.512.480
1 048 576
32 524288 480 3 1 882,53 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-6.44.512.480.nvlink
250 000
44 524288 480 6 1 373,13 ₽ Запустить
teslaa100-8.44.512.480.nvlink
1 048 576
44 524288 480 8 1 791,13 ₽ Запустить
h200-4.32.768.480
1 048 576
32 786432 480 4 2 517,59 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-1.16.32.160
250 000
16 32768 160 1 46,94 ₽ Запустить
teslat4-2.16.32.160
250 000
16 32768 160 2 48,14 ₽ Запустить
teslaa2-2.16.32.160
250 000
16 32768 160 2 51,34 ₽ Запустить
rtx2080ti-2.12.64.160
250 000
12 65536 160 2 61,37 ₽ Запустить
rtx3090-1.16.24.160
250 000
16 24576 160 1 78,53 ₽ Запустить
rtx4090-1.16.32.160
250 000
16 32768 160 1 103,04 ₽ Запустить
teslav100-1.12.64.160
250 000
12 65536 160 1 107,57 ₽ Запустить
rtxa5000-2.16.64.160.nvlink
250 000
16 65536 160 2 109,77 ₽ Запустить
teslaa10-3.16.96.160
1 048 576
16 98304 160 3 119,81 ₽ Запустить
rtx3080-3.16.64.160
250 000
16 65536 160 3 127,37 ₽ Запустить
rtx5090-1.16.64.160
250 000
16 65536 160 1 141,77 ₽ Запустить
teslaa2-6.32.128.160
1 048 576
32 131072 160 6 147,44 ₽ Запустить
teslav100-2.16.64.240
1 048 576
16 65535 240 2 198,54 ₽ Запустить
rtxa5000-4.16.128.160.nvlink
1 048 576
16 131072 160 4 209,04 ₽ Запустить
rtx3090-3.16.96.160
1 048 576
16 98304 160 3 218,81 ₽ Запустить
teslaa100-1.16.64.160
1 048 576
16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160
1 048 576
16 65536 160 2 261,77 ₽ Запустить
rtx4090-3.16.96.160
1 048 576
16 98304 160 3 288,11 ₽ Запустить
teslah100-1.16.64.160
1 048 576
16 65536 160 1 456,27 ₽ Запустить
h200-1.16.128.160
1 048 576
16 131072 160 1 623,04 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.