Ministral-3-14B-Instruct-2512

мультимодальная

Ministral-3-14B-Instruct-2512 — флагманская модель семейства Ministral 3, демонстрирующая производительность, сопоставимую с более крупной Mistral Small 3.2 24B, при значительно меньшем размере. Модель состоит из двух архитектурных компонентов: текстовой LLM на 13,5 млрд параметров и визуального энкодера на 0,4 млрд параметров, что обеспечивает нативную мультимодальность. Поддерживает контекстное окно до 256 000 токенов, что позволяет обрабатывать объемные документы и вести длинные диалоги. Благодаря оптимизации для периферийных вычислений модель способна работать локально, занимая менее 24 ГБ видеопамяти в формате int4 (в формате FP8, а именно в таком формате модель поставляется разработчиками, веса модели занимают около 30 GiB). Распространяется под лицензией Apache 2.0. Архитектурная уникальность Ministral 3 в применении метода Cascade Distillation — итеративного прунинга и дистилляции знаний из более крупной родительской модели (Mistral Small 3.1) в компактные дочерние модели. Этот подход позволяет достичь производительности, конкурентоспособной с моделями, обученными на значительно большем объеме токенов (36 трлн для Qwen3, 15 трлн для Llama3), при этом Ministral 3 обучена всего на 1–3 трлн токенов.

Модель демонстрирует лидирующие результаты в ключевых бенчмарках. Arena Hard (0.551) оценивает способность модели следовать инструкциям в сложных сценариях — здесь Ministral 3 14B превосходит Qwen3 14B (0.427) и Gemma3 12B (0.436). WildBench (68.5) проверяет общие диалоговые навыки в открытых доменах — модель также занимает первое место среди аналогов. На математическом бенчмарке MATH Maj@1 модель достигает 0.904, уступая лишь Qwen3-VL-8B-Instruct (0.946).

Разработчики рекомендуют использовать для продуктивных сред temperature ниже 0.1, но более высокие значения допустимы для творческих задач, ограничивать количество инструментов минимально необходимым. Для изображений рекомендуется соотношение сторон, близкое к 1:1. Сценарии использования включают AI-ассистентов и чат-системы, продвинутые агентные функции. В целом модель отлично подходит для решений enterprise уровня, требующих мультимодального понимания и высокой производительности при ограниченных ресурсах.


Дата анонса: 31.10.2025
Параметров: 14B
Контекст: 263K
Слоев: 40
Тип внимания: Full Attention
Разработчик: Mistral AI
Версия Transformers: 5.0.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Ministral-3-14B-Instruct-2512. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Ministral-3-14B-Instruct-2512

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-3.16.96.160
262 144
pipeline
3 119,81 ₽ 1,11 Запустить
teslaa10-4.16.64.160
262 144
tensor
4 144,97 ₽ 1,59 Запустить
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,46 Запустить
rtx3090-3.16.96.160
262 144
pipeline
3 204,41 ₽ 1,11 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,59 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 1,42 Запустить
rtx4090-3.16.96.160
262 144
pipeline
3 252,41 ₽ 1,11 Запустить
rtx3090-4.16.64.160
262 144
tensor
4 257,77 ₽ 1,59 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 0,99 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 1,59 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 1,42 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,73 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 2,79 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,05 Запустить
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 1,18 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,18 Запустить
teslaa100-1.16.128.160
262 144
1 223,04 ₽ 1,01 Запустить
rtx3090-4.16.96.320
262 144
tensor
4 264,96 ₽ 1,18 Запустить
rtx4090-4.16.96.320
262 144
tensor
4 328,96 ₽ 1,18 Запустить
h100-1.16.128.160
262 144
1 353,04 ₽ 1,01 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,32 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 1,24 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 2,38 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,90 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
pipeline
6 312,70 ₽ 1,57 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 2,18 Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
8 411,97 ₽ 2,52 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 1,81 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,33 Запустить
rtx4090-6.44.256.160
262 144
pipeline
6 520,97 ₽ 1,57 Запустить
rtx4090-8.44.256.160
262 144
tensor
8 670,97 ₽ 2,52 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 2,18 Запустить
h100nvl-2.24.192.240
262 144
tensor
2 729,47 ₽ 2,81 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.