Ministral-3-14B-Reasoning-2512

размышляющая
мультимодальная

Ministral-3-14B-Reasoning-2512 — это флагманская модель в линейке Ministral 3, представляющая собой reasoning-вариант с пост-тренировкой, специально оптимизированный для решения сложных задач, требующих многошаговых рассуждений. Модель построена по модульной архитектуре, включающей два основных компонента: языковую модель с 13.5B параметров и визуальный энкодер с 0.4B параметров. Модель эффективно анализирует изображения и предоставляет выводы на основе визуального контента. Ключевой технической особенностью является применение метода Cascade Distillation — итеративной дистилляции и прунинга, позволившей получить модель из родительской Mistral Small 3.1 (24B) с сохранением высокого качества при сокращении размера более чем на 40%. Модель поддерживает десятки языков, демонстрирует строгое следование системным промптам и обладает хорошими агентными возможностями — встроенная поддержка вызова функций (function calling) и вывода в формате JSON. Контекстное окно в 256k токенов позволяет обрабатывать объёмные документы и вести продолжительные диалоги.

С точки зрения бенчмарков, Ministral-3-14B-Reasoning демонстрирует отличные результаты. На математических тестах AIME 2024 и AIME 2025 модель достигает 89.8% и 85.0% соответственно, что подтверждает её способность решать сложные олимпиадные задачи. В области научного мышления (GPQA Diamond) показатель составляет 71.2%, а в задачах на программирование (LiveCodeBench) — 64.6%. Согласно техническому отчёту, на момент выпуска, модель превосходит все известные аналоги сопоставимой размерности.

Разработчики рекомендуют при работе с изображениями поддерживать соотношение сторон, близкое к 1:1 (ширина/высота), избегая излишне узких или широких кадров — при необходимости изображения следует обрезать для оптимальной производительности. При многошаговых диалогах крайне важно сохранять цепочки рассуждений (reasoning traces) в контексте. Для большинства задач рекомендуется задавать системный промпт, определяющий порядок размышлений (пример от разработчиков https://huggingface.co/mistralai/Ministral-3-14B-Reasoning-2512/blob/main/SYSTEM_PROMPT.txt ) и устанавливать температуру сэмплирования 1, однако эксперименты вполне допустимы. При работе с инструментами следует ограничивать их набор минимально необходимым количеством, избегая перегрузки модели избыточным числом функций. Модель особенно эффективна в областях, связанных с математикой, программированием и других задачах, где требуется глубокое пошаговое рассуждение в связке с необходимостью анализировать изображения.


Дата анонса: 31.10.2025
Параметров: 14B
Контекст: 263K
Слоев: 40
Тип внимания: Full Attention
Разработчик: Mistral AI
Версия Transformers: 5.0.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Ministral-3-14B-Reasoning-2512. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Ministral-3-14B-Reasoning-2512

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-3.16.96.160
262 144
pipeline
3 119,81 ₽ 1,20 Запустить
teslaa10-4.16.64.160
262 144
tensor
4 144,97 ₽ 1,68 Запустить
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,56 Запустить
rtx3090-3.16.96.160
262 144
pipeline
3 204,41 ₽ 1,20 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,68 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 1,51 Запустить
rtx4090-3.16.96.160
262 144
pipeline
3 252,41 ₽ 1,20 Запустить
rtx3090-4.16.64.160
262 144
tensor
4 257,77 ₽ 1,68 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 1,09 Запустить
rtx4090-4.16.64.160
262 144
tensor
4 321,77 ₽ 1,68 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 1,51 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,82 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 3,25 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 2,88 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 5,99 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,02 Запустить
teslaa10-4.16.128.160
262 144
tensor
4 156,24 ₽ 1,14 Запустить
rtxa5000-4.16.128.160.nvlink
262 144
tensor
4 209,04 ₽ 1,14 Запустить
rtx3090-4.16.96.320
262 144
tensor
4 264,96 ₽ 1,14 Запустить
rtx4090-4.16.96.320
262 144
tensor
4 328,96 ₽ 1,14 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 1,28 Запустить
rtx5090-3.16.96.160
262 144
pipeline
3 387,41 ₽ 1,20 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 2,71 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 2,34 Запустить
teslaa100-2.24.256.160
262 144
tensor
2 439,97 ₽ 2,71 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,86 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 2,71 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 5,45 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
rtxa5000-6.24.192.160.nvlink
262 144
pipeline
6 312,70 ₽ 1,57 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 2,18 Запустить
rtxa5000-8.24.256.160.nvlink
262 144
tensor
8 411,97 ₽ 2,52 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 1,81 Запустить
teslaa100-2.24.256.160
262 144
tensor
2 439,97 ₽ 2,18 Запустить
rtx5090-4.16.128.160
262 144
tensor
4 513,04 ₽ 1,33 Запустить
rtx4090-6.44.256.160
262 144
pipeline
6 520,97 ₽ 1,57 Запустить
rtx4090-8.44.256.160
262 144
tensor
8 670,97 ₽ 2,52 Запустить
h100-2.24.256.160
262 144
tensor
2 699,97 ₽ 2,18 Запустить
h100nvl-2.24.192.240
262 144
tensor
2 729,47 ₽ 2,81 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 4,92 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.