Ministral-3-8B-Reasoning-2512 построена по той же архитектуре, что и старшая модель: языковая часть насчитывает 8,4 млрд параметров, а визуальный энкодер — 0,4 млрд параметров. Модель получена методом каскадной дистилляции из Mistral Small 3.1 (24B) через промежуточную стадию — сначала родительская модель прореживается (pruning) до размера 14B, затем проводится дальнейшее прореживание до 8B с параллельной дистилляцией знаний на каждом этапе. Такой двухступенчатый процесс обеспечивает эффективный перенос знаний при значительном сокращении вычислительных затрат на обучение. Модель – полноценная reasoning-версия модели, прошедшая пост-тренировку для решения задач, требующих сложных рассуждений — математика, программирование, естественно-научные дисциплины. Модель поддерживает десятки языков, строго следует системным промптам и предлагает агентные возможности с нативной поддержкой вызова функций и вывода в JSON. Контекстное окно в 256k токенов позволяет обрабатывать большие объёмы информации в рамках одного сеанса.
На бенчмарке LiveCodeBench (оценка способности генерировать и понимать программный код) Ministral-3-8B набирает 0,616, опережая Qwen3-VL-8B-Thinking с результатом 0,580. На математических тестах AIME25 и AIME24 модель показывает 0,787 и 0,860 соответственно, что сопоставимо с показателями Qwen3-VL-8B-Thinking (0,798 и 0,860). На GPQA Diamond результат составляет 0,668 чуть ниже, чем у вышеуказанного конкурента - 0,671.
Разработчики рекомендуют при работе с визуальным вводом придерживаться соотношения сторон, близкого к 1:1, и при необходимости обрезать изображения для оптимальной производительности. Для максимальной эффективности рассуждений рекомендуется использовать прилагаемый системный промпт https://huggingface.co/mistralai/Ministral-3-8B-Reasoning-2512/blob/main/SYSTEM_PROMPT.txt , дополняя его кастомными инструкциями для чёткого определения среды и сценария использования, включая указания по эффективной работе с инструментами в агентных системах. При многошаговых взаимодействиях необходимо сохранять цепочки рассуждений (reasoning traces) в контексте диалога. Рекомендованная температура сэмплирования составляет 0,7 для большинства окружений. Как и для других моделей семейства, набор используемых инструментов должен быть чётко определён и ограничен минимально необходимым количеством.
Ministral-3-8B идеально подходит для работы в локальных системах, сочетая универсальность с эффективностью. Основные сценарии включают: чат-интерфейсы в средах с ограниченными ресурсами, локальные AI-ассистенты для повседневного использования, описание и понимание изображений/документов, перевод и генерацию контента, специализированные агентные приложения, а также файн-тюнинг под конкретные задачи.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 tensor |
4 | 85,77 ₽ | 1,20 | Запустить | ||
262 144 tensor |
4 | 112,24 ₽ | 1,20 | Запустить | ||
262 144 pipeline |
3 | 119,81 ₽ | 1,48 | Запустить | ||
262 144 tensor |
4 | 139,96 ₽ | 2,05 | Запустить | ||
262 144 pipeline |
3 | 204,41 ₽ | 1,48 | Запустить | ||
262 144 tensor |
4 | 209,04 ₽ | 2,05 | Запустить | ||
262 144 |
1 | 211,77 ₽ | 1,84 | Запустить | ||
262 144 pipeline |
3 | 252,41 ₽ | 1,48 | Запустить | ||
262 144 tensor |
4 | 257,77 ₽ | 2,05 | Запустить | ||
262 144 tensor |
2 | 261,77 ₽ | 1,35 | Запустить | ||
262 144 tensor |
4 | 321,77 ₽ | 2,05 | Запустить | ||
262 144 |
1 | 341,77 ₽ | 1,84 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 2,21 | Запустить | ||
262 144 tensor |
2 | 411,81 ₽ | 3,89 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 3,46 | Запустить | ||
262 144 tensor |
2 | 839,97 ₽ | 7,12 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 pipeline |
3 | 119,81 ₽ | 1,09 | Запустить | ||
262 144 tensor |
4 | 144,97 ₽ | 1,65 | Запустить | ||
262 144 pipeline |
6 | 147,44 ₽ | 1,50 | Запустить | ||
262 144 pipeline |
3 | 204,41 ₽ | 1,09 | Запустить | ||
262 144 tensor |
4 | 209,04 ₽ | 1,65 | Запустить | ||
262 144 |
1 | 211,77 ₽ | 1,45 | Запустить | ||
262 144 pipeline |
3 | 252,41 ₽ | 1,09 | Запустить | ||
262 144 tensor |
4 | 257,77 ₽ | 1,65 | Запустить | ||
262 144 tensor |
4 | 321,77 ₽ | 1,65 | Запустить | ||
262 144 |
1 | 341,77 ₽ | 1,45 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 1,82 | Запустить | ||
262 144 pipeline |
3 | 387,41 ₽ | 1,72 | Запустить | ||
262 144 tensor |
2 | 411,81 ₽ | 3,49 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 3,06 | Запустить | ||
262 144 tensor |
4 | 513,04 ₽ | 2,50 | Запустить | ||
262 144 tensor |
2 | 839,97 ₽ | 6,72 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 pipeline |
6 | 147,44 ₽ | 1,12 | Запустить | ||
262 144 tensor |
4 | 156,24 ₽ | 1,27 | Запустить | ||
262 144 tensor |
4 | 209,04 ₽ | 1,27 | Запустить | ||
262 144 |
1 | 223,04 ₽ | 1,07 | Запустить | ||
262 144 tensor |
4 | 264,96 ₽ | 1,27 | Запустить | ||
262 144 tensor |
4 | 328,96 ₽ | 1,27 | Запустить | ||
262 144 |
1 | 353,04 ₽ | 1,07 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 1,44 | Запустить | ||
262 144 pipeline |
3 | 387,41 ₽ | 1,34 | Запустить | ||
262 144 tensor |
2 | 411,81 ₽ | 3,11 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 2,68 | Запустить | ||
262 144 tensor |
4 | 513,04 ₽ | 2,12 | Запустить | ||
262 144 tensor |
2 | 839,97 ₽ | 6,34 | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.