MiniMax-M2.1

размышляющая
русскоязычная

MiniMax-M2.1 фундаментальная языковая модель, разработанная специально для задач программирования, сфокусированная на глубоком понимании полного цикла реальной разработки. Обучение M2.1 было нацелено на создание по-настоящему полезного ИИ-ассистента, способного работать со сложными, мультиязычными проектами и адаптироваться к рабочему процессу разработчика. В основе модели лежит архитектура полного внимания (full attention), выбор которой разработчики объясняют критической важностью понимания глобального контекста для сложных инженерных задач. В отличие от разреженных архитектур, полное внимание позволяет модели одновременно учитывать тысячи токенов из разных файлов, спецификаций, истории коммитов и инструкций,

Главное отличие M2.1 от других LLM и предыдущей версии M2 — это переход от оценки "код скомпилировался" к оценке "приложение работает и им можно пользоваться". Специально для этого авторами был разработан новый бенчмарк VIBE Bench, который проверяет не просто синтаксис, а способность модели создать полностью функционирующее приложение, протестированное автоматическим агентом (Agent-as-a-Verifier) на трёх уровнях: исполнение, интерактивность и визуальное качество. В этом тесте M2.1 уверенно занимает первое место, обходя гораздо более мощные open-source и проприетарные модели.  M2.1 также решает проблему "переобучения под конкретный фреймворк", демонстрируя универсальность и стабильно высокие результаты на разных инструментах и с разными языками программирования. На бенчмарке Multi-SWE-Bench, оценивающем способность решать реальные проблемы из репозиториев на нескольких языках, M2.1 значительно обогнала многие закрытые модели и стала новым стандартом, подтвердив свою эффективность в разработке ПО.

Благодаря своим особенностям MiniMax-M2.1 открывает широкий спектр возможностей для разработчиков, включая full-stack разработку приложений — генерацию прототипов и готовых к промышленной эксплуатации приложений; автоматизацию code review для поиска ошибок и узких мест в коде; рефакторинг и оптимизацию легаси-кода с одновременным улучшением производительности и читаемости; написание тестов и документации; и выполнение роли мультиязычного ИИ-агента, интегрируемого в IDE (например, Cursor) или CI/CD пайплайны для решения сложных многошаговых задач, требующих одновременной работы с несколькими языками и фреймворками.


Дата анонса: 20.12.2025
Параметров: 229B
Экспертов: 256
Активно параметров при инференсе: 10B
Контекст: 197K
Слоев: 62
Тип внимания: Full Attention
Разработчик: MiniMax-AI
Версия Transformers: 4.46.1
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с MiniMax-M2.1. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга MiniMax-M2.1

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-3.32.384.240
196 608
tensor
3 657,66 ₽ 1,98 Запустить
h100nvl-2.24.192.240
196 608
tensor
2 729,47 ₽ 1,03 Запустить
h200-2.24.256.240
196 608
tensor
2 840,74 ₽ 2,85 Запустить
rtx5090-8.44.256.240
196 608
tensor
8 1 031,74 ₽ 2,02 Запустить
h100-3.32.384.240
196 608
tensor
3 1 047,66 ₽ 1,98 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-4.32.384.320.nvlink
196 608
tensor
4 848,44 ₽ 1,37 Запустить
h200-3.32.512.480
196 608
tensor
3 1 282,53 ₽ 3,42 Запустить
h100-4.44.512.320
196 608
tensor
4 1 397,57 ₽ 1,37 Запустить
h100nvl-4.32.384.480
196 608
tensor
4 1 450,00 ₽ 2,45 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-8.44.704.960.nvlink
196 608
tensor
8 1 677,58 ₽ 2,79 Запустить
h200-4.32.768.640
196 608
tensor
4 1 719,14 ₽ 1,54 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.