MiniMax-M2.7

размышляющая
русскоязычная
для кодинга

MiniMax M2.7 — это флагманская модель компании MiniMax в основе которой лежит разреженная архитектура Mixture-of-Experts (MoE). При общем объёме в 230 миллиардов параметров на каждый токен активируется лишь 10 миллиардов (менее 5%). Это обеспечивает эффективность и скорость, характерные для более компактных моделей, при сохранении внушительного объема знаний. Разработчики позиционирует M2.7 как первую крупную языковую моделью, которая активно участвовала в собственной эволюции. То есть она была интегрирована в процесс своего создания: модель самостоятельно обновляла собственную память, выстраивала десятки сложных навыков в рамках агентной «обвязки» (Agent Harness) и помогала команде разработки в проведении RL-экспериментов, анализе метрик и отладке. Этот замкнутый цикл, в котором модель анализирует свои сбои, правит код и повторно оценивает результат, привёл к росту эффективности на 30% без участия человека. Такой подход знаменует переход от статичных, «застывших» моделей к динамическим системам, способным к постоянному самосовершенствованию. В отличие от большинства конкурентов, делающих ставку на гибридные или эффективные механизмы внимания, MiniMax в серии M2 приняла принципиальное решение использовать «чистое» полное внимание (full attention), пожертвовав теоретической вычислительной эффективностью ради гарантированной стабильности и высокого качества в сложных сценариях — особенно в задачах, требующих длинных цепочек рассуждений и взаимодействия с агентами.

Ключевой вектор развития M2.7 — это глубинная агентность. В то время как большинство моделей, позиционирующихся как «агентные», ограничиваются вызовом нескольких внешних функций, M2.7 спроектирована для создания и управления сложными агентными «обвязками» (Harnesses). Модель способна самостоятельно выстраивать многоуровневые рабочие процессы, управлять командами из нескольких агентов (Agent Teams) и оперировать более чем 40 комплексными навыками (Skills), каждый из которых может превышать 2000 токенов, поддерживая при этом впечатляющий 97-процентный уровень следования инструкциям (skill adherence). Это позволяет M2.7 не просто выполнять отдельные команды, а брать на себя роль «дирижёра» сложных, многокомпонентных производственных задач. Отдельного внимания заслуживает фокус модели на профессиональные офисные задачи (Professional Office Domain). Это не просто умение открыть документ, а способность выполнять сложное, высокоточное редактирование в Excel, PowerPoint и Word с сохранением форматирования и поддержкой многократных правок. M2.7 обучена вести себя как аналитик: она способна прочитать финансовую отчётность компании, выявить тренды, построить предиктивную модель в Excel и подготовить на её основе полноценную презентацию и текстовый отчёт. Это выводит автоматизацию офисной работы на принципиально новый уровень, сокращая разрыв между пониманием задачи и готовым бизнес-результатом.

Эти возможности подтверждаются выдающимися результатами в независимых тестах. В бенчмарке SWE-Pro, который проверяет способность решать реальные задачи по программной инженерии в сложных репозиториях, M2.7 набрала 56.22%, вплотную приблизившись к лучшим результатам Claude 4.6 и GPT-5.4, а в бенчмарке Multi-SWE-Bench и вовсе выбилась в лидеры с показателем 52.7. Таким образом, M2.7 — это универсальный инструмент для профессионалов, который предлагает производительность топовых закрытых моделей.

M2.7 идеально подходит для автономной разработки программного обеспечения — от рефакторинга кода и анализа логов до сквозного ведения проектов с использованием инструментов. Благодаря нативной поддержке Agent Teams, обширной библиотеке сложных навыков и динамическому поиску инструментов, она служит надёжной основой для построения многоуровневых агентных систем, способных координировать работу нескольких «специалистов» в сложных бизнес-процессах. Модель также ориентирована на продвинутую офисную автоматизацию, включая редактирование документов Excel, Word и PowerPoint, создание финансовых моделей и сложных отчётов на основе данных. В исследовательской и R&D-деятельности M2.7 выступает в роли полноценного ассистента, помогая с обзором литературы, планированием экспериментов и анализом результатов, а усиленная согласованность персонажей и эмоциональный интеллект делают её отличным выбором для интерактивных платформ вроде OpenRoom и других творческих проектов.


Дата анонса: 09.04.2026
Параметров: 229B
Экспертов: 256
Активно параметров при инференсе: 10B
Контекст: 197K
Слоев: 62
Тип внимания: Full Attention
Разработчик: MiniMax-AI
Версия Transformers: 4.46.1
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с MiniMax-M2.7. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга MiniMax-M2.7

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-3.32.384.240
196 608
tensor
3 657,66 ₽ 1,87 Запустить
h200-2.24.256.240
196 608
tensor
2 840,74 ₽ 2,74 Запустить
h200-2.24.256.240.nvlink
196 608
tensor
2 840,74 ₽ 2,74 Запустить
teslaa100-4.32.384.320.nvlink
196 608
tensor
4 848,44 ₽ 3,36 Запустить
rtx5090-8.44.256.240
196 608
tensor
8 1 031,74 ₽ 1,91 Запустить
h100-3.32.384.240
196 608
tensor
3 1 047,66 ₽ 1,87 Запустить
h100nvl-3.24.384.480
196 608
tensor
3 1 105,60 ₽ 2,68 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-4.32.384.320.nvlink
196 608
tensor
4 848,44 ₽ 1,37 Запустить
teslaa100-4.44.512.320
196 608
tensor
4 877,57 ₽ 1,37 Запустить
h200-3.32.512.480
196 608
tensor
3 1 282,53 ₽ 3,42 Запустить
h100-4.44.512.320
196 608
tensor
4 1 397,57 ₽ 1,37 Запустить
h100nvl-4.32.384.480
196 608
tensor
4 1 450,00 ₽ 2,45 Запустить
h200-4.32.768.480.nvlink
196 608
tensor
4 1 717,59 ₽ 6,09 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-8.44.704.960.nvlink
196 608
tensor
8 1 677,58 ₽ 2,79 Запустить
h200-4.32.768.640
196 608
tensor
4 1 719,14 ₽ 1,54 Запустить
h200-4.32.768.640.nvlink
196 608
tensor
4 1 719,14 ₽ 1,54 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.