MiniMax M2.7 — это флагманская модель компании MiniMax в основе которой лежит разреженная архитектура Mixture-of-Experts (MoE). При общем объёме в 230 миллиардов параметров на каждый токен активируется лишь 10 миллиардов (менее 5%). Это обеспечивает эффективность и скорость, характерные для более компактных моделей, при сохранении внушительного объема знаний. Разработчики позиционирует M2.7 как первую крупную языковую моделью, которая активно участвовала в собственной эволюции. То есть она была интегрирована в процесс своего создания: модель самостоятельно обновляла собственную память, выстраивала десятки сложных навыков в рамках агентной «обвязки» (Agent Harness) и помогала команде разработки в проведении RL-экспериментов, анализе метрик и отладке. Этот замкнутый цикл, в котором модель анализирует свои сбои, правит код и повторно оценивает результат, привёл к росту эффективности на 30% без участия человека. Такой подход знаменует переход от статичных, «застывших» моделей к динамическим системам, способным к постоянному самосовершенствованию. В отличие от большинства конкурентов, делающих ставку на гибридные или эффективные механизмы внимания, MiniMax в серии M2 приняла принципиальное решение использовать «чистое» полное внимание (full attention), пожертвовав теоретической вычислительной эффективностью ради гарантированной стабильности и высокого качества в сложных сценариях — особенно в задачах, требующих длинных цепочек рассуждений и взаимодействия с агентами.
Ключевой вектор развития M2.7 — это глубинная агентность. В то время как большинство моделей, позиционирующихся как «агентные», ограничиваются вызовом нескольких внешних функций, M2.7 спроектирована для создания и управления сложными агентными «обвязками» (Harnesses). Модель способна самостоятельно выстраивать многоуровневые рабочие процессы, управлять командами из нескольких агентов (Agent Teams) и оперировать более чем 40 комплексными навыками (Skills), каждый из которых может превышать 2000 токенов, поддерживая при этом впечатляющий 97-процентный уровень следования инструкциям (skill adherence). Это позволяет M2.7 не просто выполнять отдельные команды, а брать на себя роль «дирижёра» сложных, многокомпонентных производственных задач. Отдельного внимания заслуживает фокус модели на профессиональные офисные задачи (Professional Office Domain). Это не просто умение открыть документ, а способность выполнять сложное, высокоточное редактирование в Excel, PowerPoint и Word с сохранением форматирования и поддержкой многократных правок. M2.7 обучена вести себя как аналитик: она способна прочитать финансовую отчётность компании, выявить тренды, построить предиктивную модель в Excel и подготовить на её основе полноценную презентацию и текстовый отчёт. Это выводит автоматизацию офисной работы на принципиально новый уровень, сокращая разрыв между пониманием задачи и готовым бизнес-результатом.
Эти возможности подтверждаются выдающимися результатами в независимых тестах. В бенчмарке SWE-Pro, который проверяет способность решать реальные задачи по программной инженерии в сложных репозиториях, M2.7 набрала 56.22%, вплотную приблизившись к лучшим результатам Claude 4.6 и GPT-5.4, а в бенчмарке Multi-SWE-Bench и вовсе выбилась в лидеры с показателем 52.7. Таким образом, M2.7 — это универсальный инструмент для профессионалов, который предлагает производительность топовых закрытых моделей.
M2.7 идеально подходит для автономной разработки программного обеспечения — от рефакторинга кода и анализа логов до сквозного ведения проектов с использованием инструментов. Благодаря нативной поддержке Agent Teams, обширной библиотеке сложных навыков и динамическому поиску инструментов, она служит надёжной основой для построения многоуровневых агентных систем, способных координировать работу нескольких «специалистов» в сложных бизнес-процессах. Модель также ориентирована на продвинутую офисную автоматизацию, включая редактирование документов Excel, Word и PowerPoint, создание финансовых моделей и сложных отчётов на основе данных. В исследовательской и R&D-деятельности M2.7 выступает в роли полноценного ассистента, помогая с обзором литературы, планированием экспериментов и анализом результатов, а усиленная согласованность персонажей и эмоциональный интеллект делают её отличным выбором для интерактивных платформ вроде OpenRoom и других творческих проектов.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
196 608 tensor |
3 | 657,66 ₽ | 1,87 | Запустить | ||
196 608 tensor |
2 | 840,74 ₽ | 2,74 | Запустить | ||
196 608 tensor |
2 | 840,74 ₽ | 2,74 | Запустить | ||
196 608 tensor |
4 | 848,44 ₽ | 3,36 | Запустить | ||
196 608 tensor |
8 | 1 031,74 ₽ | 1,91 | Запустить | ||
196 608 tensor |
3 | 1 047,66 ₽ | 1,87 | Запустить | ||
196 608 tensor |
3 | 1 105,60 ₽ | 2,68 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
196 608 tensor |
4 | 848,44 ₽ | 1,37 | Запустить | ||
196 608 tensor |
4 | 877,57 ₽ | 1,37 | Запустить | ||
196 608 tensor |
3 | 1 282,53 ₽ | 3,42 | Запустить | ||
196 608 tensor |
4 | 1 397,57 ₽ | 1,37 | Запустить | ||
196 608 tensor |
4 | 1 450,00 ₽ | 2,45 | Запустить | ||
196 608 tensor |
4 | 1 717,59 ₽ | 6,09 | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.