MiniMax-M1-80k

размышляющая
русскоязычная

MiniMax-M1-80K представляет собой максимально улучшенную версию базовой модели серии. Сохраняются те же 456 миллиардов параметров с 45.9 миллиардами активируемых параметров, но модель дополнительно обучалась на 7.5Т токенов разнообразных задач, включая математическое рассуждение, конкурентное программирование, логическое рассуждение с использованием фреймворка SynLogic, и реальные задачи инженерии программного обеспечения в песочницах, созданных на основе SWE-bench, а в сравнении с MiniMax-M1-40K ее бюджет размышлений увеличен с 40 000 до 80 000 токенов.

Модель использует усовершенствованный алгоритм CISPO в сочетании с поэтапной стратегией расширения окна. Этот подход обеспечивает стабильность обучения на каждом этапе и позволяет модели адаптироваться к увеличивающейся сложности задач. Нельзя не упомянуть и используемый моделью механизм Lightning Attention, который фактически является ключевой новаторской научной разработкой компании MiniMax в области больших языковых моделей и позволяет существенно экономить ресурсы при обучении и работе модели. Так MiniMax-M1-80K модель демонстрирует беспрецедентную эффективность в обработке длинных последовательностей, потребляя только 25% FLOPs по сравнению с DeepSeek R1 при генерации 100 000 токенов. Полное обучение модели с подкреплением было завершено всего за три недели на 512 GPU H800. 

MiniMax-M1-80K демонстрирует отличные показатели на бенчмарках, достигая 86.0% на AIME 2024 и 56.0% на SWE-bench Verified.  Особенно впечатляют возможности в области агентских систем с использованием инструментов, где модель достигает 62.0% на TAU-bench airline и 63.5% на TAU-bench retail, превосходя даже Gemini 2.5 Pro в некоторых сценариях. Такие показатели свидетельствуют о возможности ее использования в широком спектре разнообразных исследовательских задач и в коммерческих продуктах. При этом Модель поддерживается современными фреймворками развертывания включая vLLM и Transformers и доступна под лицензией Apache-2.0, что делает её полностью свободной для использования без ограничений.


Дата анонса: 16.06.2025
Параметров: 456B
Экспертов: 32
Активно параметров при инференсе: 45.9B
Контекст: 10240K
Тип внимания: Full Attention
Потребление памяти: 289.9 ГБ в точности 4 бит
Разработчик: MiniMax-AI
Версия Transformers: 4.45.2
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами для теста инференса и знакомства с MiniMax-M1-80k.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга MiniMax-M1-80k

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-4.44.512.320 44 524288 320 4 953,57 ₽ Запустить
teslah100-4.44.512.320 44 524288 320 4 1 855,57 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.