DeepSeek-V3.2-Speciale имеет идентичную архитектуру с базовой версией DeepSeek-V3.2. Главное отличие Speciale от базовой версии — фокус исключительно на reasoning capabilities без поддержки агентских функций и работы с инструментами, что прямо указано в карточке модели и технической документации. На стадии reinforcement learning она обучалась исключительно на reasoning data с ослабленными ограничениями на длину генерации рассуждений. В процесс обучения был интегрирован датасет и методология вознаграждения из DeepSeekMath-V2 для усиления способностей в выведении математических доказательств. Это позволило модели генерировать значительно более длинные цепочки «мыслей», что критично для решения задач олимпиадного уровня.
Пожертвовав агентскими возможностями, модель установила новые стандарты для LLM на наиболее сложных бенчмарках. На AIME 2025 Speciale достигла 96.0% точности против 95.0% у Gemini-3.0-Pro и 94.6% у GPT-5. На HMMT February 2025 результат составил 99.2%, что так же превосходит все конкурирующие модели. По рейтингу Codeforces модель достигла 2701- почти столько же у Gemini-3.0-Pro (2708), другие модели показывают результат на порядок ниже. На LiveCodeBench модель показала 88.7% и таким образом уступила только Gemini-3.0-Pro (90.7%). На IMOAnswerBench (задачи уровня международной математической олимпиады) результат составил
DeepSeek-V3.2-Speciale рекомендуется для исследовательских сценариев, где token-эффективность вторична по отношению к качеству решения, то есть она предназначена для специфических задач, требующих экстремально глубоких рассуждений: решение математических задач олимпиадного уровня (IMO, CMO, AIME, HMMT), соревновательное программирование (Codeforces, IOI, ICPC), сложные доказательства и верификация, задачи комбинаторики и алгоритмов с расширенным поиском решений, научные исследования, требующие многошаговых логических выводов. Модель не подходит для агентских сценариев, работы с инструментами или production-окружений.
| Наименование модели | Контекст | Тип | GPU | TPS | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
|---|---|---|---|---|---|---|---|
163 840 pipeline |
44 | 524288 | 480 | 6 | 1 259,13 ₽ | Запустить | |
163 840 pipeline |
32 | 524288 | 480 | 3 | 1 282,53 ₽ | Запустить | |
163 840 tensor |
44 | 524288 | 480 | 8 | 1 639,13 ₽ | Запустить | |
163 840 tensor |
32 | 786432 | 480 | 4 | 1 717,59 ₽ | Запустить | |
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
|---|---|---|---|---|---|---|---|
163 840 pipeline |
52 | 917504 | 960 | 6 | 2 535,78 ₽ | Запустить | |
163 840 tensor |
52 | 1048576 | 960 | 8 | 3 338,30 ₽ | Запустить | |
Для данной модели, контекста и квантизации пока нет подходящих конфигураций.
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.