DeepSeek-V3.2-Speciale

размышляющая
русскоязычная

DeepSeek-V3.2-Speciale имеет идентичную архитектуру с базовой версией DeepSeek-V3.2. Главное отличие Speciale от базовой версии — фокус исключительно на reasoning capabilities без поддержки агентских функций и работы с инструментами, что прямо указано в карточке модели и технической документации. На стадии reinforcement learning она обучалась исключительно на reasoning data с ослабленными ограничениями на длину генерации рассуждений. В процесс обучения был интегрирован датасет и методология вознаграждения из DeepSeekMath-V2 для усиления способностей в выведении математических доказательств. Это позволило модели генерировать значительно более длинные цепочки «мыслей», что критично для решения задач олимпиадного уровня.

Пожертвовав агентскими возможностями, модель установила новые стандарты для LLM на наиболее сложных бенчмарках. На AIME 2025 Speciale достигла 96.0% точности против 95.0% у Gemini-3.0-Pro и 94.6% у GPT-5. На HMMT February 2025 результат составил 99.2%, что так же превосходит все конкурирующие модели. По рейтингу Codeforces модель достигла 2701- почти столько же у Gemini-3.0-Pro (2708), другие модели показывают результат на порядок ниже. На LiveCodeBench модель показала 88.7% и таким образом уступила только Gemini-3.0-Pro (90.7%). На IMOAnswerBench (задачи уровня международной математической олимпиады) результат составил

DeepSeek-V3.2-Speciale рекомендуется для исследовательских сценариев, где token-эффективность вторична по отношению к качеству решения, то есть она предназначена для специфических задач, требующих экстремально глубоких рассуждений: решение математических задач олимпиадного уровня (IMO, CMO, AIME, HMMT), соревновательное программирование (Codeforces, IOI, ICPC), сложные доказательства и верификация, задачи комбинаторики и алгоритмов с расширенным поиском решений, научные исследования, требующие многошаговых логических выводов. Модель не подходит для агентских сценариев, работы с инструментами или production-окружений.


Дата анонса: 01.12.2025
Параметров: 685B
Экспертов: 256
Активно параметров при инференсе: 37B
Контекст: 164K
Слоев: 61
Тип внимания: DeepSeek Sparse Attention
Потребление памяти: 328.7 ГБ в точности 4 бит
Разработчик: DeepSeek
Версия Transformers: 4.44.2
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с DeepSeek-V3.2-Speciale. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга DeepSeek-V3.2-Speciale

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-6.44.512.480.nvlink
163 840
pipeline
44 524288 480 6 1 259,13 ₽ Запустить
h200-3.32.512.480
163 840
pipeline
32 524288 480 3 1 282,53 ₽ Запустить
teslaa100-8.44.512.480.nvlink
163 840
tensor
44 524288 480 8 1 639,13 ₽ Запустить
h200-4.32.768.480
163 840
tensor
32 786432 480 4 1 717,59 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
h200-6.52.896.960
163 840
pipeline
52 917504 960 6 2 535,78 ₽ Запустить
h200-8.52.1024.960
163 840
tensor
52 1048576 960 8 3 338,30 ₽ Запустить
Для данной модели, контекста и квантизации пока нет подходящих конфигураций.

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.