T-pro-2.0

размышляющая
русскоязычная

T-Pro 2.0 новая российская большая языковая модель с гибридным режимом рассуждений. Модель базируется на архитектуре Qwen3-32B, но с кардинально переработанной системой токенизации и дообучения. Модель включает 32 миллиарда параметров и поддерживает контекст длиной до 32,768 токенов с возможностью расширения до 128K через RoPE scaling. Гибридный режим рассуждений позволяет модели динамически переключаться между быстрыми ответами на простые вопросы и глубоким многоступенчатым анализом для сложных задач. Ключевой технической особенностью стала новый подход к токенизации русского языка — модель использует на 30% меньше токенов для передачи того же смысла по сравнению с исходной Qwen3. Это достигнуто за счет расширения кириллической части словаря более чем в пять раз при сохранении общего размера токенизатора. Дополнительно внедрена технология speculative decoding с использованием EAGLE-архитектуры, которая позволяет предсказывать сразу несколько токенов одновременно, ускоряя генерацию почти в два раза. Обучение включало три этапа: предобучение на 40B инструктивных токенов (треть из которых — reasoning-данные), supervised fine-tuning на ~500K высококачественных инструкций, и preference tuning на ~100K тщательно отобранных примеров.

Benchmark-результаты демонстрируют безоговорочное лидерство среди открытых моделей класса ~32B параметров: MERA (0.660), ruMMLU (0.790), Ru Arena Hard (0.876), значительно превосходя Qwen3 32B и другие конкурирующие решения. В reasoning-бенчмарках модель показывает выдающиеся результаты на русскоязычных версиях AIME (0.646) и математических олимпиадах собственного бенчмарка T-Math (0.799). Особенно впечатляющими оказались результаты в диалоговых аренах, где T-Pro 2.0 достигает 87.6% в Ru Arena Hard при использовании режима рассуждений.

Экономическая эффективность модели поражает воображение – она обеспечивает двукратную экономию вычислительных ресурсов по сравнению с китайскими аналогами Qwen3 и DeepSeek R1-Distil для русскоязычных задач. T-Pro 2.0 открывает безграничные возможности для автоматизации и создания интеллектуальных агентов нового поколения. В корпоративной среде модель превосходно справляется с обработкой сложных клиентских обращений, автоматизацией рутинных офисных процессов, генерацией и анализом документов, написанием технического кода. Модель доступна под лицензией Apache 2.0, что означает полную свободу использования, модификации и дообучения на собственных данных. Поддержка популярных фреймворков (SGLang, HuggingFace Transformers, vLLM) обеспечивает простую интеграцию в существующую инфраструктуру. Модель сочетает лучшее качество в своем классе с практичностью внедрения, предлагая российскую альтернативу зарубежным гигантам с полным контролем над технологией.


Дата анонса: 18.07.2025
Параметров: 32.8B
Контекст: 32K
Тип внимания: Full or Sliding Window Attention
Потребление памяти: 23.3 ГБ в точности 4 бит
Разработчик: T-Bank
Версия Transformers: 4.51.3
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами для теста инференса и знакомства с T-pro-2.0.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга T-pro-2.0

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa2-2.16.32.160 16 32768 160 2 51,34 ₽ Запустить
teslat4-2.16.32.160 16 32768 160 2 71,14 ₽ Запустить
teslaa10-2.16.64.160 16 65536 160 2 83,37 ₽ Запустить
rtx2080ti-3.16.64.160 16 65536 160 3 84,47 ₽ Запустить
teslav100-1.12.64.160 12 65536 160 1 107,57 ₽ Запустить
rtx3080-3.16.64.160 16 65536 160 3 127,37 ₽ Запустить
rtx5090-1.16.64.160 16 65536 160 1 141,77 ₽ Запустить
rtx3090-2.16.64.160 16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160 16 65536 160 2 195,57 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160 16 65536 160 2 83,37 ₽ Запустить
rtx2080ti-4.16.64.160 16 65536 160 4 105,37 ₽ Запустить
teslat4-4.16.64.160 16 65536 160 4 131,77 ₽ Запустить
rtx3090-2.16.64.160 16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160 16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240 16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160 16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-4.16.128.160 16 131072 160 4 156,24 ₽ Запустить
teslaa100-1.16.128.160 16 131072 160 1 242,04 ₽ Запустить
rtx3090-4.16.128.160 16 131072 160 4 288,24 ₽ Запустить
rtx4090-4.16.128.160 16 131072 160 4 380,64 ₽ Запустить
rtx5090-3.16.96.160 16 98304 160 3 387,41 ₽ Запустить
teslah100-1.16.128.160 16 131072 160 1 467,54 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.