T-pro-it-2.0

размышляющая
русскоязычная

T-Pro 2.0 новая российская большая языковая модель с гибридным режимом рассуждений. Модель базируется на архитектуре Qwen3-32B, но с кардинально переработанной системой токенизации и дообучения. Модель включает 32 миллиарда параметров и поддерживает контекст длиной до 40K токенов с возможностью расширения до 128K через RoPE scaling. Гибридный режим рассуждений позволяет модели динамически переключаться между быстрыми ответами на простые вопросы и глубоким многоступенчатым анализом для сложных задач. Ключевой технической особенностью стала новый подход к токенизации русского языка — модель использует на 30% меньше токенов для передачи того же смысла по сравнению с исходной Qwen3. Это достигнуто за счет расширения кириллической части словаря более чем в пять раз при сохранении общего размера токенизатора. Дополнительно внедрена технология speculative decoding с использованием EAGLE-архитектуры, которая позволяет предсказывать сразу несколько токенов одновременно, ускоряя генерацию почти в два раза. Обучение включало три этапа: предобучение на 40B инструктивных токенов (треть из которых — reasoning-данные), supervised fine-tuning на ~500K высококачественных инструкций, и preference tuning на ~100K тщательно отобранных примеров.

Benchmark-результаты демонстрируют безоговорочное лидерство среди открытых моделей класса ~32B параметров: MERA (0.660), ruMMLU (0.790), Ru Arena Hard (0.876), значительно превосходя Qwen3 32B и другие конкурирующие решения. В reasoning-бенчмарках модель показывает выдающиеся результаты на русскоязычных версиях AIME (0.646) и математических олимпиадах собственного бенчмарка T-Math (0.799). Особенно впечатляющими оказались результаты в диалоговых аренах, где T-Pro 2.0 достигает 87.6% в Ru Arena Hard при использовании режима рассуждений.

Экономическая эффективность модели поражает воображение – она обеспечивает двукратную экономию вычислительных ресурсов по сравнению с китайскими аналогами Qwen3 и DeepSeek R1-Distil для русскоязычных задач. T-Pro 2.0 открывает безграничные возможности для автоматизации и создания интеллектуальных агентов нового поколения. В корпоративной среде модель превосходно справляется с обработкой сложных клиентских обращений, автоматизацией рутинных офисных процессов, генерацией и анализом документов, написанием технического кода. Модель доступна под лицензией Apache 2.0, что означает полную свободу использования, модификации и дообучения на собственных данных. Поддержка популярных фреймворков (SGLang, HuggingFace Transformers, vLLM) обеспечивает простую интеграцию в существующую инфраструктуру. Модель сочетает лучшее качество в своем классе с практичностью внедрения, предлагая российскую альтернативу зарубежным гигантам с полным контролем над технологией.


Дата анонса: 18.07.2025
Параметров: 33B
Контекст: 41K
Слоев: 64
Тип внимания: Full or Sliding Window Attention
Разработчик: T-Bank
Версия Transformers: 4.51.3
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с T-pro-it-2.0. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга T-pro-it-2.0

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-3.32.64.160
40 960
pipeline
3 78,57 ₽ 1,64 Запустить
teslaa10-2.16.64.160
40 960
tensor
2 83,37 ₽ 1,89 Запустить
teslat4-4.16.64.160
40 960
tensor
4 85,77 ₽ 2,83 Запустить
teslaa2-3.32.128.160
40 960
pipeline
3 94,64 ₽ 1,64 Запустить
rtx2080ti-4.16.32.160
40 960
tensor
4 99,74 ₽ 1,03 Запустить
rtxa5000-2.16.64.160.nvlink
40 960
tensor
2 109,77 ₽ 1,89 Запустить
teslaa2-4.32.128.160
40 960
tensor
4 112,24 ₽ 2,83 Запустить
rtx3090-2.16.64.160
40 960
tensor
2 139,77 ₽ 1,89 Запустить
rtx4090-2.16.64.160
40 960
tensor
2 171,77 ₽ 1,89 Запустить
teslav100-2.16.64.240
40 960
tensor
2 198,54 ₽ 3,33 Запустить
teslaa100-1.16.64.160
40 960
1 211,77 ₽ 5,02 Запустить
rtx5090-2.16.64.160
40 960
tensor
2 261,77 ₽ 3,33 Запустить
h100-1.16.64.160
40 960
1 341,77 ₽ 5,02 Запустить
h100nvl-1.16.96.160
40 960
1 367,41 ₽ 6,28 Запустить
h200-1.16.128.160
40 960
1 423,04 ₽ 10,51 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-4.16.64.160
40 960
tensor
4 85,77 ₽ 1,33 Запустить
teslaa2-4.32.128.160
40 960
tensor
4 112,24 ₽ 1,33 Запустить
teslaa10-3.16.96.160
40 960
pipeline
3 119,81 ₽ 2,30 Запустить
teslaa10-4.12.48.160
40 960
tensor
4 139,96 ₽ 4,21 Запустить
teslav100-2.16.64.240
40 960
tensor
2 198,54 ₽ 1,83 Запустить
rtx3090-3.16.96.160
40 960
pipeline
3 204,41 ₽ 2,30 Запустить
rtxa5000-4.16.128.160.nvlink
40 960
tensor
4 209,04 ₽ 4,21 Запустить
teslaa100-1.16.64.160
40 960
1 211,77 ₽ 3,52 Запустить
rtx4090-3.16.96.160
40 960
pipeline
3 252,41 ₽ 2,30 Запустить
rtx3090-4.16.64.160
40 960
tensor
4 257,77 ₽ 4,21 Запустить
rtx5090-2.16.64.160
40 960
tensor
2 261,77 ₽ 1,83 Запустить
rtx4090-4.16.64.160
40 960
tensor
4 321,77 ₽ 4,21 Запустить
h100-1.16.64.160
40 960
1 341,77 ₽ 3,52 Запустить
h100nvl-1.16.96.160
40 960
1 367,41 ₽ 4,78 Запустить
h200-1.16.128.160
40 960
1 423,04 ₽ 9,01 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.128.240
40 960
tensor
4 157,01 ₽ 1,08 Запустить
rtx3090-4.16.96.320
40 960
tensor
4 264,96 ₽ 1,08 Запустить
rtx4090-4.16.96.320
40 960
tensor
4 328,96 ₽ 1,08 Запустить
teslav100-3.64.256.320
40 960
pipeline
3 347,52 ₽ 1,33 Запустить
h100nvl-1.16.96.240
40 960
1 368,18 ₽ 1,65 Запустить
rtx5090-3.16.96.240
40 960
pipeline
3 388,18 ₽ 1,33 Запустить
teslav100-4.32.256.320
40 960
tensor
4 417,92 ₽ 3,96 Запустить
h200-1.16.128.240
40 960
1 423,81 ₽ 5,88 Запустить
teslaa100-2.24.256.240
40 960
tensor
2 440,74 ₽ 7,34 Запустить
rtx5090-4.16.128.320
40 960
tensor
4 514,59 ₽ 3,96 Запустить
h100-2.24.256.240
40 960
tensor
2 700,74 ₽ 7,34 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.