DeepSeek-OCR-2

мультимодальная
русскоязычная

DeepSeek-OCR 2 - модель, созданная специально для задач оптического распознавания символов, она предлагает принципиально новый подход к обработке визуальной информации. Вдохновляясь когнитивными механизмами человеческого зрения, авторы заменяют традиционное растровое сканирование изображения (слева-направо, сверху-вниз) на динамический, семантически-ориентированный процесс. Ключевая инновация модели — энкодер DeepEncoder V2, который не просто сжимает признаки, а наделяет систему способностью к каузальному (причинно-следственному) переупорядочиванию визуальной информации ещё до того, как она попадёт в языковой декодер.

Архитектурно DeepEncoder V2 построен на базе компактной языковой модели Qwen2-0.5B, которая заменяет CLIP-компонент из предыдущей версии DeepSeek-OCR. Процесс обработки изображения двухэтапный: сначала лёгкий токенизатор (80M параметров) сжимает изображение в последовательность визуальных токенов, сокращая их количество в 16 раз. Затем эти токены подаются в Qwen2-энкодер. Вместе с визуальными токенами в последовательность добавляются специальные обучаемые запросы — causal flow queries. Визуальные токены взаимодействуют друг с другом, а каждый каузальный запрос может "видеть" все визуальные токены и все предыдущие каузальные запросы. Такая схема позволяет запросам постепенно, слой за слоем, выстраивать осмысленную последовательность визуальных элементов, подобно тому, как человеческий взгляд перемещается по логическим блокам документа. В языковой декодер (DeepSeek-MoE) передаются только выходные состояния этих каузальных запросов, которые уже представляют собой семантически упорядоченное представление изображения.

На тестах это выражается в приросте производительности: DeepSeek-OCR 2 демонстрирует улучшение на 3.73% по бенчмарку OmniDocBench v1.5 по сравнению с предшественником, а также показывает высокие результаты на тестах allenai/olmOCR-bench, особенно в категориях "Длинный мелкий текст" (90.7%) и "Математические формулы из arXiv" (82.0%).

Благодаря своим архитектурным особенностям DeepSeek-OCR 2 открывает широкий спектр практических сценариев: от оцифровки сложных документов (научных статей, финансовых отчётов) с сохранением их логической структуры до высококачественной подготовки данных для обучения больших языковых моделей, преобразуя миллионы сканов в чистый машиночитаемый текст. Модель также эффективно анализирует изображения с нелинейной компоновкой (инфографика, постеры), что позволяет использовать ее для извлечения информации при работе с рекламными объявлениями и в других маркетинговых сценариях.


Дата анонса: 27.01.2026
Параметров: 3B
Экспертов: 64
Активно параметров при инференсе: 500M
Контекст: 9K
Слоев: 12
Тип внимания: Full Attention
Разработчик: DeepSeek
Версия Transformers: 4.46.3
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с DeepSeek-OCR-2. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга DeepSeek-OCR-2

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
8192
1 29,33 ₽ 22,41 Запустить
rtx2080ti-1.10.16.500
8192
1 34,23 ₽ 12,81 Запустить
teslaa2-1.16.32.160
8192
1 33,74 ₽ 22,41 Запустить
teslaa10-1.16.32.160
8192
1 46,94 ₽ 37,77 Запустить
rtx3080-1.16.32.160
8192
1 51,34 ₽ 10,89 Запустить
rtx3090-1.16.24.160
8192
1 73,73 ₽ 37,77 Запустить
rtx4090-1.16.32.160
8192
1 91,14 ₽ 37,77 Запустить
teslav100-1.12.64.160
8192
1 107,57 ₽ 53,13 Запустить
rtxa5000-2.16.64.160.nvlink
8192
tensor
2 109,77 ₽ 78,51 Запустить
rtx5090-1.16.64.160
8192
1 141,77 ₽ 53,13 Запустить
teslaa100-1.16.64.160
8192
1 211,77 ₽ 145,29 Запустить
h100-1.16.64.160
8192
1 341,77 ₽ 145,29 Запустить
h100nvl-1.16.96.160
8192
1 367,41 ₽ 172,17 Запустить
h200-1.16.128.160
8192
1 423,04 ₽ 262,41 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
8192
1 29,33 ₽ 19,43 Запустить
rtx2080ti-1.10.16.500
8192
1 34,23 ₽ 9,83 Запустить
teslaa2-1.16.32.160
8192
1 33,74 ₽ 19,43 Запустить
teslaa10-1.16.32.160
8192
1 46,94 ₽ 34,79 Запустить
rtx3080-1.16.32.160
8192
1 51,34 ₽ 7,91 Запустить
rtx3090-1.16.24.160
8192
1 73,73 ₽ 34,79 Запустить
rtx4090-1.16.32.160
8192
1 91,14 ₽ 34,79 Запустить
teslav100-1.12.64.160
8192
1 107,57 ₽ 50,15 Запустить
rtxa5000-2.16.64.160.nvlink
8192
tensor
2 109,77 ₽ 75,53 Запустить
rtx5090-1.16.64.160
8192
1 141,77 ₽ 50,15 Запустить
teslaa100-1.16.64.160
8192
1 211,77 ₽ 142,31 Запустить
h100-1.16.64.160
8192
1 341,77 ₽ 142,31 Запустить
h100nvl-1.16.96.160
8192
1 367,41 ₽ 169,19 Запустить
h200-1.16.128.160
8192
1 423,04 ₽ 259,43 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
8192
1 29,33 ₽ 13,47 Запустить
rtx2080ti-1.10.16.500
8192
1 34,23 ₽ 3,87 Запустить
teslaa2-1.16.32.160
8192
1 33,74 ₽ 13,47 Запустить
teslaa10-1.16.32.160
8192
1 46,94 ₽ 28,83 Запустить
rtx3080-1.16.32.160
8192
1 51,34 ₽ 1,95 Запустить
rtx3090-1.16.24.160
8192
1 73,73 ₽ 28,83 Запустить
rtx4090-1.16.32.160
8192
1 91,14 ₽ 28,83 Запустить
teslav100-1.12.64.160
8192
1 107,57 ₽ 44,19 Запустить
rtxa5000-2.16.64.160.nvlink
8192
tensor
2 109,77 ₽ 69,57 Запустить
rtx5090-1.16.64.160
8192
1 141,77 ₽ 44,19 Запустить
teslaa100-1.16.64.160
8192
1 211,77 ₽ 136,35 Запустить
h100-1.16.64.160
8192
1 341,77 ₽ 136,35 Запустить
h100nvl-1.16.96.160
8192
1 367,41 ₽ 163,23 Запустить
h200-1.16.128.160
8192
1 423,04 ₽ 253,47 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.