DeepSeek-V3

русскоязычная

DeepSeek-V3 — была представлена 26.12.2014 китайской компанией DeepSeek AI и принесшая ей всемирную известность. Модель использует архитектуру Mixture-of-Experts (MoE), общей численностью параметров 671 миллиард, из которых для обработки каждого токена активируется лишь 37 миллиардов. Это обеспечивает высокую производительность и вычислительную эффективность.

Модель в текущей версии поддерживает контекстное окно до 164 тысяч токенов и демонстрирует отличные результаты в генерации текста в том числе на русском языке. Она хорошо справляется с задачами, требующими анализа длинных документов, создания сложного контента и работы с большими объёмами данных — например, автоматизация документации, отчётов, учебных материалов или юридических консультаций.

В тестах DeepSeek-V3 показала отличные результаты, особенно по математике и программированию, превосходя многие открытые модели и конкурируя с GPT-4o и Claude 3.5 Sonnet. Модель также успешно прошла тест Needle In A Haystack (NIAH) на длине контекста до 128K. Благодаря масштабируемости, качеству и открытой лицензии, DeepSeek-V3 является перспективным выбором для больших исследовательских и коммерческих проектов.


Дата анонса: 26.12.2024
Параметров: 671B
Экспертов: 256
Активно параметров при инференсе: 37B
Контекст: 164K
Слоев: 61
Тип внимания: Multi-head Latent Attention
Разработчик: DeepSeek
Версия Transformers: 4.33.1
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с DeepSeek-V3. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга DeepSeek-V3

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa100-6.44.512.480.nvlink
163 840
pipeline
6 1 259,13 ₽ 8,32 Запустить
h200-3.32.512.480
163 840
pipeline
3 1 282,53 ₽ 49,91 4,24 Запустить
teslaa100-8.44.512.480.nvlink
163 840
tensor
8 1 639,13 ₽ 21,29 Запустить
h200-4.32.768.480
163 840
tensor
4 1 717,59 ₽ 15,84 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
h200-6.52.896.960
163 840
pipeline
6 2 535,78 ₽ 9,80 Запустить
h200-8.52.1024.960
163 840
tensor
8 3 338,30 ₽ 33,01 Запустить
Для данной модели, контекста и квантизации пока нет подходящих конфигураций.

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.