DeepSeek-V3

русскоязычная

DeepSeek-V3 — была представлена 26.12.2014 китайской компанией DeepSeek AI и принесшая ей всемирную известность. Модель использует архитектуру Mixture-of-Experts (MoE), общей численностью параметров 671 миллиард, из которых для обработки каждого токена активируется лишь 37 миллиардов. Это обеспечивает высокую производительность и вычислительную эффективность.

Модель в текущей версии поддерживает контекстное окно до 164 тысяч токенов и демонстрирует отличные результаты в генерации текста в том числе на русском языке. Она хорошо справляется с задачами, требующими анализа длинных документов, создания сложного контента и работы с большими объёмами данных — например, автоматизация документации, отчётов, учебных материалов или юридических консультаций.

В тестах DeepSeek-V3 показала отличные результаты, особенно по математике и программированию, превосходя многие открытые модели и конкурируя с GPT-4o и Claude 3.5 Sonnet. Модель также успешно прошла тест Needle In A Haystack (NIAH) на длине контекста до 128K. Благодаря масштабируемости, качеству и открытой лицензии, DeepSeek-V3 является перспективным выбором для больших исследовательских и коммерческих проектов.


Дата анонса: 26.12.2024
Параметров: 671B
Экспертов: 256
Активно параметров при инференсе: 37B
Контекст: 164K
Слоев: 61
Тип внимания: Multi-head Latent Attention
Потребление памяти: 365.2 ГБ в точности 4 бит
Разработчик: DeepSeek
Версия Transformers: 4.33.1
Версия Ollama: 0.5.5
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с DeepSeek-V3. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга DeepSeek-V3

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-6.44.512.480.nvlink
163 840
44 524288 480 6 1 373,13 ₽ Запустить
h200-3.32.512.480
163 840
32 524288 480 3 1 882,53 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
h200-6.52.896.960
163 840
52 917504 960 6 3 735,78 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
h200-6.52.896.960
163 840
52 917504 960 6 3 735,78 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.