DeepSeek-V3 — была представлена 26.12.2014 китайской компанией DeepSeek AI и принесшая ей всемирную известность. Модель использует архитектуру Mixture-of-Experts (MoE), общей численностью параметров 671 миллиард, из которых для обработки каждого токена активируется лишь 37 миллиардов. Это обеспечивает высокую производительность и вычислительную эффективность.
Модель в текущей версии поддерживает контекстное окно до 164 тысяч токенов и демонстрирует отличные результаты в генерации текста в том числе на русском языке. Она хорошо справляется с задачами, требующими анализа длинных документов, создания сложного контента и работы с большими объёмами данных — например, автоматизация документации, отчётов, учебных материалов или юридических консультаций.
В тестах DeepSeek-V3 показала отличные результаты, особенно по математике и программированию, превосходя многие открытые модели и конкурируя с GPT-4o и Claude 3.5 Sonnet. Модель также успешно прошла тест Needle In A Haystack (NIAH) на длине контекста до 128K. Благодаря масштабируемости, качеству и открытой лицензии, DeepSeek-V3 является перспективным выбором для больших исследовательских и коммерческих проектов.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
163 840 pipeline |
6 | 1 259,13 ₽ | 1,38 | Запустить | ||
163 840 tensor |
8 | 1 677,58 ₽ | 2,64 | Запустить | ||
163 840 tensor |
4 | 1 717,59 ₽ | 3,93 | Запустить | ||
163 840 tensor |
4 | 1 724,19 ₽ | 3,93 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
163 840 pipeline |
6 | 2 535,78 ₽ | 1,62 | Запустить | ||
163 840 tensor |
8 | 3 338,30 ₽ | 4,10 | Запустить | ||
163 840 tensor |
8 | 3 338,30 ₽ | 4,10 | Запустить | ||
Для данной модели, контекста и квантизации пока нет подходящих конфигураций.
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.