DeepSeek-V3 — была представлена 26.12.2014 китайской компанией DeepSeek AI и принесшая ей всемирную известность. Модель использует архитектуру Mixture-of-Experts (MoE), общей численностью параметров 671 миллиард, из которых для обработки каждого токена активируется лишь 37 миллиардов. Это обеспечивает высокую производительность и вычислительную эффективность.
Модель в текущей версии поддерживает контекстное окно до 164 тысяч токенов и демонстрирует отличные результаты в генерации текста в том числе на русском языке. Она хорошо справляется с задачами, требующими анализа длинных документов, создания сложного контента и работы с большими объёмами данных — например, автоматизация документации, отчётов, учебных материалов или юридических консультаций.
В тестах DeepSeek-V3 показала отличные результаты, особенно по математике и программированию, превосходя многие открытые модели и конкурируя с GPT-4o и Claude 3.5 Sonnet. Модель также успешно прошла тест Needle In A Haystack (NIAH) на длине контекста до 128K. Благодаря масштабируемости, качеству и открытой лицензии, DeepSeek-V3 является перспективным выбором для больших исследовательских и коммерческих проектов.
Наименование модели | Контекст | Тип | GPU | TPS | Статус | Ссылка |
---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU |
---|
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU |
---|
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU |
---|
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.