Qwen2.5-14B

русскоязычная

Qwen2.5-14B включает 14 миллиардов параметров, 48 слоев и архитектуру 40/8 голов внимания, представляя существенное увеличение вычислительной мощности и сложности по сравнению с 7B версией. Модель поддерживает контекст до 128K токенов с генерацией до 8K токенов, что позволяет обрабатывать очень объемные документы и выполнять комплексные многоэтапные задачи. 

Уникальность Qwen2.5-14B заключается в возвращении этого размера в серию после его отсутствия в Qwen2, что заполняет важный пробел между 7B и более крупными моделями. Этот размер особенно ценен для организаций, которым нужна высокая производительность без существенных затрат на модели уровня 32B или 72B. Модель демонстрирует значительные улучшения в области экспертных знаний, сложного рассуждения и способности работать с многодоменными задачами одновременно.

Qwen2.5-14B идеально подходит для корпоративных приложений среднего и крупного масштаба, где требуется высокое качество обработки при разумных затратах на инфраструктуру. Модель превосходно работает в системах управления знаниями, комплексной аналитике и может быть использована как основа для создания отраслевых ИИ-решений.


Дата анонса: 19.09.2024
Параметров: 14B
Контекст: 131K
Тип внимания: Full Attention
Потребление памяти: 30.5 ГБ в точности 4 бит
Разработчик: Alibaba
Версия Transformers: 4.43.1
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами для теста инференса и знакомства с Qwen2.5-14B.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen2.5-14B

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160 16 65536 160 2 83,37 ₽ Запустить
rtx2080ti-4.16.64.160 16 65536 160 4 105,37 ₽ Запустить
teslat4-4.16.64.160 16 65536 160 4 131,77 ₽ Запустить
rtx3090-2.16.64.160 16 65536 160 2 149,37 ₽ Запустить
rtx3080-4.16.64.160 16 65536 160 4 162,57 ₽ Запустить
rtx4090-2.16.64.160 16 65536 160 2 195,57 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160 16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160 16 65536 160 2 83,37 ₽ Запустить
rtx2080ti-4.16.64.160 16 65536 160 4 105,37 ₽ Запустить
teslat4-4.16.64.160 16 65536 160 4 131,77 ₽ Запустить
rtx3090-2.16.64.160 16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160 16 65536 160 2 195,57 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160 16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-3.16.96.160 16 98304 160 3 119,81 ₽ Запустить
teslat4-4.16.64.160 16 65536 160 4 131,77 ₽ Запустить
teslav100-2.16.64.240 16 65535 240 2 198,54 ₽ Запустить
rtx3090-3.16.96.160 16 98304 160 3 218,81 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160 16 65536 160 2 261,77 ₽ Запустить
rtx4090-3.16.96.160 16 98304 160 3 288,11 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить

Связанные модели

QwQ

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.