Qwen2.5-72B

русскоязычная

Qwen2.5-72B является флагманской открытой моделью серии с 72 миллиардами параметров, 80 слоями и архитектурой 64/8 голов внимания, представляя вершину возможностей открытых языковых моделей от Alibaba. Модель поддерживает контекст в 128K токенов с генерацией до 8K токенов, что позволяет анализировать несколько документов и создавать подробный контент с исключительной точностью.

Модель обучена на расширенном наборе данных в 18 триллионов токенов с улучшенной фильтрацией и включением специализированных данных по математике и программированию, что позволяет показывает выдающиеся результаты в широком спектре задач. Отсюда следует яркая особенность Qwen2.5-72B - достижение state-of-the-art результатов среди открытых моделей при значительно меньшем размере по сравнению с конкурентами. Согласно техническому отчету, модель демонстрирует конкурентоспособную производительность с Llama-3-405B-Instruct, которая в 5 раз больше по размеру.

Qwen2.5-72B распространяется по специальной исследовательской лицензией Qwen и предназначена для проектов, требующих максимального качества обработки естественного языка. Модель идеально подходит для фундаментальных исследований в области ИИ, создания передовых ИИ-продуктов, обучения и fine-tuning специализированных моделей, а также как основа для разработки мультимодальных систем и специализированных агентов.


Дата анонса: 19.09.2024
Параметров: 72B
Контекст: 131K
Тип внимания: Full Attention
Потребление памяти: 73.5 ГБ в точности 4 бит
Разработчик: Alibaba
Версия Transformers: 4.43.1
Лицензия: qwen

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами для теста инференса и знакомства с Qwen2.5-72B.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Qwen2.5-72B

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-4.16.128.160 16 131072 160 4 156,24 ₽ Запустить
rtx3090-4.16.128.160 16 131072 160 4 288,24 ₽ Запустить
rtx4090-4.16.128.160 16 131072 160 4 380,64 ₽ Запустить
rtx5090-3.16.96.160 16 98304 160 3 387,41 ₽ Запустить
teslaa100-2.24.256.160 24 262144 160 2 477,97 ₽ Запустить
teslah100-2.24.256.160 24 262144 160 2 928,97 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-2.24.256.160 24 262144 160 2 477,97 ₽ Запустить
rtx5090-4.16.128.160 16 131072 160 4 513,04 ₽ Запустить
teslah100-2.24.256.160 24 262144 160 2 928,97 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-3.32.384.240 32 393216 240 3 714,66 ₽ Запустить
rtx4090-8.44.256.240 44 262144 240 8 766,94 ₽ Запустить
rtx5090-6.44.256.240 44 262144 240 6 791,74 ₽ Запустить
teslah100-3.32.384.240 32 393216 240 3 1 391,16 ₽ Запустить

Связанные модели

QwQ

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.