Qwen2-1.5B-Instruct

русскоязычная

Qwen2-1.5B является легковесной моделью с 1,5 млрд параметров, предлагающей оптимальный баланс между производительностью и эффективностью использования ресурсов.Модель включает 28 слоёв и использует группированное внимание запросов (GQA) с 12 головами запроса (query heads) и 2 общими головами ключ-значение (key-value heads), что обеспечивает эффективное управление памятью KV-кэша. 

Обученная на 7 триллионах токенов многоязычных данных высокого качества, модель демонстрирует значительно улучшенные возможности в сравнении с предыдущими версиями, особенно в области программирования и математики. Модель поддерживает широкий спектр языков и показывает конкурентные результаты на стандартных бенчмарках, сохраняя при этом относительно низкие требования к вычислительным ресурсам.

Qwen2-1.5B отличается своей универсальностью и способностью эффективно работать как на потребительском железе, так и на небольших серверах. Модель поддерживает контекстное окно в 32K токенов, что позволяет обрабатывать довольно длинные документы и поддерживать сложные диалоги. Модель идеально подходит для извлечения информации из анализа документов, программирования начального уровня, образовательных приложений и корпоративных чат-ботов. Qwen2-1.5B представляет собой отличный выбор для пользователей, которым нужна стабильная языковая модель для простых задач без необходимости в дорогостоящей инфраструктуре GPU.


Дата анонса: 24.07.2024
Параметров: 2B
Контекст: 33K
Слоев: 28
Тип внимания: Full Attention
Разработчик: Qwen
Версия Transformers: 4.40.1
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с Qwen2-1.5B-Instruct. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга Qwen2-1.5B-Instruct

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
32 768
1 29,33 ₽ 12,80 Запустить
rtx2080ti-1.10.16.500
32 768
1 34,23 ₽ 7,66 Запустить
teslaa2-1.16.32.160
32 768
1 33,74 ₽ 12,80 Запустить
teslaa10-1.16.32.160
32 768
1 46,94 ₽ 21,03 Запустить
rtx3080-1.16.32.160
32 768
1 51,34 ₽ 6,63 Запустить
rtx3090-1.16.24.160
32 768
1 73,73 ₽ 21,03 Запустить
rtx4090-1.16.32.160
32 768
1 91,14 ₽ 21,03 Запустить
teslav100-1.12.64.160
32 768
1 107,57 ₽ 29,26 Запустить
rtxa5000-2.16.64.160.nvlink
32 768
tensor
2 109,77 ₽ 42,86 Запустить
rtx5090-1.16.64.160
32 768
1 141,77 ₽ 29,26 Запустить
teslaa100-1.16.64.160
32 768
1 211,77 ₽ 78,63 Запустить
h100-1.16.64.160
32 768
1 341,77 ₽ 78,63 Запустить
h100nvl-1.16.96.160
32 768
1 367,41 ₽ 93,03 Запустить
h200-1.16.128.160
32 768
1 423,04 ₽ 141,37 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
32 768
1 29,33 ₽ 12,00 Запустить
rtx2080ti-1.10.16.500
32 768
1 34,23 ₽ 6,86 Запустить
teslaa2-1.16.32.160
32 768
1 33,74 ₽ 12,00 Запустить
teslaa10-1.16.32.160
32 768
1 46,94 ₽ 20,23 Запустить
rtx3080-1.16.32.160
32 768
1 51,34 ₽ 5,83 Запустить
rtx3090-1.16.24.160
32 768
1 73,73 ₽ 20,23 Запустить
rtx4090-1.16.32.160
32 768
1 91,14 ₽ 20,23 Запустить
teslav100-1.12.64.160
32 768
1 107,57 ₽ 28,46 Запустить
rtxa5000-2.16.64.160.nvlink
32 768
tensor
2 109,77 ₽ 42,06 Запустить
rtx5090-1.16.64.160
32 768
1 141,77 ₽ 28,46 Запустить
teslaa100-1.16.64.160
32 768
1 211,77 ₽ 77,83 Запустить
h100-1.16.64.160
32 768
1 341,77 ₽ 77,83 Запустить
h100nvl-1.16.96.160
32 768
1 367,41 ₽ 92,23 Запустить
h200-1.16.128.160
32 768
1 423,04 ₽ 140,57 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-1.16.16.160
32 768
1 29,33 ₽ 10,07 Запустить
rtx2080ti-1.10.16.500
32 768
1 34,23 ₽ 4,93 Запустить
teslaa2-1.16.32.160
32 768
1 33,74 ₽ 10,07 Запустить
teslaa10-1.16.32.160
32 768
1 46,94 ₽ 18,30 Запустить
rtx3080-1.16.32.160
32 768
1 51,34 ₽ 3,90 Запустить
rtx3090-1.16.24.160
32 768
1 73,73 ₽ 18,30 Запустить
rtx4090-1.16.32.160
32 768
1 91,14 ₽ 18,30 Запустить
teslav100-1.12.64.160
32 768
1 107,57 ₽ 26,53 Запустить
rtxa5000-2.16.64.160.nvlink
32 768
tensor
2 109,77 ₽ 40,13 Запустить
rtx5090-1.16.64.160
32 768
1 141,77 ₽ 26,53 Запустить
teslaa100-1.16.64.160
32 768
1 211,77 ₽ 75,90 Запустить
h100-1.16.64.160
32 768
1 341,77 ₽ 75,90 Запустить
h100nvl-1.16.96.160
32 768
1 367,41 ₽ 90,30 Запустить
h200-1.16.128.160
32 768
1 423,04 ₽ 138,64 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.