Llama-3.3-70B

Llama-3.3-70B — новая версия популярной серии llama 3, оптимизированная для диалоговых и ассистентских сценариев. Модель обучена на более чем 15 триллионах токенов из открытых источников, контекстное окно увеличено до 128 тысяч токенов, что позволяет эффективно обрабатывать длинные диалоги и большие тексты. Llama-3.3-70B использует методы supervised fine-tuning (SFT) и reinforcement learning with human feedback (RLHF) для лучшей адаптации к пользовательским запросам, обеспечивая не только точность, но и безопасность ответов.

Модель распространяется по специальной коммерческой лицензии Llama 3.3 Community License, которая позволяет использовать её как в исследовательских, так и в коммерческих целях, при соблюдении политики допустимого использования. Llama-3.3-70B не предназначена для применения в критических областях (например, медицина, финансы, управление инфраструктурой и т. д.).
Llama-3.3-70B — это мощная языковая модель, оптимизированная для диалоговых и ассистентских задач, идеально подходящая для создания чат-ботов, автоматизации поддержки, по сути она является универсальным инструментом для задач генерации, суммаризации, перевода, написания кода и других применений, где требуется качественная обработка естественного языка.


Дата анонса: 06.12.2024
Параметров: 70B
Контекст: 131K
Тип внимания: Full Attention
Потребление памяти: 72.6 ГБ в точности 4 бит
Разработчик: Meta AI
Версия Transformers: 4.48.0
Лицензия: LLAMA 3.3

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами для теста инференса и знакомства с Llama-3.3-70B.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга Llama-3.3-70B

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-4.16.128.160 16 131072 160 4 156,24 ₽ Запустить
teslaa100-1.16.128.160 16 131072 160 1 242,04 ₽ Запустить
rtx3090-4.16.128.160 16 131072 160 4 288,24 ₽ Запустить
rtx4090-4.16.128.160 16 131072 160 4 380,64 ₽ Запустить
rtx5090-3.16.96.160 16 98304 160 3 387,41 ₽ Запустить
teslah100-1.16.128.160 16 131072 160 1 467,54 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-2.24.256.160 24 262144 160 2 477,97 ₽ Запустить
rtx5090-4.16.128.160 16 131072 160 4 513,04 ₽ Запустить
teslah100-2.24.256.160 24 262144 160 2 928,97 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-3.32.384.240 32 393216 240 3 714,66 ₽ Запустить
rtx4090-8.44.256.240 44 262144 240 8 766,94 ₽ Запустить
rtx5090-6.44.256.240 44 262144 240 6 791,74 ₽ Запустить
teslah100-3.32.384.240 32 393216 240 3 1 391,16 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.