GigaChat3.1-10B-A1.8B

русскоязычная

GigaChat3.1-10B-A1.8B или GigaChat 3.1 Lightning — это компактная инструктивная модель семейства GigaChat 3.1, построенная по архитектуре Mixture-of-Experts (MoE). При общем объеме в 10 млрд параметров в вычислениях на каждый токен активируются лишь 1.8 млрд, что кардинально снижает нагрузку на память и ускоряет инференс без ущерба для качества. В основе архитектуры модели лежит Multi-head Latent Attention (MLA), сжимающее KV-кеш в скрытое представление и тем самым экономящее память при обработке длинных контекстов. Дополнительный прирост производительности дает технология Multi-Token Prediction (MTP) — механизм, позволяющий модели предсказывать несколько токенов за один проход.

Ключевое отличие модели от GigaChat3-10B-A1.8B — этап обучения (DPO), полностью проведенный в нативном FP8 на базе библиотеки DeepGEMM, а не применение сжатия постфактум в виде квантования. Это позволило не только сохранить, но и в ряде случаев превзойти качество BF16-обучения при вдвое меньшем потреблении памяти.

Модель обучалась на корпусе, охватывающем 10 языков и включающем книги, научные материалы, код, математические датасеты и примерно 5.5 трлн синтетических токенов. Для версии 3.1 была проведена масштабная работа по улучшению данных: усилено покрытие сложных доменов (математика, физика, биология, химия, финансы), ужесточена валидация через внутренний пайплайн Revisor и систему LLM-судей, а также добавлены предпочтения, собранные непосредственно с «живого» поведения предыдущих версий модели (on-policy DPO). Такой подход обеспечивает высокую релевантность, точность и устойчивость к повторениям.

Благодаря высокой скорости, компактности и качеству, GigaChat 3.1 Lightning идеально подходит для создания быстрых многозадачных ассистентов, способных работать с длинными документами, объяснять сложные концепции, генерировать и отлаживать код. В число ключевых сценариев входят: автоматизация клиентской поддержки с вызовом функций (function calling), генерация структурированного контента (markdown, LaTeX), персонализированные рекомендации, поисково-цитатные диалоги, исполняемые вызовы инструментов в ассистентах, а также любые задачи, где важна низкая задержка при высокой точности ответов — чат-боты, RAG-системы, локальные AI-помощники на устройствах с ограниченными ресурсами.


Дата анонса: 21.03.2026
Параметров: 12B
Экспертов: 64
Активно параметров при инференсе: 2B
Контекст: 263K
Слоев: 26
Тип внимания: Multi-head Latent Attention
Разработчик: Sber AI
Версия Transformers: 4.53.2
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с GigaChat3.1-10B-A1.8B. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга GigaChat3.1-10B-A1.8B

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-1.16.32.160
262 144
1 46,94 ₽ 1,87 Запустить
teslat4-2.16.32.160
262 144
tensor
2 48,14 ₽ 1,25 Запустить
teslaa2-2.16.32.160
262 144
tensor
2 51,34 ₽ 1,25 Запустить
rtx3090-1.16.24.160
262 144
1 73,73 ₽ 1,87 Запустить
rtx4090-1.16.32.160
262 144
1 91,14 ₽ 1,87 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 2,23 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 2,85 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 8,71 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 8,71 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 10,42 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 9,08 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 16,17 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 16,53 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-1.16.32.160
262 144
1 46,94 ₽ 1,04 Запустить
rtx3090-1.16.24.160
262 144
1 73,73 ₽ 1,04 Запустить
teslat4-3.32.64.160
262 144
pipeline
3 78,57 ₽ 1,10 Запустить
teslat4-4.16.64.160
262 144
tensor
4 85,77 ₽ 1,23 Запустить
rtx4090-1.16.32.160
262 144
1 91,14 ₽ 1,04 Запустить
teslaa2-3.32.128.160
262 144
pipeline
3 94,64 ₽ 1,10 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 1,82 Запустить
teslaa2-4.32.128.160
262 144
tensor
4 112,24 ₽ 1,23 Запустить
rtx5090-1.16.64.160
262 144
1 141,77 ₽ 2,02 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 7,89 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 7,89 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 9,60 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 8,66 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 15,34 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 16,12 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-2.16.64.160
262 144
tensor
2 83,37 ₽ 1,14 Запустить
rtxa5000-2.16.64.160.nvlink
262 144
tensor
2 109,77 ₽ 1,14 Запустить
rtx3090-2.16.64.160
262 144
tensor
2 139,77 ₽ 1,14 Запустить
teslaa2-6.32.128.160
262 144
pipeline
6 147,44 ₽ 1,13 Запустить
rtx4090-2.16.64.160
262 144
tensor
2 171,77 ₽ 1,14 Запустить
teslaa100-1.16.64.160
262 144
1 211,77 ₽ 6,53 Запустить
rtx5090-2.16.64.160
262 144
tensor
2 261,77 ₽ 2,12 Запустить
h100-1.16.64.160
262 144
1 341,77 ₽ 6,53 Запустить
h100nvl-1.16.96.160
262 144
1 367,41 ₽ 8,25 Запустить
teslaa100-2.24.96.160.nvlink
262 144
tensor
2 411,81 ₽ 7,99 Запустить
h200-1.16.128.160
262 144
1 423,04 ₽ 13,99 Запустить
h200-2.24.256.160.nvlink
262 144
tensor
2 839,97 ₽ 15,44 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.