GLM-4.7-Flash

размышляющая
русскоязычная

GLM-4.7-Flash — это компактная модель на базе архитектуры Mixture of Experts с 30 миллиардами параметров, из которых на каждый токен активируется всего 4 эксперта из 64 доступных( ~3.6 млрд активных параметров) обеспечивает уникальный баланс между производительностью и эффективностью: модель демонстрирует результаты, сопоставимые с гораздо более крупными LLM, но требует для запуска всего ~24 ГБ видеопамяти. Модель поддерживает длинный контекст — до 200 000 токенов на входе и может генерировать ответы длиной до 128 000 токенов.

В отличие от полноразмерной GLM-4.7 (которая ориентирована на максимальную производительность без ограничений по ресурсам), Flash создана специально для лёгкого развёртывания в условиях ограниченных вычислительных мощностей — локальных серверов, периферийных устройств или бюджетных облаков. По сравнению с предшественницей GLM-4.5 Air, Flash предлагает улучшенные алгоритмы маршрутизации экспертов и оптимизацию для многошаговых агентных задач благодаря «режиму сохранённого мышления» (Preserved Thinking mode), который позволяет модели последовательно выполнять сложные цепочки действий без деградации качества.

GLM-4.7-Flash уверенно опережает другие открытые модели в классе в агентных и программистских сценариях. На бенчмарке τ²-Bench, оценивающем способность модели к многошаговому взаимодействию с пользователем в реалистичных доменах с самостоятельным вызовом инструментов, модель набрала 79.5 баллов, значительно опередив Qwen3-30B-A3B-Thinking (49.0) и GPT-OSS-20B (47.7). Ещё более впечатляющий результат — 59.2 балла на SWE-bench Verified, где модель проверяется на умении исправлять реальные баги в кодовых репозиториях GitHub; здесь она также превзошла как Qwen3 (22.0), так и GPT-OSS-20B (34.0). Дополнительно модель демонстрирует высокие результаты в сложных рассуждениях: 75.2 на GPQA (естественные науки) и 91.6 на AIME 25 (олимпиадная математика).

Сценарии использования модели естественным образом вытекают из её технических преимуществ. Прежде всего — разработка программного обеспечения: фронтенд и бэкенд задачи, генерация и отладка кода, работа с большими кодовыми базами. Во-вторых — агентные системы, требующие многошагового планирования и взаимодействия с инструментами (браузерная навигация, работа с API, автоматизация бизнес-процессов). Третья категория — обработка длинных текстов: юридические документы, техническая документация, литературные произведения на китайском и других языках. Наконец, модель отлично подходит для сценариев с жёсткими ограничениями по ресурсам: локальное развёртывание в организациях с требованиями к приватности данных или использование в стартапах с ограниченным бюджетом на инференс. Для развертывания поддерживаются популярные фреймворки, такие как vLLM, SGLang и Transformers.


Дата анонса: 19.01.2026
Параметров: 32B
Экспертов: 64
Активно параметров при инференсе: 4B
Контекст: 203K
Слоев: 47
Тип внимания: Multi-head Latent Attention
Разработчик: Z.ai
Версия Transformers: 5.0.0rc0
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с GLM-4.7-Flash. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга GLM-4.7-Flash

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-3.32.64.160
202 752
pipeline
3 78,57 ₽ 1,56 Запустить
teslaa10-2.16.64.160
202 752
tensor
2 83,37 ₽ 1,80 Запустить
teslat4-4.16.64.160
202 752
tensor
4 85,77 ₽ 2,72 Запустить
teslaa2-3.32.128.160
202 752
pipeline
3 94,64 ₽ 1,56 Запустить
rtx2080ti-4.16.64.160
202 752
tensor
4 105,37 ₽ 0,96 Запустить
rtxa5000-2.16.64.160.nvlink
202 752
tensor
2 109,77 ₽ 1,80 Запустить
teslaa2-4.32.128.160
202 752
tensor
4 112,24 ₽ 2,72 Запустить
rtx3090-2.16.64.160
202 752
tensor
2 139,77 ₽ 1,80 Запустить
rtx4090-2.16.64.160
202 752
tensor
2 171,77 ₽ 1,80 Запустить
teslav100-2.16.64.240
202 752
tensor
2 198,54 ₽ 3,21 Запустить
teslaa100-1.16.64.160
202 752
1 211,77 ₽ 4,87 Запустить
rtx5090-2.16.64.160
202 752
tensor
2 261,77 ₽ 3,21 Запустить
h100-1.16.64.160
202 752
1 341,77 ₽ 4,87 Запустить
h100nvl-1.16.96.160
202 752
1 367,41 ₽ 6,10 Запустить
h200-1.16.128.160
202 752
1 423,04 ₽ 10,23 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslat4-4.16.64.160
202 752
tensor
4 85,77 ₽ 1,47 Запустить
teslaa2-4.32.128.160
202 752
tensor
4 112,24 ₽ 1,47 Запустить
teslaa10-3.16.96.160
202 752
pipeline
3 119,81 ₽ 2,42 Запустить
teslaa10-4.12.48.160
202 752
tensor
4 139,96 ₽ 4,29 Запустить
teslav100-2.16.64.240
202 752
tensor
2 198,54 ₽ 1,96 Запустить
rtx3090-3.16.96.160
202 752
pipeline
3 204,41 ₽ 2,42 Запустить
rtxa5000-4.16.128.160.nvlink
202 752
tensor
4 209,04 ₽ 4,29 Запустить
teslaa100-1.16.64.160
202 752
1 211,77 ₽ 3,62 Запустить
rtx4090-3.16.96.160
202 752
pipeline
3 252,41 ₽ 2,42 Запустить
rtx3090-4.16.64.160
202 752
tensor
4 257,77 ₽ 4,29 Запустить
rtx5090-2.16.64.160
202 752
tensor
2 261,77 ₽ 1,96 Запустить
rtx4090-4.16.64.160
202 752
tensor
4 321,77 ₽ 4,29 Запустить
h100-1.16.64.160
202 752
1 341,77 ₽ 3,62 Запустить
h100nvl-1.16.96.160
202 752
1 367,41 ₽ 4,85 Запустить
h200-1.16.128.160
202 752
1 423,04 ₽ 8,99 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.128.160
202 752
tensor
4 156,24 ₽ 1,37 Запустить
rtxa5000-4.16.128.160.nvlink
202 752
tensor
4 209,04 ₽ 1,37 Запустить
rtx3090-4.16.96.320
202 752
tensor
4 264,96 ₽ 1,37 Запустить
rtx4090-4.16.96.320
202 752
tensor
4 328,96 ₽ 1,37 Запустить
teslav100-3.64.256.320
202 752
pipeline
3 347,52 ₽ 1,61 Запустить
h100nvl-1.16.96.160
202 752
1 367,41 ₽ 1,92 Запустить
rtx5090-3.16.96.160
202 752
pipeline
3 387,41 ₽ 1,61 Запустить
teslav100-4.32.96.160
202 752
tensor
4 388,21 ₽ 4,18 Запустить
teslaa100-2.24.96.160.nvlink
202 752
tensor
2 411,81 ₽ 7,49 Запустить
h200-1.16.128.160
202 752
1 423,04 ₽ 6,06 Запустить
rtx5090-4.16.128.160
202 752
tensor
4 513,04 ₽ 4,18 Запустить
h100-2.24.256.160
202 752
tensor
2 699,97 ₽ 7,49 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.