GLM-4.7-Flash

размышляющая
русскоязычная

GLM-4.7-Flash — это компактная модель на базе архитектуры Mixture of Experts с 30 миллиардами параметров, из которых на каждый токен активируется всего 4 эксперта из 64 доступных( ~3.6 млрд активных параметров) обеспечивает уникальный баланс между производительностью и эффективностью: модель демонстрирует результаты, сопоставимые с гораздо более крупными LLM, но требует для запуска всего ~24 ГБ видеопамяти. Модель поддерживает длинный контекст — до 200 000 токенов на входе и может генерировать ответы длиной до 128 000 токенов.

В отличие от полноразмерной GLM-4.7 (которая ориентирована на максимальную производительность без ограничений по ресурсам), Flash создана специально для лёгкого развёртывания в условиях ограниченных вычислительных мощностей — локальных серверов, периферийных устройств или бюджетных облаков. По сравнению с предшественницей GLM-4.5 Air, Flash предлагает улучшенные алгоритмы маршрутизации экспертов и оптимизацию для многошаговых агентных задач благодаря «режиму сохранённого мышления» (Preserved Thinking mode), который позволяет модели последовательно выполнять сложные цепочки действий без деградации качества.

GLM-4.7-Flash уверенно опережает другие открытые модели в классе в агентных и программистских сценариях. На бенчмарке τ²-Bench, оценивающем способность модели к многошаговому взаимодействию с пользователем в реалистичных доменах с самостоятельным вызовом инструментов, модель набрала 79.5 баллов, значительно опередив Qwen3-30B-A3B-Thinking (49.0) и GPT-OSS-20B (47.7). Ещё более впечатляющий результат — 59.2 балла на SWE-bench Verified, где модель проверяется на умении исправлять реальные баги в кодовых репозиториях GitHub; здесь она также превзошла как Qwen3 (22.0), так и GPT-OSS-20B (34.0). Дополнительно модель демонстрирует высокие результаты в сложных рассуждениях: 75.2 на GPQA (естественные науки) и 91.6 на AIME 25 (олимпиадная математика).

Сценарии использования модели естественным образом вытекают из её технических преимуществ. Прежде всего — разработка программного обеспечения: фронтенд и бэкенд задачи, генерация и отладка кода, работа с большими кодовыми базами. Во-вторых — агентные системы, требующие многошагового планирования и взаимодействия с инструментами (браузерная навигация, работа с API, автоматизация бизнес-процессов). Третья категория — обработка длинных текстов: юридические документы, техническая документация, литературные произведения на китайском и других языках. Наконец, модель отлично подходит для сценариев с жёсткими ограничениями по ресурсам: локальное развёртывание в организациях с требованиями к приватности данных или использование в стартапах с ограниченным бюджетом на инференс. Для развертывания поддерживаются популярные фреймворки, такие как vLLM, SGLang и Transformers.


Дата анонса: 19.01.2026
Параметров: 32B
Экспертов: 64
Активно параметров при инференсе: 4B
Контекст: 203K
Слоев: 47
Тип внимания: Multi-head Latent Attention
Разработчик: Z.ai
Версия Transformers: 5.0.0rc0
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с GLM-4.7-Flash. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга GLM-4.7-Flash

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.128.160
202 752
tensor
4 156,24 ₽ 1,40 Запустить
rtxa5000-4.16.128.160.nvlink
202 752
tensor
4 209,04 ₽ 1,40 Запустить
teslaa100-1.16.64.160
202 752
1 211,77 ₽ 4,93 Запустить
rtx4090-3.16.96.160
202 752
pipeline
3 252,41 ₽ 1,25 Запустить
rtx5090-2.16.64.160
202 752
tensor
2 261,77 ₽ 1,64 Запустить
rtx3090-4.16.128.160
202 752
tensor
4 269,04 ₽ 1,40 Запустить
rtx4090-4.16.32.160
202 752
tensor
4 316,14 ₽ 1,40 Запустить
h100-1.16.64.160
202 752
1 341,77 ₽ 4,93 Запустить
h100nvl-1.16.96.160
202 752
1 367,41 ₽ 6,15 Запустить
teslaa100-2.24.256.160.nvlink
202 752
tensor
2 439,97 ₽ 5,84 Запустить
h200-2.24.256.160.nvlink
202 752
tensor
2 839,97 ₽ 11,17 Запустить
h200-4.32.768.480
202 752
tensor
4 1 717,59 ₽ 11,63 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa10-4.16.128.160
202 752
tensor
4 156,24 ₽ 1,07 Запустить
rtxa5000-4.16.128.160.nvlink
202 752
tensor
4 209,04 ₽ 1,07 Запустить
teslaa100-1.16.64.160
202 752
1 211,77 ₽ 3,59 Запустить
rtx5090-2.16.64.160
202 752
tensor
2 261,77 ₽ 0,98 Запустить
rtx3090-4.16.128.160
202 752
tensor
4 269,04 ₽ 1,07 Запустить
rtx4090-4.16.64.160
202 752
tensor
4 321,77 ₽ 1,07 Запустить
h100-1.16.64.160
202 752
1 341,77 ₽ 3,59 Запустить
h100nvl-1.16.96.160
202 752
1 367,41 ₽ 4,82 Запустить
teslaa100-2.24.256.160.nvlink
202 752
tensor
2 439,97 ₽ 5,17 Запустить
h200-2.24.256.160.nvlink
202 752
tensor
2 839,97 ₽ 10,50 Запустить
h200-4.32.768.480
202 752
tensor
4 1 717,59 ₽ 11,29 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
h100nvl-1.16.96.240
202 752
1 368,18 ₽ 1,91 Запустить
teslaa100-2.24.256.240
202 752
tensor
2 440,74 ₽ 3,72 Запустить
teslaa100-2.24.256.320.nvlink
202 752
tensor
2 441,52 ₽ 3,72 Запустить
rtx5090-4.16.128.320
202 752
tensor
4 514,59 ₽ 1,04 Запустить
rtx4090-8.44.256.480
202 752
pipeline
8 674,08 ₽ 1,10 Запустить
h100-2.24.256.240
202 752
tensor
2 700,74 ₽ 3,72 Запустить
h200-2.24.256.240.nvlink
202 752
tensor
2 840,74 ₽ 9,05 Запустить
h200-4.32.768.480
202 752
tensor
4 1 717,59 ₽ 10,57 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.