GLM-4.7-Flash

размышляющая
русскоязычная

GLM-4.7-Flash — это компактная модель на базе архитектуры Mixture of Experts с 30 миллиардами параметров, из которых на каждый токен активируется всего 4 эксперта из 64 доступных( ~3.6 млрд активных параметров) обеспечивает уникальный баланс между производительностью и эффективностью: модель демонстрирует результаты, сопоставимые с гораздо более крупными LLM, но требует для запуска всего ~24 ГБ видеопамяти. Модель поддерживает длинный контекст — до 200 000 токенов на входе и может генерировать ответы длиной до 128 000 токенов.

В отличие от полноразмерной GLM-4.7 (которая ориентирована на максимальную производительность без ограничений по ресурсам), Flash создана специально для лёгкого развёртывания в условиях ограниченных вычислительных мощностей — локальных серверов, периферийных устройств или бюджетных облаков. По сравнению с предшественницей GLM-4.5 Air, Flash предлагает улучшенные алгоритмы маршрутизации экспертов и оптимизацию для многошаговых агентных задач благодаря «режиму сохранённого мышления» (Preserved Thinking mode), который позволяет модели последовательно выполнять сложные цепочки действий без деградации качества.

GLM-4.7-Flash уверенно опережает другие открытые модели в классе в агентных и программистских сценариях. На бенчмарке τ²-Bench, оценивающем способность модели к многошаговому взаимодействию с пользователем в реалистичных доменах с самостоятельным вызовом инструментов, модель набрала 79.5 баллов, значительно опередив Qwen3-30B-A3B-Thinking (49.0) и GPT-OSS-20B (47.7). Ещё более впечатляющий результат — 59.2 балла на SWE-bench Verified, где модель проверяется на умении исправлять реальные баги в кодовых репозиториях GitHub; здесь она также превзошла как Qwen3 (22.0), так и GPT-OSS-20B (34.0). Дополнительно модель демонстрирует высокие результаты в сложных рассуждениях: 75.2 на GPQA (естественные науки) и 91.6 на AIME 25 (олимпиадная математика).

Сценарии использования модели естественным образом вытекают из её технических преимуществ. Прежде всего — разработка программного обеспечения: фронтенд и бэкенд задачи, генерация и отладка кода, работа с большими кодовыми базами. Во-вторых — агентные системы, требующие многошагового планирования и взаимодействия с инструментами (браузерная навигация, работа с API, автоматизация бизнес-процессов). Третья категория — обработка длинных текстов: юридические документы, техническая документация, литературные произведения на китайском и других языках. Наконец, модель отлично подходит для сценариев с жёсткими ограничениями по ресурсам: локальное развёртывание в организациях с требованиями к приватности данных или использование в стартапах с ограниченным бюджетом на инференс. Для развертывания поддерживаются популярные фреймворки, такие как vLLM, SGLang и Transformers.


Дата анонса: 19.01.2026
Параметров: 31.221488576B
Экспертов: 64
Активно параметров при инференсе: 3.6B
Контекст: 203K
Слоев: 47
Тип внимания: Full Attention
Разработчик: Z.ai
Версия Transformers: 5.0.0rc0
Лицензия: MIT

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с GLM-4.7-Flash. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
Для данной модели пока нет публичных эндпоинтов.

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга GLM-4.7-Flash

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-3.32.384.160
202 752
pipeline
32 393216 160 3 656,89 ₽ Запустить
teslaa100-4.16.256.120
202 752
tensor
16 262144 120 4 815,18 ₽ Запустить
h200-2.24.256.160
202 752
tensor
24 262144 160 2 839,97 ₽ Запустить
rtx5090-8.44.256.160
202 752
pipeline
44 262144 160 8 1 030,97 ₽ Запустить
h100-3.32.384.160
202 752
pipeline
32 393216 160 3 1 046,89 ₽ Запустить
h100nvl-3.24.384.480
202 752
pipeline
24 393216 480 3 1 105,60 ₽ Запустить
h100-4.16.256.120
202 752
tensor
16 262144 120 4 1 335,18 ₽ Запустить
h100nvl-4.32.384.480
202 752
tensor
32 393216 480 4 1 450,00 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-4.16.256.120
202 752
tensor
16 262144 120 4 815,18 ₽ Запустить
h200-2.24.256.160
202 752
tensor
24 262144 160 2 839,97 ₽ Запустить
h100nvl-3.24.384.480
202 752
pipeline
24 393216 480 3 1 105,60 ₽ Запустить
h100-4.16.256.120
202 752
tensor
16 262144 120 4 1 335,18 ₽ Запустить
h100nvl-4.32.384.480
202 752
tensor
32 393216 480 4 1 450,00 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa100-4.16.256.240
202 752
tensor
16 262144 240 4 816,34 ₽ Запустить
h200-2.24.256.160
202 752
tensor
24 262144 160 2 839,97 ₽ Запустить
h100nvl-3.24.384.480
202 752
pipeline
24 393216 480 3 1 105,60 ₽ Запустить
h100-4.16.256.240
202 752
tensor
16 262144 240 4 1 336,34 ₽ Запустить
h100nvl-4.32.384.480
202 752
tensor
32 393216 480 4 1 450,00 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.