GLM-4.7-Flash — это компактная модель на базе архитектуры Mixture of Experts с 30 миллиардами параметров, из которых на каждый токен активируется всего 4 эксперта из 64 доступных( ~3.6 млрд активных параметров) обеспечивает уникальный баланс между производительностью и эффективностью: модель демонстрирует результаты, сопоставимые с гораздо более крупными LLM, но требует для запуска всего ~24 ГБ видеопамяти. Модель поддерживает длинный контекст — до 200 000 токенов на входе и может генерировать ответы длиной до 128 000 токенов.
В отличие от полноразмерной GLM-4.7 (которая ориентирована на максимальную производительность без ограничений по ресурсам), Flash создана специально для лёгкого развёртывания в условиях ограниченных вычислительных мощностей — локальных серверов, периферийных устройств или бюджетных облаков. По сравнению с предшественницей GLM-4.5 Air, Flash предлагает улучшенные алгоритмы маршрутизации экспертов и оптимизацию для многошаговых агентных задач благодаря «режиму сохранённого мышления» (Preserved Thinking mode), который позволяет модели последовательно выполнять сложные цепочки действий без деградации качества.
GLM-4.7-Flash уверенно опережает другие открытые модели в классе в агентных и программистских сценариях. На бенчмарке τ²-Bench, оценивающем способность модели к многошаговому взаимодействию с пользователем в реалистичных доменах с самостоятельным вызовом инструментов, модель набрала 79.5 баллов, значительно опередив Qwen3-30B-A3B-Thinking (49.0) и GPT-OSS-20B (47.7). Ещё более впечатляющий результат — 59.2 балла на SWE-bench Verified, где модель проверяется на умении исправлять реальные баги в кодовых репозиториях GitHub; здесь она также превзошла как Qwen3 (22.0), так и GPT-OSS-20B (34.0). Дополнительно модель демонстрирует высокие результаты в сложных рассуждениях: 75.2 на GPQA (естественные науки) и 91.6 на AIME 25 (олимпиадная математика).
Сценарии использования модели естественным образом вытекают из её технических преимуществ. Прежде всего — разработка программного обеспечения: фронтенд и бэкенд задачи, генерация и отладка кода, работа с большими кодовыми базами. Во-вторых — агентные системы, требующие многошагового планирования и взаимодействия с инструментами (браузерная навигация, работа с API, автоматизация бизнес-процессов). Третья категория — обработка длинных текстов: юридические документы, техническая документация, литературные произведения на китайском и других языках. Наконец, модель отлично подходит для сценариев с жёсткими ограничениями по ресурсам: локальное развёртывание в организациях с требованиями к приватности данных или использование в стартапах с ограниченным бюджетом на инференс. Для развертывания поддерживаются популярные фреймворки, такие как vLLM, SGLang и Transformers.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
202 752 tensor |
4 | 156,24 ₽ | 1,40 | Запустить | ||
202 752 tensor |
4 | 209,04 ₽ | 1,40 | Запустить | ||
202 752 |
1 | 211,77 ₽ | 4,93 | Запустить | ||
202 752 pipeline |
3 | 252,41 ₽ | 1,25 | Запустить | ||
202 752 tensor |
2 | 261,77 ₽ | 1,64 | Запустить | ||
202 752 tensor |
4 | 269,04 ₽ | 1,40 | Запустить | ||
202 752 tensor |
4 | 316,14 ₽ | 1,40 | Запустить | ||
202 752 |
1 | 341,77 ₽ | 4,93 | Запустить | ||
202 752 |
1 | 367,41 ₽ | 6,15 | Запустить | ||
202 752 tensor |
2 | 439,97 ₽ | 5,84 | Запустить | ||
202 752 tensor |
2 | 839,97 ₽ | 11,17 | Запустить | ||
202 752 tensor |
4 | 1 717,59 ₽ | 11,63 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
202 752 tensor |
4 | 156,24 ₽ | 1,07 | Запустить | ||
202 752 tensor |
4 | 209,04 ₽ | 1,07 | Запустить | ||
202 752 |
1 | 211,77 ₽ | 3,59 | Запустить | ||
202 752 tensor |
2 | 261,77 ₽ | 0,98 | Запустить | ||
202 752 tensor |
4 | 269,04 ₽ | 1,07 | Запустить | ||
202 752 tensor |
4 | 321,77 ₽ | 1,07 | Запустить | ||
202 752 |
1 | 341,77 ₽ | 3,59 | Запустить | ||
202 752 |
1 | 367,41 ₽ | 4,82 | Запустить | ||
202 752 tensor |
2 | 439,97 ₽ | 5,17 | Запустить | ||
202 752 tensor |
2 | 839,97 ₽ | 10,50 | Запустить | ||
202 752 tensor |
4 | 1 717,59 ₽ | 11,29 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
202 752 |
1 | 368,18 ₽ | 1,91 | Запустить | ||
202 752 tensor |
2 | 440,74 ₽ | 3,72 | Запустить | ||
202 752 tensor |
2 | 441,52 ₽ | 3,72 | Запустить | ||
202 752 tensor |
4 | 514,59 ₽ | 1,04 | Запустить | ||
202 752 pipeline |
8 | 674,08 ₽ | 1,10 | Запустить | ||
202 752 tensor |
2 | 700,74 ₽ | 3,72 | Запустить | ||
202 752 tensor |
2 | 840,74 ₽ | 9,05 | Запустить | ||
202 752 tensor |
4 | 1 717,59 ₽ | 10,57 | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.