GLM-4.7-Flash — это компактная модель на базе архитектуры Mixture of Experts с 30 миллиардами параметров, из которых на каждый токен активируется всего 4 эксперта из 64 доступных( ~3.6 млрд активных параметров) обеспечивает уникальный баланс между производительностью и эффективностью: модель демонстрирует результаты, сопоставимые с гораздо более крупными LLM, но требует для запуска всего ~24 ГБ видеопамяти. Модель поддерживает длинный контекст — до 200 000 токенов на входе и может генерировать ответы длиной до 128 000 токенов.
В отличие от полноразмерной GLM-4.7 (которая ориентирована на максимальную производительность без ограничений по ресурсам), Flash создана специально для лёгкого развёртывания в условиях ограниченных вычислительных мощностей — локальных серверов, периферийных устройств или бюджетных облаков. По сравнению с предшественницей GLM-4.5 Air, Flash предлагает улучшенные алгоритмы маршрутизации экспертов и оптимизацию для многошаговых агентных задач благодаря «режиму сохранённого мышления» (Preserved Thinking mode), который позволяет модели последовательно выполнять сложные цепочки действий без деградации качества.
GLM-4.7-Flash уверенно опережает другие открытые модели в классе в агентных и программистских сценариях. На бенчмарке τ²-Bench, оценивающем способность модели к многошаговому взаимодействию с пользователем в реалистичных доменах с самостоятельным вызовом инструментов, модель набрала 79.5 баллов, значительно опередив Qwen3-30B-A3B-Thinking (49.0) и GPT-OSS-20B (47.7). Ещё более впечатляющий результат — 59.2 балла на SWE-bench Verified, где модель проверяется на умении исправлять реальные баги в кодовых репозиториях GitHub; здесь она также превзошла как Qwen3 (22.0), так и GPT-OSS-20B (34.0). Дополнительно модель демонстрирует высокие результаты в сложных рассуждениях: 75.2 на GPQA (естественные науки) и 91.6 на AIME 25 (олимпиадная математика).
Сценарии использования модели естественным образом вытекают из её технических преимуществ. Прежде всего — разработка программного обеспечения: фронтенд и бэкенд задачи, генерация и отладка кода, работа с большими кодовыми базами. Во-вторых — агентные системы, требующие многошагового планирования и взаимодействия с инструментами (браузерная навигация, работа с API, автоматизация бизнес-процессов). Третья категория — обработка длинных текстов: юридические документы, техническая документация, литературные произведения на китайском и других языках. Наконец, модель отлично подходит для сценариев с жёсткими ограничениями по ресурсам: локальное развёртывание в организациях с требованиями к приватности данных или использование в стартапах с ограниченным бюджетом на инференс. Для развертывания поддерживаются популярные фреймворки, такие как vLLM, SGLang и Transformers.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
202 752 pipeline |
3 | 78,57 ₽ | 1,56 | Запустить | ||
202 752 tensor |
2 | 83,37 ₽ | 1,80 | Запустить | ||
202 752 tensor |
4 | 85,77 ₽ | 2,72 | Запустить | ||
202 752 pipeline |
3 | 94,64 ₽ | 1,56 | Запустить | ||
202 752 tensor |
4 | 105,37 ₽ | 0,96 | Запустить | ||
202 752 tensor |
2 | 109,77 ₽ | 1,80 | Запустить | ||
202 752 tensor |
4 | 112,24 ₽ | 2,72 | Запустить | ||
202 752 tensor |
2 | 139,77 ₽ | 1,80 | Запустить | ||
202 752 tensor |
2 | 171,77 ₽ | 1,80 | Запустить | ||
202 752 tensor |
2 | 198,54 ₽ | 3,21 | Запустить | ||
202 752 |
1 | 211,77 ₽ | 4,87 | Запустить | ||
202 752 tensor |
2 | 261,77 ₽ | 3,21 | Запустить | ||
202 752 |
1 | 341,77 ₽ | 4,87 | Запустить | ||
202 752 |
1 | 367,41 ₽ | 6,10 | Запустить | ||
202 752 |
1 | 423,04 ₽ | 10,23 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
202 752 tensor |
4 | 85,77 ₽ | 1,47 | Запустить | ||
202 752 tensor |
4 | 112,24 ₽ | 1,47 | Запустить | ||
202 752 pipeline |
3 | 119,81 ₽ | 2,42 | Запустить | ||
202 752 tensor |
4 | 139,96 ₽ | 4,29 | Запустить | ||
202 752 tensor |
2 | 198,54 ₽ | 1,96 | Запустить | ||
202 752 pipeline |
3 | 204,41 ₽ | 2,42 | Запустить | ||
202 752 tensor |
4 | 209,04 ₽ | 4,29 | Запустить | ||
202 752 |
1 | 211,77 ₽ | 3,62 | Запустить | ||
202 752 pipeline |
3 | 252,41 ₽ | 2,42 | Запустить | ||
202 752 tensor |
4 | 257,77 ₽ | 4,29 | Запустить | ||
202 752 tensor |
2 | 261,77 ₽ | 1,96 | Запустить | ||
202 752 tensor |
4 | 321,77 ₽ | 4,29 | Запустить | ||
202 752 |
1 | 341,77 ₽ | 3,62 | Запустить | ||
202 752 |
1 | 367,41 ₽ | 4,85 | Запустить | ||
202 752 |
1 | 423,04 ₽ | 8,99 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
202 752 tensor |
4 | 156,24 ₽ | 1,37 | Запустить | ||
202 752 tensor |
4 | 209,04 ₽ | 1,37 | Запустить | ||
202 752 tensor |
4 | 264,96 ₽ | 1,37 | Запустить | ||
202 752 tensor |
4 | 328,96 ₽ | 1,37 | Запустить | ||
202 752 pipeline |
3 | 347,52 ₽ | 1,61 | Запустить | ||
202 752 |
1 | 367,41 ₽ | 1,92 | Запустить | ||
202 752 pipeline |
3 | 387,41 ₽ | 1,61 | Запустить | ||
202 752 tensor |
4 | 388,21 ₽ | 4,18 | Запустить | ||
202 752 tensor |
2 | 411,81 ₽ | 7,49 | Запустить | ||
202 752 |
1 | 423,04 ₽ | 6,06 | Запустить | ||
202 752 tensor |
4 | 513,04 ₽ | 4,18 | Запустить | ||
202 752 tensor |
2 | 699,97 ₽ | 7,49 | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.