GLM-4.6 построена на архитектуре Mixture-of-Experts (MoE) с общим количеством параметров 355 миллиардов, из которых активно используется 32 миллиарда параметров на каждый проход. В GLM-4.6 (как и в версии 4.5) применяется стратегия "больше глубины, меньше ширины": модель имеет больше слоев при меньшем количестве экспертов и меньшей скрытой размерности по сравнению с DeepSeek-V3 и Kimi K2. Такая архитектура обеспечивает лучшие показатели в задачах на рассуждение. Модель состоит из 92 слоев скрытой размерности 5120, использует Grouped-Query Attention с частичным RoPE, 96 голов внимания, QK-нормализацию для стабилизации логитов внимания. При обучении использовался оптимизатор Muon для ускоренной сходимости.
GLM-4.6 предлагает несколько значительных улучшений относительно предшественника: увеличение контекстного окна с 128K до 200K токенов, улучшенные способности к программированию, продвинутые рассуждения и эффективность - модель завершает задачи примерно на 15% меньшим количеством токенов по сравнению с GLM-4.5. По данным официального релиза, GLM-4.6 была протестирована на восьми публичных бенчмарках, охватывающих агентные задачи, задачи на рассуждение и программирование. По результатам модель продемонстрировала способность уверенно конкурировать с ведущими моделями, такими как DeepSeek-V3.2-Exp и Claude Sonnet 4. Например AIME 25 (математические рассуждения): 98.6%, что значительно превосходит Claude Sonnet 4 (74.3%) и DeepSeek-V3.2-Exp (89.3%). LiveCodeBench v6 (программирование в реальных условиях): 84.5%, существенно опережая GLM-4.5 (63.3%) и DeepSeek-V3.2-Exp (70.1%). BrowseComp (агентные задачи с веб-поиском): 45.1%, значительно превосходя GLM-4.5 (26.4%) и DeepSeek-V3.2-Exp (40.1%). задач. В практических задачах программирования, согласно расширенному тесту CC-Bench, проведенному разработчиками, GLM-4.6 достигает практического паритета с Claude Sonnet 4, показывая 48.6% побед в прямых сравнениях при выполнении реальных задач по фронтенд-разработке, созданию инструментов, анализу данных, тестированию и алгоритмам.
Благодаря своим уникальным характеристикам GLM-4.6 оптимально подходит для создания автономных AI-агентов, профессиональной разработки программного обеспечения от фронтенд-разработки до рефакторинга legacy-кода, анализа значительного массива документов, создания образовательного контента и не в последнюю очередь в научных исследованиях.
Наименование модели | Контекст | Тип | GPU | TPS | Статус | Ссылка |
---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
---|---|---|---|---|---|---|---|
202 752 |
32 | 393216 | 320 | 4 | 924,44 ₽ | Запустить | |
202 752 |
44 | 524288 | 320 | 4 | 1 855,57 ₽ | Запустить | |
202 752 |
32 | 524288 | 480 | 3 | 1 882,53 ₽ | Запустить |
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
---|---|---|---|---|---|---|---|
202 752 |
44 | 524288 | 480 | 8 | 1 791,13 ₽ | Запустить | |
202 752 |
32 | 786432 | 480 | 4 | 2 517,59 ₽ | Запустить |
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
---|---|---|---|---|---|---|---|
202 752 |
52 | 1048576 | 960 | 8 | 4 938,30 ₽ | Запустить |
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.