Модель для задачи редактирования изображений, обеспечивающая высокую точность, качество и консистентность в различных сценариях.
Флагманская модель серии, достигшая передового уровня производительности (SOTA) в программировании, агентном использовании инструментов и реальных практических «офисных» кейсах. Благодаря масштабному обучению с подкреплением (RL) и инновационному фреймворку Forge, M2.5 не только решает сложнейшие задачи, но и делает это с высокой точностью и скоростью.
Фундаментальная open-source модель, разработанная для решения сложных задач и продолжительных агентных сценариев. Архитектура MoE c 754B параметров (40B активных), разреженное вниманием (DSA), инновационная RL-инфраструктура slime и фокус на практическую полезность позволяют GLM-5 вывести взаимодействие с ИИ далеко за рамки простого чата, превращая его в полноценного ассистента исполнителя
Эффективная MoE-модель с 80B параметров (активно 3B), специально созданная для агентов, ориентированных на программирование. Модель отличается высокой эффективностью инференса, длинным контекстом (262K токенов) и лучшей в своём классе работой с различными форматами вызовов инструментов, что делает её идеальным выбором для развертывания интеллектуальных ассистентов разработчика.
Открытая модель для синхронной генерации видео и аудио, разработанная для преодоления ограничений проприетарных систем (например, Sora 2, Veo 3). Она предназначена для задач Image-to-Video-Audio (IT2VA) и Text-to-Video-Audio (T2VA), обеспечивая одновременное создание высококачественного видео и соответствующего ему аудио без ошибок, связанных с каскадными подходами (когда аудио генерируется отдельно).
Открытая модель для синхронной генерации видео и аудио, разработанная для преодоления ограничений проприетарных систем (например, Sora 2, Veo 3). Она предназначена для задач Image-to-Video-Audio (IT2VA) и Text-to-Video-Audio (T2VA), обеспечивая одновременное создание высококачественного видео и соответствующего ему аудио без ошибок, связанных с каскадными подходами (когда аудио генерируется отдельно).
Модель для генерации и редактирования изображений на основе текста и референсных изображений. Она разработана Tencent и представляет собой крупнейшую открытую модель для генерации изображений с использованием архитектуры Mixture of Experts (MoE). Модель объединяет текст и изображения в едином автокорректируемом фреймворке, что обеспечивает высокую контекстную целостность и детализацию. Всего модель содержит 80 миллиардов параметров (активируется 13 млрд на токен) и использует 64 эксперта (experts) для повышения производительности.
Инновационная мультимодальная модель для оптического распознавания символов (OCR), которая имитирует человеческое визуальное восприятие. Вместо стандартного построчного сканирования изображения, её новый энкодер DeepEncoder V2 использует компактную языковую модель для динамического переупорядочивания визуальных токенов, следуя семантической логике документа. Это позволяет значительно улучшить понимание сложных макетов, таблиц и формул, сохранив при этом высокую эффективность предыдущей версии.
Модель предназначена для генерации видео на основе изображений (Image-to-Video). Она относится к категории «World Model» и лицензирована под Apache-2.0, что обеспечивает открытый доступ к коду и моделям.
Это базовая модель семейства ⚡️-Image, разработанная для высокого качества генерации изображений, широкого охвата стилей и точного соответствия текстовым запросам. Она предназначена для профессионального использования, творческих задач и исследований, в отличие от ускоренной версии Z-Image-Turbo.
30-миллиардная MoE-модель с активацией всего ~3.6B параметров на токен, обеспечивающая рекордную производительность в своем классе при минимальных требованиях к ресурсам (~24 ГБ VRAM). Модель лидирует в агентных задачах и программировании, поддерживает 200K контекст и оптимизирована для лёгкого локального развёртывания.
Модель генерации изображения по текстовому описанию и многореференсного редактирования изображений в одном компактном архитектурном решении, разработанное для вывода в реальном времени и минимальных требований к оборудованию. Включает 4 миллиарда параметров и работает на потребительских GPU (например, NVIDIA RTX 3090/4070) с 13 ГБ VRAM, обеспечивая вывод изображений менее чем за секунду.
Модель для генерации и редактирования изображений, объединяющая в одной архитектуре обе задачи (генерацию изображения по текстовому описанию и многореференсное редактирование изображений). Это 9-миллиардный rectified flow transformer, совмещенный с 8-миллиардным текстовым эмбеддером Qwen3. Модель обеспечивает высокое качество при скорости вывода менее чем за полсекунды.
Модель генерации изображений с гибридной архитектурой, объединяющей Autoregressive generator и Diffusion Decoder. Оно преуспевает в сценариях с информационно наполненным текстом и сложной семантикой, обеспечивая высокую детализацию и точность отображения информации.
это аудиовизуальная базовая модель на базе архитектуры DiT, разработанная для синхронной генерации видео и аудио в рамках единой модели. Она объединяет ключевые компоненты современных систем генерации видео, включая открытые веса и оптимизацию для локального использования.
Открытая модель, построенная на архитектуре Mixture-of-Experts с 1T параметров, из которых на токен активируются 32B. В ней разработчики реализовали парадигму «visual agentic intelligence» — сочетание визуального восприятия, рассуждений и автономных агентов. Модель мультимодальна, представлена в нативной INT4‑квантизации и включает уникальный механизм Agent Swarm обеспечивающий оркестрацию и параллельную работу до 100 субагентов, что позволяет повышать качество и снижать время выполнения сложных задач в среднем в 4.5 раза.
Это обновленная версия текстово-визуальной модели Qwen-Image, выпущенная в декабре. Она улучшена по сравнению с базовой моделью, выпущенной в августе, и предназначена для генерации изображений по текстовым запросам.
Модель для генерации изображений по тексту (text-to-image), представляющая улучшенную версию предыдущей модели NextStep-1. Она разработана для повышения качества изображений и устранения проблем с визуализацией, характерных для ранних версий.
Продвинутая MoE-модель с агентскими возможностями, созданная как интеллектуальный партнёр для программирования. Её уникальность — в системе многоуровневого «мышления», которая обеспечивает беспрецедентную стабильность и контроль при выполнении сложных задач. Идеальный выбор для разработки, автоматизации и создания визуального контента программными средствами.
Эволюционное обновление модели M2, значительно усилившее способности модели к программированию. Благодаря масштабному обучению с подкреплением, механизму полного внимания и новому подходу к оценке эффективности на реальных задачах (VIBE Bench) M2.1 демонстрирует глубокое понимание кода и SOTA для ИИ-агентов, решающих реальные инженерные задачи.