Обновление флагманской MoE-модели Qwen 3 с 235B параметров (22B активных), нативным контекстом 262144 токенов и поддержкой 119 языков. При ее реализации разработчики отказались от гибридного режима, поэтому модель поддерживает только non-thinking mode, но качество доработки позволяет модели существенно опережать конкурентов и демонстрировать невероятные результаты в математике, программировании и логическом мышлении. Есть и FP8-версия, которая обеспечивает возможность промышленного развертывания с 50% экономией памяти.
Первая российская языковая модель с 32 миллиардами параметров и гибридным режимом рассуждений, сочетающая революционную эффективность обработки русского языка с возможностью глубокого аналитического мышления для решения задач любой сложности. Модель обеспечивает двукратную экономию вычислительных ресурсов по сравнению с зарубежными аналогами при превосходном качестве, открывая новые возможности для автономных ИИ-агентов.
Огромная MoE модель содержащая 1 триллион параметров. Модель специально создана для автономного выполнения сложных задач, использования инструментов и взаимодействия с внешними системами. Kimi K2 не просто отвечает на вопросы — она действует, это новое поколение ИИ-ассистентов, способных самостоятельно планировать, выполнять и контролировать многошаговые процессы без постоянного участия человека, именно поэтому разработчики рекомендуют использование модели в агентских системах.
Компактная мультимодальная модель с архитектурой Mixture-of-Experts (28B общих параметров, 3B активных), способная обрабатывать текст, изображения и видео с контекстом до 131K токенов. Модель использует инновационную гетерогенную MoE-архитектуру с раздельными экспертами для текста и визуальных данных, обеспечивая эффективную обработку мультимодальной информации без ущерба для качества работы с текстом. Поддерживает два режима: стандартный (быстрый отклик) и режим рассуждений (улучшенная аналитика для сложных задач).
Большая MoE модель с 456B параметров, огромным контекстом в 1 000 000 токенов и бюджетом размышлений в 40 000 токенов. Благодаря архитектурным инновациям модель более экономному по потреблению ресурсов в сравнении с аналогами схожего размера, что позволяет эффективно использовать ее для решения широкого спектра задач интеллектуального анализа и работы агентов.
Эффективное рассуждение с максимальными возможностями и минимальными потреблением ресурсов. 456B параметров, контекст - 1 000 000 токенов, Lightning Attention -новый подход к механизму внимания, повышенный бюджет размышлений - 80 000 токенов. Это - максимальная производительность для решения самых сложных исследовательских и продуктовых задач в области математики, программирования, биоинформатики, юриспруденции, финансового сектора и т. д.
DeepSeek-R1-0528 - это первое значительное обновление популярной серии DeepSeek R1, выпущенное 28 мая 2025 года. Разработчики изменили подходы к глубине мышления, количество параметров увеличилось до 685 млрд, как результат - рост более 10 % пунктов практически по всем значимым бенчмаркам в сравнении с версией от 22.01.2025.
DeepSeek-R1-0528-Qwen3-8B — компактная модель на базе Qwen3 c 8 млрд параметрами, дистиллированная от флагманской версии DeepSeek-R1-0528, достигающая SOTA результатов среди open-source моделей в категории. Модель идеально подходит для развертывания в условиях ограниченных ресурсов, сохраняя продвинутые способности математического и логического рассуждения от модели учителя.
VisualClozePipeline-384 —модель для генерации изображений с визуальным контекстом.
Phi-4-reasoning - это небольшая 14-миллиардная рассуждающая модель, уверенно конкурирующая с гораздо более крупными моделями в математике, программировании и научных вопросах. Модель идеально подходит для образовательных и исследовательских приложений, где требуется высокое качество логического мышления при эффективном использовании вычислительных ресурсов.
Qwen3-235B-A22B — это флагманская open-source MoE-модель с 235B общих параметров (22B активных) и контекстом 40K токенов, обеспечивающая качество на уровне лучших проприетарных проектов. Модель предназначена для критически важных государственных систем, фундаментальных исследований и флагманских продуктов, где требуется максимальное качество современного ИИ.
Qwen3-0.6B — это ультракомпактная языковая модель с 600 млн параметров и контекстом 40K токенов, оптимизированная для мобильных устройств и edge-вычислений. Модель обеспечивает быстрый инференс с минимальным потреблением ресурсов и идеально подходит для IoT-приложений.
Qwen3-1.7B — это сбалансированная модель с 1.7B параметров и контекстом 40K токенов, оптимизированная для простых корпоративных приложений. Модель обеспечивает высокое качество диалогов и анализа документов при умеренных требованиях к ресурсам, идеально подходит для бизнес-чат-ботов и систем автоматизации клиентского сервиса.
Qwen3-4B — миниатюрная модель с 4 млрд параметров и контекстом в 40K токенов, но по словам разработчиков она может сравниться по производительности с Qwen2.5-72B-Instruct. Модель идеально подходит для аналитической работы, обработки технической документации, составления отчетов.
Qwen3-8B - наиболее часто скачиваемая на hugging face модель серии Qwen3, поддерживает переключение между режимами мышления и обеспечивает наилучшую производительность в своем масштабе значительно превосходя Qwen2.5-7B по общим возможностям.
Qwen3-30B-A3B — передовая MoE-модель с гибридной архитектурой, позволяющей включать и отключать режим рассуждения по необходимости для гибкой обработки задач разной сложности. Благодаря 30,5 миллиардам параметров с динамической активацией всего 3,3 миллиардов на токен и поддержкой контекста до 40K модель сочетает качество крупной языковой модели со скоростью и экономией малой.
Qwen3-14B — модель с 14 млрд параметров и контекстом 40K токенов, обеспечивающая производительность близкую к флагманским решениям. Модель идеально подходит для задач, требующих экспертного уровня анализа и генерации контента с повышенным вниманием к деталям.
Qwen3-32B — флагманская плотная модель с 32 млрд параметров и контекстом 40K токенов для критически важных AI-систем. Обеспечивает state-of-the-art качество в сложнейших задачах и идеальна для создания продвинутых AI-продуктов.
GLM-Z1-32B-0414 — специализированная модель рассуждений с 32B параметрами и контекстом 32K обученная через расширенное RL для решения сложных математических и логических задач. Идеально подходит для образовательных платформ, научных исследований и создания систем, требующих пошагового анализа и обоснования решений.
GLM-Z1-9B-0414 — это компактная reasoning модель с 9.4 миллиардами параметров, которая несмотря на относительно небольшой размер, демонстрирует впечатляющие способности в пошаговом рассуждении при выполнении общих простых задач. Благодаря отличному балансу между эффективностью и производительностью, она идеально подходит для развертывания в условиях ограниченных ресурсов.