Крупное обновление в линейке LLM от DeepSeek-AI и серьезный шаг в сторону решений, ориентированных на использование ИИ агентов. Deepseek v3.1 - теперь это гибридная модель с поддержкой двух интеллектуальных режимов (thinking/non-thinking), лидирующая в своём классе по точности и гибкости применения. Улучшения наблюдаются по всем бенчмаркам, но особый акцент разработчики сделали на эффективность в работе с инструментами, как следствие модель идеально подходит для сложных аналитических, исследовательских задач и агентских систем enterprise уровня.
Продвинутая открытая языковая модель с 32 млрд параметров, оптимизированная для выполнения сложных инструкций, диалоговых и агентных сценариев, с уникально гибким контролем "бюджета размышлений" и поддержкой 512K контекста. Модель идеально подходит для использования в рамках чат-ботов для консультаций и поддержки клиентов, для обработки длинных документов, юридических файлов, научных и технических отчетов и не в последнюю очередь для автоматизации бизнес-процессов, в том числе с помощью интеллектуальных ассистентов.
Qwen-Image-Edit — модель для задач редактирования изображений, основанная на 20B-версии модели Qwen-Image (Qwen2.5-VL + VAE Encoder).
Новая сверх компактная (270M параметров) и высокопроизводительная модель в семействе Gemma 3 от Google Deep Mind. Это решение для быстрого локального развертывания, модель может эффективно работать логалькно в том числе на уровне встраиваемых систем и в браузерах. Она была специально создана для использования после дообучения под конкртеные задачи, но при этом модель "из коробки" умеет следовать инструкциям и структурировать текст. Идеальна для быстрой классификации, извлечения данных, и других задач, где важны скорость, точность, энергоэффективность и конфиденциальность.
Мульти-модальная модель нового поколения, работающая с изображениями, видео, текстом и графическим пользовательским интерфейсом. Ее архитектура построена на базе флагманской МoЕ GLM-4.5 Air и поддерживает режимы Thinking Mode для глубокого рассуждения и No-Thinking Mode для быстрых ответов. На момент выхода модель занимает лидирующие позиции на 41 из 42 ключевых бенчмарков, с помощью которых тестируются LLM, способные воспринимать визуальную и текстовую информацию.
Небольшая, но высокопроизводительная языковая модель с 4B параметрами, специализированная на быстром выполнении инструкций без внутренних рассуждений. Модель превосходит GPT-4.1-nano по всем ключевым метрикам и поддерживает контекст до 262K токенов. Оптимальна для задач классификации, генерации ответов с использованием базы знаний и диалоговых ассистентов, и в целом для любых сценариев, где требуется высокая скорость обработки запросов и точное следование инструкциям.
Обновление гибридной Qwen3-4B, получившее специализацию на сложных рассуждениях, увеличенный контекст в 262K токенов и работающая только в reasoning режиме. Для своих 4 млрд параметров модель достигает невероятного результата 81.3 в олимпиадной математике - AIME25! Она идеальна для локального развертывания, отладки кода, аналитических задач и сценариев, требующих пошаговых обдуманных решений.
Флагманская, открытая! reasoning модель от OpenAI, наследующая лучшие научные разработки и достижения, которые компания использовала в знаменитом ChatGPT. Это модель с уникальной MoE-архитектурой в 116.8B параметров, но активирующей только 5.1B параметров на токен и оснащенная таким количеством инноваций, позволяющих эффективно балансировать между производительностью и потреблением ресурсов, причем так, что модель может работать на одном 80GB GPU. GPT-OSS-120B поддерживает трехуровневую систему рассуждений и впервые в открытых моделях представлена расширенная иерархия ролей и каналы вывода генерации под соответствующие роли, что в совокупности позволяет пользователю максимально точно настраивать и управлять поведением модели.
Компактная, но мощная reasoning MoE-модель от OpenAI с 20.9B общих параметров (3.61 активируются на токен), которая работает всего на 16GB памяти и идеально подходит для локального развертывания с использованием общедоступного пользователям оборудования. Но при этом сохраняет все передовые возможности reasoning и tool use, а по целому ряду ключевых бенчмарков превосходит не только open-source решения, но и популярную o3-mini OpenAI, что является хорошим сигналом для использования gpt-oss-20b в самых разных исследовательских и продуктовых сценариях.
Мультимодальная модель для генерации и редактирования изображений на основе текстовых запросов, входящая в серию моделей Qwen. Она демонстрирует значительные улучшения в точном отображении сложного текста (включая китайский язык) и выполнении продвинутых операций редактирования изображений. Модель обладает обобщенными способностями как в создании изображений, так и в их редактировании, с акцентом на сохранение деталей шрифтов, композиции и контекстной гармонии текста.
Qwen3-30B-A3B-Thinking-2507 — обновление Qwen3-30B-A3B адаптированная и специализированная на работе только в режиме размышления. Модель с 30.5B параметров (3.3B активных), 128 экспертами (8 активны на токен) и увеличенным контекстом в 262 144 является идеальным open-source решением среди моделей средних размеров под задачи, требующие качественного reasoning для задействования инструментов и реализации агентских возможностей или же просто для формирования выверенных ответов на очень сложные вопросы пользователя.
Обновленная версия Qwen3-30B-A3B с 30.5 млрд параметров (3.3B активных) и увеличенным контекстом в 262 144 ориентированная на генерацию мгновенных и точных ответов без промежуточных размышлений. Невероятно эффективная диалоговая модель, способная на решение не только технических, но и творческих задач – идеальна для использования в чат-ботах.
Модель предназначена для генерации видео на основе входного изображения (Image-to-Video, I2V). Она входит в семейство Wan2.2, улучшенных моделей генерации видео, и реализует архитектуру Mixture-of-Experts (MoE) для повышения емкости модели при сохранении вычислительных затрат.
Модель T2V-A14B поддерживает генерацию 5-секундных видео в разрешениях 480P и 720P. Построенная на основе архитектуры Mixture-of-Experts (MoE), она обеспечивает исключительное качество генерации видео. На новом бенчмарке Wan-Bench 2.0 модель превосходит ведущие коммерческие решения по большинству ключевых показателей оценки.
Это Text-to-Video и Image-to-Video модель на основе диффузионной архитектуры, разработанная в рамках проекта Wan2.2. Модель содержит 5 миллиардов параметров и использует высококомпрессивный кодировщик Wan2.2-VAE с соотношением сжатия 4×16×16. Она поддерживает генерацию видео в разрешении 720p (1280×704 или 704×1280) с частотой кадров 24 fps, и может работать на потребительских GPU, таких как NVIDIA RTX 4090.
Гибридная модель с 355B параметров, объединяющая продвинутые рассуждения, программирование с артефактами и агентные возможности в единой MoE архитектуре с увеличенным количеством скрытых слоев. На момент выхода модель занимает 3-е место в мировом рейтинге по среднему показателю на 12 ключевых бенчмарках. Особенно впечатляет ее возможности в генерации готовых веб-приложений, интерактивных презентаций и сложного программного кода. При этом пользователям достаточно просто объяснить модели как должна работать программа и какой результат они хотят видеть.
Качественая агент-ориентированная модель с 106B параметров, оптимизированная для быстрого инференса и умеренных аппаратных требований, сохраняющая ключевые возможности гибридного рассуждения и общей функциональности. На момент релиза модель занимает 6-е место в мировом рейтинге по 12 ключевым бенчмаркам, демонстрируя исключительную скорость и превосходные результаты в реальных сценариях разработки. Разработчики особенно подчеркивают эффективность ее использования в задачах автозаполнения и корректировки програмного кода для фронтэнда.
Новая версия флагманской MoE модели Qwen3-235B-A22B в серии Qwen 3 с усовершенствованным «мышлением» и расширенным контекстом в 262K токенов. Она работает только в режиме thinking, при этом демонстрирует state-of-the-art результаты среди лучших открытых и проприетарных thinking-моделей, превосходя многие известные бренды в математических вычислениях, программировании и логических задачах. Идеальный вариант для сложных исследовательских задач с продвинутыми агентскими и аналитическими возможностями.
Компактная MoE-модель с архитектурой из 30.5B общих параметров, из которых активируются только 3.3B на токен, созданная специально для помощи в написании программного кода. Модель обладает агентскими возможностями, поддерживает контекст в 262144 токенов и демонстрирует отличную производительность при относительно низких затратах по ресурсам. Эти качества делают ее отличным выбором для использования в качестве ассистента программиста, QA системы внутри платформ, обучающих программированию, а также и для интеграции в инструменты с функцией автозаполнения кода.
Флагманская модель агентного программирования от Alibaba с архитектурой Mixture-of-Experts (480 млрд параметров, 35 млрд активных) и нативной поддержкой контекста 256K токенов. Сценарии применения Qwen3-Coder охватывают весь спектр современной разработки — от создания интерактивных веб-приложений до модернизации legacy-систем, включая автономную разработку функций, охватывающих backend API, frontend компоненты и базы данных.