Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Попробуйте интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете воспользоваться публичным эндпоинтом. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше арендовать виртуальный или выделенный сервер с GPU.

GLM-4.5V

Мульти-модальная модель нового поколения, работающая с изображениями, видео, текстом и графическим пользовательским интерфейсом. Ее архитектура построена на базе флагманской МoЕ GLM-4.5 Air и поддерживает режимы Thinking Mode для глубокого рассуждения и No-Thinking Mode для быстрых ответов. На момент выхода модель занимает лидирующие позиции на 41 из 42 ключевых бенчмарков, с помощью которых тестируются LLM, способные воспринимать визуальную и текстовую информацию.

размышляющая
мультимодальная
русскоязычная
11.08.2025

Qwen3-4B-Instruct-2507

Небольшая, но высокопроизводительная языковая модель с 4B параметрами, специализированная на быстром выполнении инструкций без внутренних рассуждений. Модель превосходит GPT-4.1-nano по всем ключевым метрикам и поддерживает контекст до 262K токенов. Оптимальна для задач классификации, генерации ответов с использованием базы знаний и диалоговых ассистентов, и в целом для любых сценариев, где требуется высокая скорость обработки запросов и точное следование инструкциям.  

русскоязычная
07.08.2025

Qwen3-4B-Thinking-2507

Обновление гибридной Qwen3-4B, получившее специализацию на сложных рассуждениях, увеличенный контекст в 262K токенов и работающая только в reasoning режиме. Для своих 4 млрд параметров модель достигает невероятного результата 81.3 в олимпиадной математике - AIME25! Она идеальна для локального развертывания, отладки кода, аналитических задач и сценариев, требующих пошаговых обдуманных решений.

размышляющая
русскоязычная
07.08.2025

gpt-oss-20b

Компактная, но мощная reasoning MoE-модель от OpenAI с 20.9B общих параметров (3.61 активируются на токен), которая работает всего на 16GB памяти и идеально подходит для локального развертывания с использованием общедоступного пользователям оборудования. Но при этом сохраняет все передовые возможности reasoning и tool use, а по целому ряду ключевых бенчмарков превосходит не только open-source решения, но и популярную o3-mini OpenAI, что является хорошим сигналом для использования gpt-oss-20b в самых разных исследовательских и продуктовых сценариях.

размышляющая
русскоязычная
можно попробовать
05.08.2025

gpt-oss-120b

Флагманская, открытая! reasoning модель от OpenAI, наследующая лучшие научные разработки и достижения, которые компания использовала в знаменитом ChatGPT. Это модель с уникальной MoE-архитектурой в 116.8B параметров, но активирующей только 5.1B параметров на токен и оснащенная таким количеством инноваций, позволяющих эффективно балансировать между производительностью и потреблением ресурсов, причем так, что модель может работать на одном 80GB GPU. GPT-OSS-120B поддерживает трехуровневую систему рассуждений и впервые в открытых моделях представлена расширенная иерархия ролей и каналы вывода генерации под соответствующие роли, что в совокупности позволяет пользователю максимально точно настраивать и управлять поведением модели.

размышляющая
русскоязычная
можно попробовать
05.08.2025

Qwen-Image

Мультимодальная модель для генерации и редактирования изображений на основе текстовых запросов, входящая в серию моделей Qwen. Она демонстрирует значительные улучшения в точном отображении сложного текста (включая китайский язык) и выполнении продвинутых операций редактирования изображений. Модель обладает обобщенными способностями как в создании изображений, так и в их редактировании, с акцентом на сохранение деталей шрифтов, композиции и контекстной гармонии текста.

04.08.2025

Qwen3-30B-A3B-Thinking-2507

Qwen3-30B-A3B-Thinking-2507 — обновление Qwen3-30B-A3B адаптированная и специализированная на работе только в режиме размышления. Модель с 30.5B параметров (3.3B активных), 128 экспертами (8 активны на токен) и увеличенным контекстом в 262 144 является идеальным open-source решением среди моделей средних размеров под задачи, требующие качественного reasoning для задействования инструментов и реализации агентских возможностей или же просто для формирования выверенных ответов на очень сложные вопросы пользователя.   

размышляющая
русскоязычная
29.07.2025

Qwen3-30B-A3B-Instruct-2507

Обновленная версия Qwen3-30B-A3B с 30.5 млрд параметров (3.3B активных) и увеличенным контекстом в 262 144 ориентированная на генерацию мгновенных и точных ответов без промежуточных размышлений. Невероятно эффективная диалоговая модель, способная на решение не только технических, но и творческих задач – идеальна для использования в чат-ботах.

русскоязычная
29.07.2025

Wan2.2-T2V-A14B-Diffusers

Модель T2V-A14B поддерживает генерацию 5-секундных видео в разрешениях 480P и 720P. Построенная на основе архитектуры Mixture-of-Experts (MoE), она обеспечивает исключительное качество генерации видео. На новом бенчмарке Wan-Bench 2.0 модель превосходит ведущие коммерческие решения по большинству ключевых показателей оценки.

28.07.2025

GLM-4.5-Air

Качественая агент-ориентированная модель с 106B параметров, оптимизированная для быстрого инференса и умеренных аппаратных требований, сохраняющая ключевые возможности гибридного рассуждения и общей функциональности. На момент релиза модель занимает 6-е место в мировом рейтинге по 12 ключевым бенчмаркам, демонстрируя исключительную скорость и превосходные результаты в реальных сценариях разработки. Разработчики особенно подчеркивают эффективность ее использования в задачах автозаполнения и корректировки програмного кода для фронтэнда. 

размышляющая
русскоязычная
28.07.2025

GLM-4.5

Гибридная модель с 355B параметров, объединяющая продвинутые рассуждения, программирование с артефактами и агентные возможности в единой MoE архитектуре с увеличенным количеством скрытых слоев. На момент выхода модель занимает 3-е место в мировом рейтинге по среднему показателю на 12 ключевых бенчмарках. Особенно впечатляет ее возможности в генерации готовых веб-приложений, интерактивных презентаций и сложного программного кода. При этом пользователям достаточно просто объяснить модели как должна работать программа и какой результат они хотят видеть.   

размышляющая
русскоязычная
28.07.2025

Qwen3-235B-A22B-Thinking-2507

Новая версия флагманской MoE модели Qwen3-235B-A22B в серии Qwen 3 с усовершенствованным «мышлением» и расширенным контекстом в 262K токенов. Она работает только в режиме thinking, при этом демонстрирует state-of-the-art результаты среди лучших открытых и проприетарных thinking-моделей, превосходя многие известные бренды в математических вычислениях, программировании и логических задачах. Идеальный вариант для сложных исследовательских задач с продвинутыми агентскими и аналитическими возможностями.

размышляющая
русскоязычная
25.07.2025

Qwen3-Coder-30B-A3B-Instruct

Компактная MoE-модель с архитектурой из 30.5B общих параметров, из которых активируются только 3.3B на токен, созданная специально для помощи в написании программного кода. Модель обладает агентскими возможностями, поддерживает контекст в 262144 токенов и демонстрирует отличную производительность при относительно низких затратах по ресурсам. Эти качества делают ее отличным выбором для использования в качестве ассистента программиста, QA системы внутри платформ, обучающих программированию, а также и для интеграции в инструменты с функцией автозаполнения кода.

русскоязычная
22.07.2025

Qwen3-Coder-480B-A35B-Instruct

Флагманская модель агентного программирования от Alibaba с архитектурой Mixture-of-Experts (480 млрд параметров, 35 млрд активных) и нативной поддержкой контекста 256K токенов. Сценарии применения Qwen3-Coder охватывают весь спектр современной разработки — от создания интерактивных веб-приложений до модернизации legacy-систем, включая автономную разработку функций, охватывающих backend API, frontend компоненты и базы данных.

русскоязычная
22.07.2025

Qwen3-235B-A22B-Instruct-2507

Обновление флагманской MoE-модели Qwen 3 с 235B параметров (22B активных), нативным контекстом 262144 токенов и поддержкой 119 языков. При ее реализации разработчики отказались от гибридного режима, поэтому модель поддерживает только non-thinking mode, но качество доработки позволяет модели существенно опережать конкурентов и демонстрировать невероятные результаты в математике, программировании и логическом мышлении. Есть и FP8-версия, которая обеспечивает возможность промышленного развертывания с 50% экономией памяти.

русскоязычная
можно попробовать
21.07.2025

T-pro-2.0

Первая российская языковая модель с 32 миллиардами параметров и гибридным режимом рассуждений, сочетающая революционную эффективность обработки русского языка с возможностью глубокого аналитического мышления для решения задач любой сложности. Модель обеспечивает двукратную экономию вычислительных ресурсов по сравнению с зарубежными аналогами при превосходном качестве, открывая новые возможности для автономных ИИ-агентов.

размышляющая
русскоязычная
18.07.2025

Kimi-K2

Огромная MoE модель содержащая 1 триллион параметров. Модель специально создана для автономного выполнения сложных задач, использования инструментов и взаимодействия с внешними системами. Kimi K2 не просто отвечает на вопросы — она действует, это новое поколение ИИ-ассистентов, способных самостоятельно планировать, выполнять и контролировать многошаговые процессы без постоянного участия человека, именно поэтому разработчики рекомендуют использование модели в агентских системах.

русскоязычная
11.07.2025

MiniMax-M1-80k

Эффективное рассуждение с максимальными возможностями и минимальными потреблением ресурсов.  456B параметров, контекст - 1 000 000 токенов, Lightning Attention -новый подход к механизму внимания, повышенный бюджет размышлений - 80 000 токенов. Это - максимальная производительность для решения самых сложных исследовательских и продуктовых задач в области математики, программирования, биоинформатики, юриспруденции, финансового сектора и т. д.

размышляющая
русскоязычная
16.06.2025

MiniMax-M1-40k

Большая MoE модель с 456B параметров, огромным контекстом в 1 000 000 токенов и бюджетом размышлений в 40 000 токенов. Благодаря архитектурным инновациям модель более экономному по потреблению ресурсов в сравнении с аналогами схожего размера, что позволяет эффективно использовать ее для решения широкого спектра задач интеллектуального анализа и работы агентов.

размышляющая
русскоязычная
16.06.2025

DeepSeek-R1-0528

DeepSeek-R1-0528 - это первое значительное обновление популярной серии DeepSeek R1, выпущенное 28 мая 2025 года. Разработчики изменили подходы к глубине мышления, количество параметров увеличилось до 685 млрд, как результат - рост более 10 % пунктов практически по всем значимым бенчмаркам  в сравнении с версией от 22.01.2025.

размышляющая
русскоязычная
28.05.2025