Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Мы предлагаем вам попробовать интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете запустить ее на публичном эндпоинте. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше выбрать приватный эндпоинт или выделенный облачный сервер.

gpt-oss-20b

Компактная, но мощная reasoning MoE-модель от OpenAI с 20.9B общих параметров (3.61 активируются на токен), которая работает всего на 16GB памяти и идеально подходит для локального развертывания с использованием общедоступного пользователям оборудования. Но при этом сохраняет все передовые возможности reasoning и tool use, а по целому ряду ключевых бенчмарков превосходит не только open-source решения, но и популярную o3-mini OpenAI, что является хорошим сигналом для использования gpt-oss-20b в самых разных исследовательских и продуктовых сценариях.

размышляющая
русскоязычная
можно попробовать
05.08.2025

gpt-oss-120b

Флагманская, открытая! reasoning модель от OpenAI, наследующая лучшие научные разработки и достижения, которые компания использовала в знаменитом ChatGPT. Это модель с уникальной MoE-архитектурой в 116.8B параметров, но активирующей только 5.1B параметров на токен и оснащенная таким количеством инноваций, позволяющих эффективно балансировать между производительностью и потреблением ресурсов, причем так, что модель может работать на одном 80GB GPU. GPT-OSS-120B поддерживает трехуровневую систему рассуждений и впервые в открытых моделях представлена расширенная иерархия ролей и каналы вывода генерации под соответствующие роли, что в совокупности позволяет пользователю максимально точно настраивать и управлять поведением модели.

размышляющая
русскоязычная
05.08.2025

Qwen3-30B-A3B-Instruct-2507

Обновленная версия Qwen3-30B-A3B с 30.5 млрд параметров (3.3B активных) и увеличенным контекстом в 262 144 ориентированная на генерацию мгновенных и точных ответов без промежуточных размышлений. Невероятно эффективная диалоговая модель, способная на решение не только технических, но и творческих задач – идеальна для использования в чат-ботах.

русскоязычная
29.07.2025

GLM-4.5-Air

Качественая агент-ориентированная модель с 106B параметров, оптимизированная для быстрого инференса и умеренных аппаратных требований, сохраняющая ключевые возможности гибридного рассуждения и общей функциональности. На момент релиза модель занимает 6-е место в мировом рейтинге по 12 ключевым бенчмаркам, демонстрируя исключительную скорость и превосходные результаты в реальных сценариях разработки. Разработчики особенно подчеркивают эффективность ее использования в задачах автозаполнения и корректировки програмного кода для фронтэнда. 

размышляющая
русскоязычная
28.07.2025

GLM-4.5

Гибридная модель с 355B параметров, объединяющая продвинутые рассуждения, программирование с артефактами и агентные возможности в единой MoE архитектуре с увеличенным количеством скрытых слоев. На момент выхода модель занимает 3-е место в мировом рейтинге по среднему показателю на 12 ключевых бенчмарках. Особенно впечатляет ее возможности в генерации готовых веб-приложений, интерактивных презентаций и сложного программного кода. При этом пользователям достаточно просто объяснить модели как должна работать программа и какой результат они хотят видеть.   

размышляющая
русскоязычная
28.07.2025

Qwen3-235B-A22B-Thinking-2507

Новая версия флагманской MoE модели Qwen3-235B-A22B в серии Qwen 3 с усовершенствованным «мышлением» и расширенным контекстом в 262K токенов. Она работает только в режиме thinking, при этом демонстрирует state-of-the-art результаты среди лучших открытых и проприетарных thinking-моделей, превосходя многие известные бренды в математических вычислениях, программировании и логических задачах. Идеальный вариант для сложных исследовательских задач с продвинутыми агентскими и аналитическими возможностями.

размышляющая
русскоязычная
25.07.2025

Qwen3-Coder-30B-A3B-Instruct

Компактная MoE-модель с архитектурой из 30.5B общих параметров, из которых активируются только 3.3B на токен, созданная специально для помощи в написании программного кода. Модель обладает агентскими возможностями, поддерживает контекст в 262144 токенов и демонстрирует отличную производительность при относительно низких затратах по ресурсам. Эти качества делают ее отличным выбором для использования в качестве ассистента программиста, QA системы внутри платформ, обучающих программированию, а также и для интеграции в инструменты с функцией автозаполнения кода.

русскоязычная
22.07.2025

Qwen3-Coder-480B-A35B-Instruct

Флагманская модель агентного программирования от Alibaba с архитектурой Mixture-of-Experts (480 млрд параметров, 35 млрд активных) и нативной поддержкой контекста 256K токенов. Сценарии применения Qwen3-Coder охватывают весь спектр современной разработки — от создания интерактивных веб-приложений до модернизации legacy-систем, включая автономную разработку функций, охватывающих backend API, frontend компоненты и базы данных.

русскоязычная
22.07.2025

Qwen3-235B-A22B-Instruct-2507

Обновление флагманской MoE-модели Qwen 3 с 235B параметров (22B активных), нативным контекстом 262144 токенов и поддержкой 119 языков. При ее реализации разработчики отказались от гибридного режима, поэтому модель поддерживает только non-thinking mode, но качество доработки позволяет модели существенно опережать конкурентов и демонстрировать невероятные результаты в математике, программировании и логическом мышлении. Есть и FP8-версия, которая обеспечивает возможность промышленного развертывания с 50% экономией памяти.

русскоязычная
можно попробовать
21.07.2025

T-pro-2.0

Первая российская языковая модель с 32 миллиардами параметров и гибридным режимом рассуждений, сочетающая революционную эффективность обработки русского языка с возможностью глубокого аналитического мышления для решения задач любой сложности. Модель обеспечивает двукратную экономию вычислительных ресурсов по сравнению с зарубежными аналогами при превосходном качестве, открывая новые возможности для автономных ИИ-агентов.

размышляющая
русскоязычная
18.07.2025

Kimi-K2

Огромная MoE модель содержащая 1 триллион параметров. Модель специально создана для автономного выполнения сложных задач, использования инструментов и взаимодействия с внешними системами. Kimi K2 не просто отвечает на вопросы — она действует, это новое поколение ИИ-ассистентов, способных самостоятельно планировать, выполнять и контролировать многошаговые процессы без постоянного участия человека, именно поэтому разработчики рекомендуют использование модели в агентских системах.

русскоязычная
11.07.2025

MiniMax-M1-80k

Эффективное рассуждение с максимальными возможностями и минимальными потреблением ресурсов.  456B параметров, контекст - 1 000 000 токенов, Lightning Attention -новый подход к механизму внимания, повышенный бюджет размышлений - 80 000 токенов. Это - максимальная производительность для решения самых сложных исследовательских и продуктовых задач в области математики, программирования, биоинформатики, юриспруденции, финансового сектора и т. д.

размышляющая
русскоязычная
16.06.2025

MiniMax-M1-40k

Большая MoE модель с 456B параметров, огромным контекстом в 1 000 000 токенов и бюджетом размышлений в 40 000 токенов. Благодаря архитектурным инновациям модель более экономному по потреблению ресурсов в сравнении с аналогами схожего размера, что позволяет эффективно использовать ее для решения широкого спектра задач интеллектуального анализа и работы агентов.

размышляющая
русскоязычная
16.06.2025