Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Мы предлагаем вам попробовать интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете запустить ее на публичном эндпоинте. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше выбрать приватный эндпоинт или выделенный облачный сервер.

DeepSeek-R1-0528-Qwen3-8B

DeepSeek-R1-0528-Qwen3-8B — компактная модель на базе Qwen3 c 8 млрд параметрами, дистиллированная от флагманской версии DeepSeek-R1-0528, достигающая SOTA результатов среди open-source моделей в категории. Модель идеально подходит для развертывания в условиях ограниченных ресурсов, сохраняя продвинутые способности математического и логического рассуждения от модели учителя.

русскоязычная
28.05.2025

DeepSeek-R1-0528

DeepSeek-R1-0528 - это первое значительное обновление популярной серии DeepSeek R1, выпущенное 28 мая 2025 года. Разработчики изменили подходы к глубине мышления, количество параметров увеличилось до 685 млрд, как результат - рост более 10 % пунктов практически по всем значимым бенчмаркам  в сравнении с версией от 22.01.2025.

размышляющая
русскоязычная
28.05.2025

VisualClozePipeline-384

VisualClozePipeline-384 — одна из моделей, подходящих для диффузоров, в рамках фреймворка VisualCloze для генерации изображений с визуальным контекстом.

15.05.2025

Phi-4-reasoning

Phi-4-reasoning - это небольшая 14-миллиардная рассуждающая модель, уверенно конкурирующая с гораздо более крупными моделями в математике, программировании и научных вопросах. Модель идеально подходит для образовательных и исследовательских приложений, где требуется высокое качество логического мышления при эффективном использовании вычислительных ресурсов.

размышляющая
30.04.2025

Qwen3-32B

Qwen3-32B — флагманская плотная модель с 32 млрд параметров и контекстом 128K токенов для критически важных AI-систем. Обеспечивает state-of-the-art качество в сложнейших задачах и идеальна для создания продвинутых AI-продуктов.

размышляющая
русскоязычная
можно попробовать
29.04.2025

Qwen3-14B

Qwen3-14B — модель с 14 млрд параметров и контекстом 128K токенов, обеспечивающая производительность близкую к флагманским решениям. Модель идеально подходит для задач, требующих экспертного уровня анализа и генерации контента с повышенным вниманием к деталям.

размышляющая
русскоязычная
29.04.2025

Qwen3-8B

Qwen3-8B - наиболее часто скачиваемая на hugging face модель серии Qwen3, поддерживает переключение между режимами мышления и обеспечивает наилучшую производительность в своем масштабе значительно превосходя Qwen2.5-7B по общим возможностям.

размышляющая
русскоязычная
29.04.2025

Qwen3-4B

Qwen3-4B — миниатюрная модель с 4 млрд параметров и контекстом в 32K токенов, но по словам разработчиков она может сравниться по производительности с Qwen2.5-72B-Instruct. Модель идеально подходит для аналитической работы, обработки технической документации, составления отчетов.

размышляющая
русскоязычная
29.04.2025

Qwen3-1.7B

Qwen3-1.7B — это сбалансированная модель с 1.7B параметров и контекстом 32K токенов, оптимизированная для простых корпоративных приложений. Модель обеспечивает высокое качество диалогов и анализа документов при умеренных требованиях к ресурсам, идеально подходит для бизнес-чат-ботов и систем автоматизации клиентского сервиса.

размышляющая
русскоязычная
29.04.2025

Qwen3-0.6B

Qwen3-0.6B — это ультракомпактная языковая модель с 600 млн параметров и контекстом 32K токенов, оптимизированная для мобильных устройств и edge-вычислений. Модель обеспечивает быстрый инференс с минимальным потреблением ресурсов и идеально подходит для IoT-приложений.

размышляющая
русскоязычная
29.04.2025

Qwen3-235B-A22B

Qwen3-235B-A22B — это флагманская open-source MoE-модель с 235B общих параметров (22B активных) и контекстом 128K токенов, обеспечивающая качество на уровне лучших проприетарных проектов. Модель предназначена для критически важных государственных систем, фундаментальных исследований и флагманских продуктов, где требуется максимальное качество современного ИИ.

размышляющая
русскоязычная
29.04.2025

Qwen3-30B-A3B

Qwen3-30B-A3B — передовая MoE-модель с гибридной архитектурой, позволяющей включать и отключать режим рассуждения по необходимости для гибкой обработки задач разной сложности. Благодаря 30,5 миллиардам параметров с динамической активацией всего 3,3 миллиардов на токен и поддержкой контекста до 128K модель сочетает качество крупной языковой модели со скоростью и экономией малой.

размышляющая
русскоязычная
29.04.2025

GLM-4-32B-0414

GLM-4-32B-0414 — это мощная модель с 32 миллиардами параметров, обученная на 15 ТБ высококачественных данных. По производительности она сопоставима с передовыми аналогами, такими как GPT-4o и DeepSeek-V3-0324, особенно в задачах программирования, при этом легковесная, что обеспечивает удобство локального развёртывания.

русскоязычная
14.04.2025

GLM-Z1-9B-0414

GLM-Z1-9B-0414 — это компактная reasoning модель с 9.4 миллиардами параметров, которая несмотря на относительно небольшой размер, демонстрирует впечатляющие способности в пошаговом рассуждении при выполнении общих простых задач. Благодаря отличному балансу между эффективностью и производительностью, она идеально подходит для развертывания в условиях ограниченных ресурсов.

размышляющая
русскоязычная
14.04.2025

GLM-Z1-32B-0414

GLM-Z1-32B-0414 — специализированная модель рассуждений с 32B параметрами и контекстом 32K обученная через расширенное RL для решения сложных математических и логических задач. Идеально подходит для образовательных платформ, научных исследований и создания систем, требующих пошагового анализа и обоснования решений.

размышляющая
русскоязычная
14.04.2025

GLM-Z1-Rumination-32B-0414

GLM-Z1-Rumination-32B-0414 — это модель со способностью к глубокому рассуждению с 32 млрд параметров, специально обученная для решения сложных исследовательских и аналитических задач с возможностью использования внешнего поиска. Отличается умением вести длительное обдумывание, что позволяет ей эффективно справляться с многоэтапными заданиями.

размышляющая
русскоязычная
14.04.2025

Llama 4 Scout

Llama 4 Scout - модель с нативной мультимодальностью и контекстным окном до 10 миллионов токенов, при этом она запускается на одном GPU. Идеальна для анализа больших текстовых массивов и быстрого извлечения информации из изображений.

мультимодальная
русскоязычная
можно попробовать
05.04.2025

Llama 4 Maverick

Llama 4 Maverick - поддерживает контекстное окно до 1 миллиона токенов, нативную мультимодальность и демонстрирует высокую скорость и эффективность благодаря сочетанию в архитектуре 128 экспертов и 400 миллиардов параметров. Модель отлично подходит для задач программирования и работы с технической документацией.

мультимодальная
русскоязычная
можно попробовать
05.04.2025