Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Попробуйте интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете воспользоваться публичным эндпоинтом. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше арендовать виртуальный или выделенный сервер с GPU.

GLM-Z1-Rumination-32B-0414

GLM-Z1-Rumination-32B-0414 — это модель со способностью к глубокому рассуждению с 32 млрд параметров, специально обученная для решения сложных исследовательских и аналитических задач с возможностью использования внешнего поиска. Отличается умением вести длительное обдумывание, что позволяет ей эффективно справляться с многоэтапными заданиями.

размышляющая
русскоязычная
14.04.2025

GLM-4-32B-0414

GLM-4-32B-0414 — это мощная модель с 32 миллиардами параметров, обученная на 15 ТБ высококачественных данных. По производительности она сопоставима с передовыми аналогами, такими как GPT-4o и DeepSeek-V3-0324, особенно в задачах программирования, при этом легковесная, что обеспечивает удобство локального развёртывания.

русскоязычная
14.04.2025

Llama 4 Scout

Llama 4 Scout - модель с нативной мультимодальностью и контекстным окном до 10 миллионов токенов, при этом она запускается на одном GPU. Идеальна для анализа больших текстовых массивов и быстрого извлечения информации из изображений.

мультимодальная
русскоязычная
05.04.2025

Llama 4 Maverick

Llama 4 Maverick - поддерживает контекстное окно до 1 миллиона токенов, нативную мультимодальность и демонстрирует высокую скорость и эффективность благодаря сочетанию в архитектуре 128 экспертов и 400 миллиардов параметров. Модель отлично подходит для задач программирования и работы с технической документацией.

мультимодальная
русскоязычная
05.04.2025

YandexGPT-5-Lite-8B

Специализированная русскоязычная языковая модель на 8B параметров с контекстом 32k токенов, обученная полностью с нуля на русских и английских данных. Благодаря оптимизированной токенизации и инновационномым техникам обучения, модель превосходит аналогичные по размеру решения Llama и Qwen, особенно в задачах, связанных с русской культурой и языком.

русскоязычная
31.03.2025

DeepSeek-V3-0324

DeepSeek-V3 0324 — усовершенствованная версия мощной и популярной MoE-модели от DeepSeek с 685 млрд параметров. Демонстрирует исключительное качество, глубокую проработку ответов и выдающуюся эрудицию в самых разных задачах — от анализа сложных юридических документов до генерации исполняемого программного кода с нуля.

русскоязычная
24.03.2025

gemma-3-27b-it

Gemma 3 27B - флагманская мультимодальная модель от Google Deep Mind с 27 млрд параметров и максимальной производительностью. Легко дообучается и идеальна для широкого спектра сложных исследовательских задач и high-end enterprise решений.

мультимодальная
русскоязычная
можно попробовать
12.03.2025

gemma-3-1b-it

Gemma 3 1B - сверхкомпактная модель всего с 1 млрд параметров, сохраняющая впечатляющие возможности. Она поддерживает контекстное окно в 32K токенов и оптимальна для устройств с ограниченными ресурсами и для задач, где критична скорость реакции.

12.03.2025

gemma-3-12b-it

Gemma 3 12B - производительная мультимодальная модель 12 млрд параметров контекстным окном 128K токенов многоязычным пониманием для широкого спектра несложных задач. Превосходно обрабатывает длинные документы, изображения и технический контент.

мультимодальная
русскоязычная
12.03.2025

gemma-3-4b-it

Gemma 3 4B - компактная модель, но при этом она мультимодальная, с контекстным окном 128K токенов и встроенной поддержкой более 35 языков, включая русский. Отличное решение для встраиваемых систем и приложений, работающих с текстом и изображениями при ограниченных вычислительных ресурсах.

мультимодальная
русскоязычная
12.03.2025

QwQ-32B

QwQ - модель с 32.5B параметров и контекстом в 40K токенов специально созданная для глубоких рассуждений и логического анализа. Уникальная способность к прозрачному структурированному мышлению выделяет её среди конкурентов качественными и продуманными ответами.

размышляющая
русскоязычная
можно попробовать
06.03.2025

Wan2.1-T2V-1.3B-Diffusers

Это модель (Text-to-Video) с 1.3 миллиардами параметров, разработанная для генерации видео по текстовым запросам. Модель оптимизирована для работы на потребительских GPU: требуется 8.19 GB VRAM, и генерация 5-секундного видео в разрешении 480p занимает ~4 минуты на GPU RTX 4090 без оптимизации.

01.03.2025

Phi-4-multimodal

Phi-4-multimodal — эффективное решение для мультимодальных задач с поддержкой edge-деплоя, сочетающее в себе малый размер (5.6B параметров) и возможности крупных языковых моделей. Модель идеальна для разработки приложений с синхронной обработкой речи, изображений и текста на устройствах с ограниченными ресурсами.

мультимодальная
русскоязычная
27.02.2025

Chroma1-HD

Chroma — это модель с 8,9 миллиардами параметров, основанная на архитектуре FLUX.1-schnell.

27.01.2025

Qwen2.5-VL-7B-Instruct

Qwen2.5-VL-7B - мощная мультимодальная модель с 7 миллиардами параметров, обеспечивающая оптимальный баланс между высокой производительностью и эффективностью. Модель предназначенная для применения в задачах анализа сложных документов, видеопотоков и агентского взаимодействия.

мультимодальная
русскоязычная
26.01.2025

Qwen2.5-VL-3B-Instruct

Qwen2.5-VL-3B - компактная мультимодальная модель с 3 миллиардами параметров, оптимизированная для edge-развертывания, но при этом обладающая выдающимися возможностями понимании изображений, видео и реализации агентских задач.

мультимодальная
русскоязычная
26.01.2025

Qwen2.5-7B-Instruct-1M

Qwen2.5-7B-1M — это компактная, но мощная модель с 7.6B параметров. Благодаря технологиям разреженного внимания она способна обрабатывать до 1 миллиона токенов контекста с отличной скоростью. Модель является идеальным решением для организаций, которым требуется высокопроизводительный анализ длинных документов при оптимальном использовании ресурсов.

русскоязычная
23.01.2025

DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-32B — модель, построенная на основе дистилляции крупной MoE reasoning-модели экспертного уровня, устанавливающая новые рекорды среди open-source dense-моделей. Подходит для научных, корпоративных и образовательных платформ с высокими требованиями к логике и анализу.

русскоязычная
20.01.2025

DeepSeek-R1

DeepSeek-R1 — уникальная размышляющая модель с 671 млрд параметров обученная на базе RL, с поддержкой длинных CoT, специализирующаяся на многошаговых рассуждениях и логическом анализе. Незаменима для задач, требующих обоснованных выводов и прозрачной цепочки мышления.

размышляющая
русскоязычная
20.01.2025

DeepSeek-R1-Distill-Qwen-1.5B

DeepSeek-R1-Distill-1.5B — компактная модель, благодаря дистилляции обладающая хорошими навыками рассуждения. Идеально подходит для быстрого анализа текста для мобильных и edge-приложений.

русскоязычная
20.01.2025