FLUX.1 Depth [dev] — это rectified flow transformer, содержащий 12 миллиардов параметров, способный генерировать изображения на основе текстового описания, сохраняя структуру заданного входного изображения.
FLUX.1 Canny [dev] — это rectified flow transformer, содержащий 12 миллиардов параметров, который способен генерировать изображения на основе текстового описания, сохраняя структуру заданного входного изображения.
Shuttle 3 Diffusion — это модель для генерации изображений на основе текстовых подсказок (text-to-image), способная создавать детализированные и разнообразные изображения за четыре шага. Она обеспечивает улучшенное качество изображений, понимание сложных подсказок, эффективное использование ресурсов и повышенную детализацию.
CogVideoX1.5-5B — это открытая модель генерации видео по тексту, аналогичная коммерческой модели QingYing. Она предназначена для создания видео на основе текстовых запросов, поддерживает английский язык, а также генерацию из изображений (версия CogVideoX1.5-5B-I2V). Модель доступна на платформах Hugging Face, ModelScope и WiseModel.
Stable Diffusion 3.5 Medium — это мультимодальный диффузионный трансформер с улучшениями (MMDiT-X), модель генерации изображения по текстовому описанию, которая демонстрирует улучшенную производительность в таких аспектах, как качество изображений, типографика, понимание сложных подсказок и эффективность использования ресурсов.
Mochi-1 — это модель для генерации видео, разработанная Genmo. Она представляет собой open-source решение с высокой детализацией движения и устойчивостью к подсказкам (prompt adherence), закрывающее разрыв между закрытыми и открытыми системами генерации видео.
Stable Diffusion 3.5 Large — это мультимодальный диффузионный трансформер с улучшениями (MMDiT-X), модель генерации изображения по текстовому описанию, которая демонстрирует улучшенную производительность в таких аспектах, как качество изображений, типографика, понимание сложных подсказок и эффективность использования ресурсов.
Stable Diffusion 3.5 Large Turbo — это мультимодальный диффузионный трансформер с улучшениями (MMDiT-X), модель генерации изображения по текстовому описанию, которая демонстрирует улучшенную производительность в таких аспектах, как качество изображений, типографика, понимание сложных подсказок и эффективность использования ресурсов.
Qwen2.5-72B - флагманская открытая модель с 72B параметров и 128K контекстом, демонстрирующая state-of-the-art производительность, конкурентоспособную с моделями в 5 раз большего размера. Предназначена проектов требующих максимального качества в ИИ-решениях.
Qwen2.5-32B — это 32-миллиардная модель с контекстным окном 128K токенов, обеспечивающая высочайшую производительность для сложных корпоративных и исследовательских задач. Она идеально подходит для юридической сферы, научных исследований, масштабного контент-анализа.
Qwen2.5-14B использует 14 млрд параметров, обрабатывает контекст в 128K токенов, она сохраняет скорость легких моделей и добавляет к ней высокую производительность и точность средних. Оптимальна для управления базами знаний и комплексных отраслевых решений на базе ИИ.
Qwen2.5-0.5B - ультра-компактная модель с 500 млн параметров, оптимизированная для быстрого развертывания и решения базовых задач на устройствах с минимальными ресурсами. Идеально подходит для чат-ботов, мобильных приложений и встраиваемых систем, где критичны низкое энергопотребление и высокая скорость обработки.
Qwen2.5-7B: Универсальная модель с 7 млрд параметров и контекстом до 128K токенов. Выделяется поддержкой сложных задач, в том числе умением работать со структурированной информацией, высокой точностью и хорошо подходит для бизнес-ассистентов и систем автоматизации отчетов.
Qwen2.5-3B с 3 млрд параметров и поддержкой 32K контекста, заполняет важную нишу между малыми и средними моделями в серии. Оптимальна для исследовательских проектов, прототипирования и создания специализированных решений с балансом производительности и ресурсоэффективности.
Qwen2.5-1.5B- Легковесная модель на 1.5 млрд параметров с хороший базой языков и балансом размера/производительности. Модель оптимизирована для задач базовой обработки документов, обобщения для мобильных устройств и встроенных приложений с искусственным интеллектом.
FLUX.1 [schnell] — это трансформер с технологией "rectified flow" с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний.
FLUX.1 [dev] — это трансформер с технологией "rectified flow" с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний.
Qwen2-57B-A14B — это мультиязычная MoE модель с 57 млрд параметров, оптимизированная для сложных задач генерации текста в вопросно-ответных системах, аналитики и программирования при высокой экономии ресурсов и вычислительной эффективности.