Shuttle 3 Diffusion — это модель для генерации изображений на основе текстовых подсказок (text-to-image), способная создавать детализированные и разнообразные изображения за четыре шага. Она обеспечивает улучшенное качество изображений, понимание сложных подсказок, эффективное использование ресурсов и повышенную детализацию.
Stable Diffusion 3.5 Medium — это мультимодальный диффузионный трансформер с улучшениями (MMDiT-X), модель генерации изображения по текстовому описанию, которая демонстрирует улучшенную производительность в таких аспектах, как качество изображений, типографика, понимание сложных подсказок и эффективность использования ресурсов.
Stable Diffusion 3.5 Large Turbo — это мультимодальный диффузионный трансформер с улучшениями (MMDiT-X), модель генерации изображения по текстовому описанию, которая демонстрирует улучшенную производительность в таких аспектах, как качество изображений, типографика, понимание сложных подсказок и эффективность использования ресурсов.
Stable Diffusion 3.5 Large — это мультимодальный диффузионный трансформер с улучшениями (MMDiT-X), модель генерации изображения по текстовому описанию, которая демонстрирует улучшенную производительность в таких аспектах, как качество изображений, типографика, понимание сложных подсказок и эффективность использования ресурсов.
Qwen2.5-72B - флагманская открытая модель с 72B параметров и 128K контекстом, демонстрирующая state-of-the-art производительность, конкурентоспособную с моделями в 5 раз большего размера. Предназначена проектов требующих максимального качества в ИИ-решениях.
Qwen2.5-0.5B - ультра-компактная модель с 500 млн параметров, оптимизированная для быстрого развертывания и решения базовых задач на устройствах с минимальными ресурсами. Идеально подходит для чат-ботов, мобильных приложений и встраиваемых систем, где критичны низкое энергопотребление и высокая скорость обработки.
Qwen2.5-1.5B- Легковесная модель на 1.5 млрд параметров с хороший базой языков и балансом размера/производительности. Модель оптимизирована для задач базовой обработки документов, обобщения для мобильных устройств и встроенных приложений с искусственным интеллектом.
Qwen2.5-3B с 3 млрд параметров и поддержкой 32K контекста, заполняет важную нишу между малыми и средними моделями в серии. Оптимальна для исследовательских проектов, прототипирования и создания специализированных решений с балансом производительности и ресурсоэффективности.
Qwen2.5-7B: Универсальная модель с 7 млрд параметров и контекстом до 128K токенов. Выделяется поддержкой сложных задач, в том числе умением работать со структурированной информацией, высокой точностью и хорошо подходит для бизнес-ассистентов и систем автоматизации отчетов.
Qwen2.5-14B использует 14 млрд параметров, обрабатывает контекст в 128K токенов, она сохраняет скорость легких моделей и добавляет к ней высокую производительность и точность средних. Оптимальна для управления базами знаний и комплексных отраслевых решений на базе ИИ.
Qwen2.5-32B — это 32-миллиардная модель с контекстным окном 128K токенов, обеспечивающая высочайшую производительность для сложных корпоративных и исследовательских задач. Она идеально подходит для юридической сферы, научных исследований, масштабного контент-анализа.
FLUX.1 [schnell] — это трансформер с технологией "rectified flow" с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний.
FLUX.1 [dev] — это трансформер с технологией "rectified flow" с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний.
Qwen2-57B-A14B — это мультиязычная MoE модель с 57 млрд параметров, оптимизированная для сложных задач генерации текста в вопросно-ответных системах, аналитики и программирования при высокой экономии ресурсов и вычислительной эффективности.
Qwen2-72B — это флагманская модель второй серии с 72 млрд параметров и контекстным окном в 128K, обеспечивающая производительность уровня ведущих проприетарных моделей. Модель подходит для самых требовательных к точности вариантов применения.
Qwen2-7B - с 7 млрд параметров, обеспечивающая высокую производительность и точность. Модель эффективно работает на GPU среднего класса и служит основой для создания специализированных решений в различных доменах.
Qwen2-1.5B – легкая сбалансированная модель с 1,5 млрд параметров, предназначенная для простых задач на локальных машинах и небольших серверах. Модель обеспечивает хорошую производительность в задачах генерации текста, обобщения, перевода при умеренных требованиях к ресурсам.
Qwen2-0.5B – ультракомпактная модель с 0,5 миллиарда параметров и контекстом в 32K, оптимизированная для развертывания на мобильных устройствах и IoT-системах. Подходит для создания простых приложений и систем автодополнения текста.
Невероятно популярная в сообществе многоязычная модель, обученная на 15 триллионах токенов, 8 миллиардами параметров и контекстным окном в 128K. Модель адаптирована для решения широкого круга задач, поддерживает вызов функций и идеально подходит для создания интеллектуальных диалоговых систем, программных ассистентов и агентских приложений.