FLUX.1 [dev] — это трансформер с технологией "rectified flow" с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний.
Qwen2-57B-A14B — это мультиязычная MoE модель с 57 млрд параметров, оптимизированная для сложных задач генерации текста в вопросно-ответных системах, аналитики и программирования при высокой экономии ресурсов и вычислительной эффективности.
Qwen2-72B — это флагманская модель второй серии с 72 млрд параметров и контекстным окном в 128K, обеспечивающая производительность уровня ведущих проприетарных моделей. Модель подходит для самых требовательных к точности вариантов применения.
Qwen2-7B - с 7 млрд параметров, обеспечивающая высокую производительность и точность. Модель эффективно работает на GPU среднего класса и служит основой для создания специализированных решений в различных доменах.
Qwen2-1.5B – легкая сбалансированная модель с 1,5 млрд параметров, предназначенная для простых задач на локальных машинах и небольших серверах. Модель обеспечивает хорошую производительность в задачах генерации текста, обобщения, перевода при умеренных требованиях к ресурсам.
Qwen2-0.5B – ультракомпактная модель с 0,5 миллиарда параметров и контекстом в 32K, оптимизированная для развертывания на мобильных устройствах и IoT-системах. Подходит для создания простых приложений и систем автодополнения текста.
Невероятно популярная в сообществе многоязычная модель, обученная на 15 триллионах токенов, 8 миллиардами параметров и контекстным окном в 128K. Модель адаптирована для решения широкого круга задач, поддерживает вызов функций и идеально подходит для создания интеллектуальных диалоговых систем, программных ассистентов и агентских приложений.
Phi-3.5-mini — компактная и высокоэффективная языковая модель, способная работать на мобильных и edge-устройствах, обеспечивая качество генерации, сравнимое с крупными моделями. Благодаря оптимизированному обучению на качественных данных и поддержке мультиязычности, она идеально подходит для чат-ботов, образовательных приложений и задач с ограниченными вычислительными ресурсами.
Модель Playground v2.5 является диффузионной text-to-image, разработанной для генерации высокоэстетичных изображений размером 1024x1024 пикселей, включая портреты и пейзажи. Она является преемником Playground v2 и демонстрирует превосходство над такими моделями, как SDXL, PixArt-α, DALL-E 3 и Midjourney 5.2 по результатам пользовательских исследований в области эстетического качества.
Это модель для генерации изображений на основе текстовых запросов (text-to-image), основанная на архитектуре Stable Diffusion XL (SDXL). Она представляет собой дообученную (fine-tuned) версию базовой модели stabilityai/stable-diffusion-xl-base-1.0.
SDXL-Turbo — это дистиллированная версия SDXL 1.0, обученная для синтеза в 1–4 шага при сохранении высокого качества.
Kandinsky-3 — это диффузионная модель для генерации изображений на основе текстового описания, разработанная на основе предыдущих версий семейства Kandinsky2-x. Она улучшена за счет увеличения объема данных, включая информацию, связанную с русской культурой, что позволяет генерировать изображения, отражающие эту тематику. Модель также демонстрирует улучшенное понимание текста и повышение качества визуальных результатов благодаря увеличению размеров текстового энкодера и модели Diffusion U-Net.
Это диффузионная модель, разработанная Stability AI для генерации коротких видеоклипов на основе статичного изображения (image-to-video). Модель создает видео длиной до 4 секунд (25 кадров при разрешении 576×1024), используя входное изображение в качестве условного кадра.
Stable Diffusion XL-base-1.0 — это базовая* модель генерации изображений на основе текста, улучшенная по сравнению с предыдущими версиями моделей Stable Diffusion. Модель рассчитана на генерацию изображений 1024 x1024 px. Также не рекомендуется выбирать размер изображения меньше 512 x 512 px.
Модель Refiner специализируется на финальных этапах шумоподавления и улучшает визуальную точность изображений, сгенерированных базовой моделью.
Модель Blue pencil-XL разработана для генерации изображений на основе текстового описания в стилистике аниме.
Kandinsky 2.2 — это российская бесплатная нейросеть для генерации изображений от Sber AI. Работает на основе диффузионной модели: сначала добавляет шумы на изображения, на которых была обучена, а затем восстанавливает его с помощью процесса обратной диффузии, тем самым создавая новое уникальное изображение.
Модель Anything V3 представляет собой модель диффузии Stable Diffusion, специализирующуюся на генерации высококачественных изображений в стиле аниме.
Модель Stable Diffusion v2-1 представляет собой диффузионную модель на основе латентного пространства, разработанную для генерации и модификации изображений на основе текстовых запросов. Она основана на модели Stable Diffusion v2 и была дообучена (fine-tuned). Поддерживает генерацию изображений размером 768x768 пикселей.
Stable Diffusion x4 upscaler - Это диффузионная модель для увеличения разрешения изображений в 4 раза, основанная на текстовых подсказках. Она принимает в качестве входных данных изображение с низким разрешением и текстовый prompt, а также параметр `noise_level`.