Phi-3.5-mini — компактная и высокоэффективная языковая модель, способная работать на мобильных и edge-устройствах, обеспечивая качество генерации, сравнимое с крупными моделями. Благодаря оптимизированному обучению на качественных данных и поддержке мультиязычности, она идеально подходит для чат-ботов, образовательных приложений и задач с ограниченными вычислительными ресурсами.
Модель Playground v2.5 разработана для генерации высокоэстетичных изображений размером 1024x1024 пикселей, включая портреты и пейзажи. Она является преемником Playground v2 и демонстрирует превосходство над такими моделями, как SDXL, PixArt-α, DALL-E 3 и Midjourney 5.2 по результатам пользовательских исследований в области эстетического качества.
Это модель для генерации изображений на основе текстовых запросов (text-to-image), основанная на архитектуре Stable Diffusion XL (SDXL). Она представляет собой дообученную (fine-tuned) версию базовой модели stabilityai/stable-diffusion-xl-base-1.0.
SDXL-Turbo — это дистиллированная версия SDXL 1.0, обученная для синтеза в реальном времени.
Kandinsky-3 — это диффузионная модель для генерации изображений на основе текстового описания, разработанная на основе предыдущих версий семейства Kandinsky2-x. Она улучшена за счет увеличения объема данных, включая информацию, связанную с русской культурой, что позволяет генерировать изображения, отражающие эту тематику. Модель также демонстрирует улучшенное понимание текста и повышение качества визуальных результатов благодаря увеличению размеров текстового энкодера и модели Diffusion U-Net.
Это диффузионная модель, разработанная Stability AI для генерации коротких видеоклипов на основе статичного изображения (image-to-video). Модель создает видео длиной до 4 секунд (25 кадров при разрешении 576×1024), используя входное изображение в качестве условного кадра.
Модель Refiner специализируется на финальных этапах шумоподавления и улучшает визуальную точность изображений, сгенерированных базовой моделью.
Stable Diffusion XL-base-1.0 — это базовая* модель генерации изображений на основе текста, улучшенная по сравнению с предыдущими версиями моделей Stable Diffusion. Модель рассчитана на генерацию изображений 1024x1024 px. Также не рекомендуется выбирать размер изображения меньше 512x512 px.
Kandinsky 2.2 — это российская бесплатная нейросеть для генерации изображений от Sber AI. Работает на основе диффузионной модели: сначала добавляет шумы на изображения, на которых была обучена, а затем восстанавливает его с помощью процесса обратной диффузии, тем самым создавая новое уникальное изображение.
Модель Stable Diffusion v2-1 разработана для генерации и модификации изображений на основе текстовых запросов. Она основана на модели Stable Diffusion v2 и была дообучена (fine-tuned). Поддерживает генерацию изображений размером 768x768 пикселей.
Stable Diffusion x4 upscaler - это модель для увеличения разрешения изображений в 4 раза, основанная на текстовых подсказках. Она принимает в качестве входных данных изображение с низким разрешением и текстовый prompt, а также параметр `noise_level`.
Stable Diffusion v1.5 — это диффузионная модель для генерации изображений на основе текстовых запросов. Модель была инициализирована весами предыдущей версии Stable Diffusion v1.2 и последующе подвергнута дообучению. Поддерживает генерацию изображений размером 512x512 пикселей и модификацию изображений через текстовые запросы.