Gemma 3 1B - сверхкомпактная модель всего с 1 млрд параметров, сохраняющая впечатляющие возможности. Она поддерживает контекстное окно в 32K токенов и оптимальна для устройств с ограниченными ресурсами и для задач, где критична скорость реакции.
Gemma 3 12B - производительная мультимодальная модель 12 млрд параметров контекстным окном 128K токенов многоязычным пониманием для широкого спектра несложных задач. Превосходно обрабатывает длинные документы, изображения и технический контент.
Gemma 3 4B - компактная модель, но при этом она мультимодальная, с контекстным окном 128K токенов и встроенной поддержкой более 35 языков, включая русский. Отличное решение для встраиваемых систем и приложений, работающих с текстом и изображениями при ограниченных вычислительных ресурсах.
QwQ - модель с 32.5B параметров и контекстом в 131K токенов специально созданная для глубоких рассуждений и логического анализа. Уникальная способность к прозрачному структурированному мышлению выделяет её среди конкурентов качественными и продуманными ответами.
Это модель (Text-to-Video) с 1.3 миллиардами параметров, разработанная для генерации видео по текстовым запросам. Модель оптимизирована для работы на потребительских GPU: требуется 8.19 GB VRAM, и генерация 5-секундного видео в разрешении 480p занимает ~4 минуты на GPU RTX 4090 без оптимизации.
Phi-4-multimodal — эффективное решение для мультимодальных задач с поддержкой edge-деплоя, сочетающее в себе малый размер (5.6B параметров) и возможности крупных языковых моделей. Модель идеальна для разработки приложений с синхронной обработкой речи, изображений и текста на устройствах с ограниченными ресурсами.
Qwen2.5-VL-3B - компактная мультимодальная модель с 3 миллиардами параметров, оптимизированная для edge-развертывания, но при этом обладающая выдающимися возможностями понимании изображений, видео и реализации агентских задач.
Qwen2.5-VL-7B - мощная мультимодальная модель с 7 миллиардами параметров, обеспечивающая оптимальный баланс между высокой производительностью и эффективностью. Модель предназначенная для применения в задачах анализа сложных документов, видеопотоков и агентского взаимодействия.
Chroma — это модель с 8,9 миллиардами параметров, основанная на архитектуре FLUX.1-schnell.
Qwen2.5-7B-1M — это компактная, но мощная модель с 7.6B параметров. Благодаря технологиям разреженного внимания она способна обрабатывать до 1 миллиона токенов контекста с отличной скоростью. Модель является идеальным решением для организаций, которым требуется высокопроизводительный анализ длинных документов при оптимальном использовании ресурсов.
DeepSeek-R1-Distill-32B — модель, построенная на основе дистилляции крупной MoE reasoning-модели экспертного уровня, устанавливающая новые рекорды среди open-source dense-моделей. Подходит для научных, корпоративных и образовательных платформ с высокими требованиями к логике и анализу.
DeepSeek-R1 — уникальная размышляющая модель с 671 млрд параметров обученная на базе RL, с поддержкой длинных CoT, специализирующаяся на многошаговых рассуждениях и логическом анализе. Незаменима для задач, требующих обоснованных выводов и прозрачной цепочки мышления.
DeepSeek-R1-Distill-1.5B — компактная модель, благодаря дистилляции обладающая хорошими навыками рассуждения. Идеально подходит для быстрого анализа текста для мобильных и edge-приложений.
DeepSeek-V3 - мощная MoE-модель с 671 млрд параметров и 16 экспертами, одна из самых популярных open-source альтернатив, способная конкурировать с коммерческими аналогами. Благодаря контексту в 128K токенов и высокой точности генерации, идеально подходит для решения профессиональных задач — от анализа сложных данных до создания качественного креативного контента.
Phi-4 - флагманская компактная модель от Microsoft с 14 млрд параметров с фокусом на эффективность при ограниченном контексте в 16K токенов. Оптимальна для задач, где важны скорость отклика и точность ответов в рамках коротких взаимодействий.
Llama-3.3-70B — языковая модель с поддержкой 8 языков, большим контекстом (128k токенов) и высокой точностью, идеально подходящая для ассистентских и диалоговых систем. По словам разработчиков по производительности она не уступает Llama 3.1 c 405 млрд параметров.
FLUX.1 Depth [dev] — это rectified flow transformer, содержащий 12 миллиардов параметров, способный генерировать изображения на основе текстового описания, сохраняя структуру заданного входного изображения.
FLUX.1 Canny [dev] — это rectified flow transformer, содержащий 12 миллиардов параметров, который способен генерировать изображения на основе текстового описания, сохраняя структуру заданного входного изображения.
FLUX.1 Fill [dev] — это rectified flow transformer, содержащий 12 миллиардов параметров, который способен заполнять области в существующих изображениях на основе текстового описания.
FLUX.1 Kontext [dev] — rectified flow transformer, содержащий 12 миллиардов параметров, способный редактировать изображения на основе текстовых инструкций.