GLM-Z1-Rumination-32B-0414 — это модель со способностью к глубокому рассуждению с 32 млрд параметров, специально обученная для решения сложных исследовательских и аналитических задач с возможностью использования внешнего поиска. Отличается умением вести длительное обдумывание, что позволяет ей эффективно справляться с многоэтапными заданиями.
GLM-4-32B-0414 — это мощная модель с 32 миллиардами параметров, обученная на 15 ТБ высококачественных данных. По производительности она сопоставима с передовыми аналогами, такими как GPT-4o и DeepSeek-V3-0324, особенно в задачах программирования, при этом легковесная, что обеспечивает удобство локального развёртывания.
Llama 4 Scout - модель с нативной мультимодальностью и контекстным окном до 10 миллионов токенов, при этом она запускается на одном GPU. Идеальна для анализа больших текстовых массивов и быстрого извлечения информации из изображений.
Llama 4 Maverick - поддерживает контекстное окно до 1 миллиона токенов, нативную мультимодальность и демонстрирует высокую скорость и эффективность благодаря сочетанию в архитектуре 128 экспертов и 400 миллиардов параметров. Модель отлично подходит для задач программирования и работы с технической документацией.
Специализированная русскоязычная языковая модель на 8B параметров с контекстом 32k токенов, обученная полностью с нуля на русских и английских данных. Благодаря оптимизированной токенизации и инновационномым техникам обучения, модель превосходит аналогичные по размеру решения Llama и Qwen, особенно в задачах, связанных с русской культурой и языком.
DeepSeek-V3 0324 — усовершенствованная версия мощной и популярной MoE-модели от DeepSeek с 685 млрд параметров. Демонстрирует исключительное качество, глубокую проработку ответов и выдающуюся эрудицию в самых разных задачах — от анализа сложных юридических документов до генерации исполняемого программного кода с нуля.
Gemma 3 27B - флагманская мультимодальная модель от Google Deep Mind с 27 млрд параметров и максимальной производительностью. Легко дообучается и идеальна для широкого спектра сложных исследовательских задач и high-end enterprise решений.
Gemma 3 1B - сверхкомпактная модель всего с 1 млрд параметров, сохраняющая впечатляющие возможности. Она поддерживает контекстное окно в 32K токенов и оптимальна для устройств с ограниченными ресурсами и для задач, где критична скорость реакции.
Gemma 3 12B - производительная мультимодальная модель 12 млрд параметров контекстным окном 128K токенов многоязычным пониманием для широкого спектра несложных задач. Превосходно обрабатывает длинные документы, изображения и технический контент.
Gemma 3 4B - компактная модель, но при этом она мультимодальная, с контекстным окном 128K токенов и встроенной поддержкой более 35 языков, включая русский. Отличное решение для встраиваемых систем и приложений, работающих с текстом и изображениями при ограниченных вычислительных ресурсах.
QwQ - модель с 32.5B параметров и контекстом в 40K токенов специально созданная для глубоких рассуждений и логического анализа. Уникальная способность к прозрачному структурированному мышлению выделяет её среди конкурентов качественными и продуманными ответами.
Это модель (Text-to-Video) с 1.3 миллиардами параметров, разработанная для генерации видео по текстовым запросам. Модель оптимизирована для работы на потребительских GPU: требуется 8.19 GB VRAM, и генерация 5-секундного видео в разрешении 480p занимает ~4 минуты на GPU RTX 4090 без оптимизации.
Phi-4-multimodal — эффективное решение для мультимодальных задач с поддержкой edge-деплоя, сочетающее в себе малый размер (5.6B параметров) и возможности крупных языковых моделей. Модель идеальна для разработки приложений с синхронной обработкой речи, изображений и текста на устройствах с ограниченными ресурсами.
Chroma — это модель с 8,9 миллиардами параметров, основанная на архитектуре FLUX.1-schnell.
Qwen2.5-VL-7B - мощная мультимодальная модель с 7 миллиардами параметров, обеспечивающая оптимальный баланс между высокой производительностью и эффективностью. Модель предназначенная для применения в задачах анализа сложных документов, видеопотоков и агентского взаимодействия.
Qwen2.5-VL-3B - компактная мультимодальная модель с 3 миллиардами параметров, оптимизированная для edge-развертывания, но при этом обладающая выдающимися возможностями понимании изображений, видео и реализации агентских задач.
Qwen2.5-7B-1M — это компактная, но мощная модель с 7.6B параметров. Благодаря технологиям разреженного внимания она способна обрабатывать до 1 миллиона токенов контекста с отличной скоростью. Модель является идеальным решением для организаций, которым требуется высокопроизводительный анализ длинных документов при оптимальном использовании ресурсов.
DeepSeek-R1-Distill-32B — модель, построенная на основе дистилляции крупной MoE reasoning-модели экспертного уровня, устанавливающая новые рекорды среди open-source dense-моделей. Подходит для научных, корпоративных и образовательных платформ с высокими требованиями к логике и анализу.
DeepSeek-R1 — уникальная размышляющая модель с 671 млрд параметров обученная на базе RL, с поддержкой длинных CoT, специализирующаяся на многошаговых рассуждениях и логическом анализе. Незаменима для задач, требующих обоснованных выводов и прозрачной цепочки мышления.
DeepSeek-R1-Distill-1.5B — компактная модель, благодаря дистилляции обладающая хорошими навыками рассуждения. Идеально подходит для быстрого анализа текста для мобильных и edge-приложений.