Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Попробуйте интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете воспользоваться публичным эндпоинтом. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше арендовать виртуальный или выделенный сервер с GPU.

Qwen3-VL-8B-Instruct

Мультимодальная dense модель с 8 миллиардами параметров, оптимизированная для диалога и следования инструкциям, обеспечивающая понимание изображений, видео и текста. Поддерживает нативный контекст 256K токенов, расширенное OCR на 32 языках и работу визуального агента. Демонстрирует конкурентные результаты с более крупными моделями на ключевых бенчмарках.

мультимодальная
русскоязычная
15.10.2025

Qwen3-VL-8B-Thinking

Небольшая dense модель с 8-миллиардами параметров и усиленными возможностями пошагового рассуждения, специализирующаяся на сложных мультимодальных задачах, требующих глубокого анализа и отличного понимания визуального контента. Нативно поддерживает контекст в 256K токенов. Практически по всем ключевым бенчмаркам превосходит такие известные модели как Gemeni-2.5 Flash-Lite и GPT-5 nano high.

размышляющая
мультимодальная
русскоязычная
15.10.2025

Qwen3-VL-4B-Instruct

Компактная 4-миллиардная модель, сохраняющая полный функционал серии Qwen3-VL: скорость ответов, высококачественное мультимодальное понимание с пространственными и временными отметками. При этом существенно снижает требования к оборудованию – при использовании половины от нативно поддерживаемого контекста в 256K, модель стабильно работает всего на одной GPU с 24GB памяти.

мультимодальная
русскоязычная
15.10.2025

granite-4.0-h-small

Флагманская MoE модель линейки Granite-4.0 от IBM с 32B параметров (9B активных), архитектурой Mamba-2/трансформер. Обеспечивает производительность уровня крупных моделей при снижении требований к памяти на 70% и удвоенной скорости инференса. Оптимизированная для корпоративных задач RAG и агентских рабочих процессов.

русскоязычная
02.10.2025

granite-4.0-h-tiny

Компактная, гибридная модель архитектуры mamba2/transformers в сочетании с mixture of experts, где активируется только 1 млрд из 7 млрд параметров. Разработана для быстрого выполнения задач в том числе на периферийных устройствах и локального развертывания. Требует всего 8 ГБ памяти (в 8-битном формате) и обеспечивает высокую производительность в function calling при минимальных затратах ресурсов.

русскоязычная
02.10.2025

granite-4.0-h-micro

Самая компактная 3B гибридная модель семейства Granite-4.0, сочетает гибридную архитектуру Mamba-2/трансформер с традиционными dense feedforward слоями вместо mixture of experts. Оптимизированная для локальных устройств (запускается даже на Raspberry Pi), но при этом обеспечивает высокие результаты в понимании инструкций (84.32% IFEval), а задачах RAG превосходит гораздо более крупные модели.

русскоязычная
02.10.2025

granite-4.0-micro

Традиционная трансформерная модель с 3 миллиардами параметров, созданная как альтернатива для платформ, где поддержка гибридной архитектуры Mamba-2 ещё не оптимизирована, полная поддержка PEFT методов и оптимизации в llama.cpp. Обеспечивает совместимость с существующей инфраструктурой при сохранении улучшенного качества результата, характерного для поколения моделей Granite 4.0.

русскоязычная
02.10.2025

GLM-4.6

Обновленная версия флагманской модели Z.ai с расширенным контекстом до 200K, улучшенными способностями к рассуждению, генерации кода и поддержкой инструментов. Она существенно превосходит GLM-4.5 и уверенно конкурирует с такими признанными лидерами как DeepSeek-V3.2-Exp и Claude Sonnet 4, при этом демонстрирует значительную экономию использования токенов. Идеальна для агентных систем, анализа больших текстов и автоматизации разработки.

размышляющая
русскоязычная
30.09.2025

DeepSeek-V3.2-Exp

DeepSeek-V3.2-Exp — экспериментальная модель на базе V3.1-Terminus, представляющая промежуточный этап на пути к архитектуре следующего поколения. Модель внедряет DeepSeek Sparse Attention (DSA), механизм разреженного внимания, повышающий эффективность обучения и логического вывода в сценариях с большим контекстом. Эта модель своего рода срез текущего исследования, проводимого компанией Deepseek-AI, в поисках более эффективных архитектур трансформеров. По результатам тестирования V3.2-Exp демонстрирует производительность сопоставимую с базовой версией с незначительной положительной или отрицательной динамикой по ряду бенчмарков.

размышляющая
русскоязычная
29.09.2025

Qwen3-VL-30B-A3B-Instruct

Мультимодальная модель среднего размера в семействе Qwen3-VL с MoE-архитектурой 30B параметров, нативным контекстом в 256K и продвинутыми возможностями обработки изображений, видео и OCR на 32 языках. Архитектурные инновации, такие как Interleaved-MRoPE, DeepStack и Text-Timestamp Alignment обеспечивают отличное качество решения мультимодальных задач, превосходя ряд проприетарных моделей на ключевых бенчмарках. Модель несколько уступает флагману серии Qwen3-VL-235B-A22B-Instruct, но за счет размера и конфигурации существенно экономичнее по ресурсам на инференсе.

мультимодальная
русскоязычная
26.09.2025

Qwen3-VL-30B-A3B-Thinking

Мультимодальная MoE‑модель из семейства Qwen3-VL среднего размера с 30 млрд общих параметров, 3 миллиардами активных параметров и контекстом в 256K токенов. Она объединяет передовые возможности обработки визуального контента с глубокими аналитическими способностями. Обеспечивает высокоточное пространственное понимание и привязку к временным меткам, уверенно сочетая их с эффективностью и внимательностью к деталям, характерную для reasoning‑моделей.

размышляющая
мультимодальная
русскоязычная
26.09.2025

HunyuanImage-3.0

HunyuanImage-3.0 — это text-to-image модель, работающая в рамках автокорректирующейся (autoregressive) архитектуры, объединяющей обработку текста и изображений. Это самая крупная открытая MoE-модель для генерации изображений, включающая 80 млрд параметров (13 млрд активны на токен). Модель разработана для высокой точности семантики и визуального качества, а также обладает возможностью автоматического уточнения запросов благодаря встроенным рассуждениям (reasoning).

25.09.2025

Qwen3-VL-235B-A22B-Instruct

Флагманская мультимодальная модель серии Qwen3‑VL. Она объединяет в себе качественную работу с текстом, отличное понимание изображений с пространственным позиционированием объектов, возможности анализа видео по таймингу и длинный контекст (нативно 256K, расширяется до 1M). Модель ориентирована на работу в приложениях, требующих быстрой и точной обработки изображений и видео, а приятным бонусом являются OCR на 32 языках, умение совершать агентные действия в интерфейсах и генерацию кода по мультимодальным входам (например фронтенд-код сайта по его рисованному эскизу).

мультимодальная
русскоязычная
23.09.2025

Qwen3-VL-235B-A22B-Thinking

Флагманская мультимодальная reasoning LLM нового поколения с поддержкой 256K (и возможностью увеличения до 1М токенов). Благодаря уникальным архитектурным решениям таким как Interleaved-MRoPE, DeepStack и др. модель обладает отличными возможностями для OCR (32 языка, включая русский), видеоаналитики, понимания изображений с пространственном ориентированием и специально адаптирована под программирование и реализацию продвинутых агентных сценариев, где необходимо последовательное рассуждение.

размышляющая
мультимодальная
русскоязычная
23.09.2025

DeepSeek-V3.1-Terminus

Обновлённая версия флагманской модели DeepSeek-V3.1 демонстрирует значительные улучшения: разработчики добились большей языковой согласованности — теперь модель реже смешивает китайский и английский языки и полностью избегает появления случайных символов. Кроме того, были существенно улучшены агенты — как Code Agent, так и Search Agent показывают более высокую производительность. В довершение ко всему, модель продемонстрировала заметный рост показателей на ряде ключевых бенчмарков.

размышляющая
русскоязычная
22.09.2025

Wan2.2-Animate-14B-Diffusers

Это модель генерации видео на основе референсного видео (Video-to-Video), разработанная для унифицированной генерации анимации персонажей и замены персонажей в видео. Она является частью серии моделей Wan2.2, которые используют архитектуру Mixture-of-Experts (MoE) для распределения вычислительных ресурсов между двумя специализированными экспертами. 

11.09.2025

Qwen3-Next-80B-A3B-Instruct

MoE‑модель нового поколения на 80 млрд параметров и 512 экспертами. Модель обучена на ~15T токенов использует в архитектуре гибридное внимание (Gated DeltaNet + Gated Attention), поддерживает нативный контекст в 256K токенов с возможностью его увеличения до ~1M. При том что на инференсе активны только 3B параметров и 10 экспертов на токен, модель достигает уровня моделей 200B+ класса в ряде задач и обеспечивает отличную скорость на инференсе особенно при обработке длинных промптов. Модель работает только в instruct‑режиме (без “thinking”) и использует технологию Multi-Token Prediction что способствует повышению скорости генерации, улучшению связности текста и более качественному обобщению.

русскоязычная
11.09.2025

Qwen3-Next-80B-A3B-Thinking

MoE‑модель на 80 млрд параметров, из которых активируются только 3 млрд на токен, гибридным вниманием (Gated DeltaNet + Gated Attention) и нативным контекстом 262K (увеличивается до ≈1M), заточенная на сложное пошаговое рассуждение в режиме «thinking». Благодаря ультра‑разреженному MoE (512 экспертов, 10 активных + 1 общий), MTP и другим доработкам, модель демонстрирует высокую эффективность на длинных контекстах и сильные результаты в математике, программировании и агентских задачах.

размышляющая
русскоязычная
11.09.2025

Kimi-K2-Instruct-0905

Обновление одной из крупнейших мультиэкспертных LLM с 1T параметров. Разработчики увеличили контекст до 256K, сфокусировали внимание на задачах фронтенд программирования, агентских возможностях и улучшении вызова инструментов. Как результат – сильный прирост в точности на ряде публичных бенчмарков и достойная конкуренция с лучшими проприетарными решениями.

русскоязычная
05.09.2025

LongCat-Flash-Chat

MoE-модель с 560 миллиардами параметров и контекстом до 128K токенов, которая динамически адаптирует количество экспертов под сложность задачи, обеспечивая оптимальный баланс скорости и качества. Модель идеально подходит для сложных агентных сценариев, математических задач и написания кода.

русскоязычная
29.08.2025