Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Попробуйте интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете воспользоваться публичным эндпоинтом. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше арендовать виртуальный или выделенный сервер с GPU.

Qwen3-VL-32B-Thinking

Reasoning-версия флагманской 32-миллиардной danse модели из семейства Qwen3-VL оптимизированная для многоэтапного мышления и решения сложнейших мультимодальных задач, требующих глубокого анализа и логических выводов на основе визуальной информации. Поддерживает нативный контекст 256K (с возможностью увеличения до 1М) и достигает state-of-the-art среди мультимодальных, рассуждающих моделей схожего размера.

размышляющая
мультимодальная
русскоязычная
22.10.2025

Qwen3-VL-32B-Instruct

Мощная мультимодальная модель с 32 миллиардами параметров и нативной поддержкой 256K контекста, обеспечивающая state-of-the-art качество мультимодального понимания. Модель превосходит на большинстве бенчмарков версию предыдущего поколения с 72B параметров, а также схожие по размеру решения GPT-5, Claude 4 и других разработчиков.

мультимодальная
русскоязычная
22.10.2025

Qwen3-VL-2B-Thinking

Всего 2 миллиарда параметров, контекст 256К и возможность edge инференса. Это одна из самых маленьких visual reasoning-моделей, специализирующаяся на многоступенчатом рассуждении при визуальном анализе изображений и видео, то есть она почти буквально способна "думать, глядя на изображения". В отличие от Instruct-версии, эта модель генерирует развернутые цепочки мышления перед финальным ответом, что повышает точность, но сказывается на скорости работы.

размышляющая
мультимодальная
русскоязычная
22.10.2025

Qwen3-VL-2B-Instruct

Самая компактная модель из семейства мультимодальных Qwen3-VL. 2 миллиарда параметров, dense архитектура, оптимизирована для быстрых диалоговых систем и запуска на edge-устройствах. При этом модель сохраняет и поддерживает все передовые достижения серии: качественное понимание изображений, видео и текста, поддержку OCR на 32 языках, позиционирование объектов, тайминг и нативный контекст в 256K токенов.

мультимодальная
русскоязычная
22.10.2025

Krea Realtime 14B

Модель Krea Realtime 14B представляет собой дистилляцию модели Wan 2.1 14B (разработанной Wan-AI) для задач генерации видео на основе текста. Она была преобразована в автокорректирующуюся (autoregressive) модель с помощью метода Self-Forcing, что позволило достичь скорости инференса 11 кадров в секунду при использовании 4 шагов вывода на одном GPU NVIDIA B200. 

20.10.2025

DeepSeek-OCR

Инновационная VLM-модель для распознавания текста и парсинга документов, разработанная DeepSeek.ai в рамках исследований возможностей представления информации через визуальную модальность. Модель предлагает уникальный подход: вместо традиционных текстовых токенов, она использует визуальные токены для кодирования информации из документов,сжимая текст в 10–20 раз, при этом достигая точности OCR 97%.

мультимодальная
русскоязычная
20.10.2025

Qwen3-VL-4B-Thinking

Reasoning-оптимизированная версия 4B модели серии Qwen3-VL с контекстом 256К (и возможностью увеличения до 1М). Вывод ответа всегда задействует цепочки рассуждений, что позволяет решать непростые мультимодальные задачи, но сказывается на скорости. Демонстрирует производительность лишь немногим уступающую Qwen3-8B-VL при гораздо более скромных аппаратных требованиях.

размышляющая
мультимодальная
русскоязычная
15.10.2025

Qwen3-VL-4B-Instruct

Компактная 4-миллиардная модель, сохраняющая полный функционал серии Qwen3-VL: скорость ответов, высококачественное мультимодальное понимание с пространственными и временными отметками. При этом существенно снижает требования к оборудованию – при использовании половины от нативно поддерживаемого контекста в 256K, модель стабильно работает всего на одной GPU с 24GB памяти.

мультимодальная
русскоязычная
15.10.2025

Qwen3-VL-8B-Thinking

Небольшая dense модель с 8-миллиардами параметров и усиленными возможностями пошагового рассуждения, специализирующаяся на сложных мультимодальных задачах, требующих глубокого анализа и отличного понимания визуального контента. Нативно поддерживает контекст в 256K токенов. Практически по всем ключевым бенчмаркам превосходит такие известные модели как Gemeni-2.5 Flash-Lite и GPT-5 nano high.

размышляющая
мультимодальная
русскоязычная
15.10.2025

Qwen3-VL-8B-Instruct

Мультимодальная dense модель с 8 миллиардами параметров, оптимизированная для диалога и следования инструкциям, обеспечивающая понимание изображений, видео и текста. Поддерживает нативный контекст 256K токенов, расширенное OCR на 32 языках и работу визуального агента. Демонстрирует конкурентные результаты с более крупными моделями на ключевых бенчмарках.

мультимодальная
русскоязычная
15.10.2025

granite-4.0-h-small

Флагманская MoE модель линейки Granite-4.0 от IBM с 32B параметров (9B активных), архитектурой Mamba-2/трансформер. Обеспечивает производительность уровня крупных моделей при снижении требований к памяти на 70% и удвоенной скорости инференса. Оптимизированная для корпоративных задач RAG и агентских рабочих процессов.

русскоязычная
02.10.2025

granite-4.0-h-tiny

Компактная, гибридная модель архитектуры mamba2/transformers в сочетании с mixture of experts, где активируется только 1 млрд из 7 млрд параметров. Разработана для быстрого выполнения задач в том числе на периферийных устройствах и локального развертывания. Требует всего 8 ГБ памяти (в 8-битном формате) и обеспечивает высокую производительность в function calling при минимальных затратах ресурсов.

русскоязычная
02.10.2025

granite-4.0-h-micro

Самая компактная 3B гибридная модель семейства Granite-4.0, сочетает гибридную архитектуру Mamba-2/трансформер с традиционными dense feedforward слоями вместо mixture of experts. Оптимизированная для локальных устройств (запускается даже на Raspberry Pi), но при этом обеспечивает высокие результаты в понимании инструкций (84.32% IFEval), а задачах RAG превосходит гораздо более крупные модели.

русскоязычная
02.10.2025

granite-4.0-micro

Традиционная трансформерная модель с 3 миллиардами параметров, созданная как альтернатива для платформ, где поддержка гибридной архитектуры Mamba-2 ещё не оптимизирована, полная поддержка PEFT методов и оптимизации в llama.cpp. Обеспечивает совместимость с существующей инфраструктурой при сохранении улучшенного качества результата, характерного для поколения моделей Granite 4.0.

русскоязычная
02.10.2025

GLM-4.6

Обновленная версия флагманской модели Z.ai с расширенным контекстом до 200K, улучшенными способностями к рассуждению, генерации кода и поддержкой инструментов. Она существенно превосходит GLM-4.5 и уверенно конкурирует с такими признанными лидерами как DeepSeek-V3.2-Exp и Claude Sonnet 4, при этом демонстрирует значительную экономию использования токенов. Идеальна для агентных систем, анализа больших текстов и автоматизации разработки.

размышляющая
русскоязычная
30.09.2025

DeepSeek-V3.2-Exp

DeepSeek-V3.2-Exp — экспериментальная модель на базе V3.1-Terminus, представляющая промежуточный этап на пути к архитектуре следующего поколения. Модель внедряет DeepSeek Sparse Attention (DSA), механизм разреженного внимания, повышающий эффективность обучения и логического вывода в сценариях с большим контекстом. Эта модель своего рода срез текущего исследования, проводимого компанией Deepseek-AI, в поисках более эффективных архитектур трансформеров. По результатам тестирования V3.2-Exp демонстрирует производительность сопоставимую с базовой версией с незначительной положительной или отрицательной динамикой по ряду бенчмарков.

размышляющая
русскоязычная
29.09.2025

Qwen3-VL-30B-A3B-Instruct

Мультимодальная модель среднего размера в семействе Qwen3-VL с MoE-архитектурой 30B параметров, нативным контекстом в 256K и продвинутыми возможностями обработки изображений, видео и OCR на 32 языках. Архитектурные инновации, такие как Interleaved-MRoPE, DeepStack и Text-Timestamp Alignment обеспечивают отличное качество решения мультимодальных задач, превосходя ряд проприетарных моделей на ключевых бенчмарках. Модель несколько уступает флагману серии Qwen3-VL-235B-A22B-Instruct, но за счет размера и конфигурации существенно экономичнее по ресурсам на инференсе.

мультимодальная
русскоязычная
можно попробовать
26.09.2025

Qwen3-VL-30B-A3B-Thinking

Мультимодальная MoE‑модель из семейства Qwen3-VL среднего размера с 30 млрд общих параметров, 3 миллиардами активных параметров и контекстом в 256K токенов. Она объединяет передовые возможности обработки визуального контента с глубокими аналитическими способностями. Обеспечивает высокоточное пространственное понимание и привязку к временным меткам, уверенно сочетая их с эффективностью и внимательностью к деталям, характерную для reasoning‑моделей.

размышляющая
мультимодальная
русскоязычная
26.09.2025

Qwen3-VL-235B-A22B-Thinking

Флагманская мультимодальная reasoning LLM нового поколения с поддержкой 256K (и возможностью увеличения до 1М токенов). Благодаря уникальным архитектурным решениям таким как Interleaved-MRoPE, DeepStack и др. модель обладает отличными возможностями для OCR (32 языка, включая русский), видеоаналитики, понимания изображений с пространственном ориентированием и специально адаптирована под программирование и реализацию продвинутых агентных сценариев, где необходимо последовательное рассуждение.

размышляющая
мультимодальная
русскоязычная
23.09.2025

Qwen3-VL-235B-A22B-Instruct

Флагманская мультимодальная модель серии Qwen3‑VL. Она объединяет в себе качественную работу с текстом, отличное понимание изображений с пространственным позиционированием объектов, возможности анализа видео по таймингу и длинный контекст (нативно 256K, расширяется до 1M). Модель ориентирована на работу в приложениях, требующих быстрой и точной обработки изображений и видео, а приятным бонусом являются OCR на 32 языках, умение совершать агентные действия в интерфейсах и генерацию кода по мультимодальным входам (например фронтенд-код сайта по его рисованному эскизу).

мультимодальная
русскоязычная
23.09.2025