Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Попробуйте интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете воспользоваться публичным эндпоинтом. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше арендовать виртуальный или выделенный сервер с GPU.

DeepSeek-V3.1-Terminus

Обновлённая версия флагманской модели DeepSeek-V3.1 демонстрирует значительные улучшения: разработчики добились большей языковой согласованности — теперь модель реже смешивает китайский и английский языки и полностью избегает появления случайных символов. Кроме того, были существенно улучшены агенты — как Code Agent, так и Search Agent показывают более высокую производительность. В довершение ко всему, модель продемонстрировала заметный рост показателей на ряде ключевых бенчмарков.

размышляющая
русскоязычная
22.09.2025

Qwen3-Next-80B-A3B-Thinking

MoE‑модель на 80 млрд параметров, из которых активируются только 3 млрд на токен, гибридным вниманием (Gated DeltaNet + Gated Attention) и нативным контекстом 262K (увеличивается до ≈1M), заточенная на сложное пошаговое рассуждение в режиме «thinking». Благодаря ультра‑разреженному MoE (512 экспертов, 10 активных + 1 общий), MTP и другим доработкам, модель демонстрирует высокую эффективность на длинных контекстах и сильные результаты в математике, программировании и агентских задачах.

размышляющая
русскоязычная
11.09.2025

Qwen3-Next-80B-A3B-Instruct

MoE‑модель нового поколения на 80 млрд параметров и 512 экспертами. Модель обучена на ~15T токенов использует в архитектуре гибридное внимание (Gated DeltaNet + Gated Attention), поддерживает нативный контекст в 256K токенов с возможностью его увеличения до ~1M. При том что на инференсе активны только 3B параметров и 10 экспертов на токен, модель достигает уровня моделей 200B+ класса в ряде задач и обеспечивает отличную скорость на инференсе особенно при обработке длинных промптов. Модель работает только в instruct‑режиме (без “thinking”) и использует технологию Multi-Token Prediction что способствует повышению скорости генерации, улучшению связности текста и более качественному обобщению.

русскоязычная
11.09.2025

Kimi-K2-0905

Обновление одной из крупнейших мультиэкспертных LLM с 1T параметров. Разработчики увеличили контекст до 256K, сфокусировали внимание на задачах фронтенд программирования, агентских возможностях и улучшении вызова инструментов. Как результат – сильный прирост в точности на ряде публичных бенчмарков и достойная конкуренция с лучшими проприетарными решениями.

русскоязычная
05.09.2025

DeepSeek-V3.1

Крупное обновление в линейке LLM от DeepSeek-AI и серьезный шаг в сторону решений, ориентированных на использование ИИ агентов. Deepseek v3.1 - теперь это гибридная модель с поддержкой двух интеллектуальных режимов (thinking/non-thinking), лидирующая в своём классе по точности и гибкости применения. Улучшения наблюдаются по всем бенчмаркам, но особый акцент разработчики сделали на эффективность в работе с инструментами, как следствие модель идеально подходит для сложных аналитических, исследовательских задач и агентских систем enterprise уровня.

размышляющая
русскоязычная
21.08.2025

Seed-OSS-36B

Продвинутая открытая языковая модель с 32 млрд параметров, оптимизированная для выполнения сложных инструкций, диалоговых и агентных сценариев, с уникально гибким контролем "бюджета размышлений" и поддержкой 512K контекста. Модель идеально подходит для использования в рамках чат-ботов для консультаций и поддержки клиентов, для обработки длинных документов, юридических файлов, научных и технических отчетов и не в последнюю очередь для автоматизации бизнес-процессов, в том числе с помощью интеллектуальных ассистентов.

размышляющая
русскоязычная
20.08.2025

Qwen-Image-Edit

Qwen-Image-Edit — модель для задач редактирования изображений, основанная на 20B-версии модели Qwen-Image (Qwen2.5-VL + VAE Encoder).

17.08.2025

gemma-3-270m

Новая сверх компактная (270M параметров) и высокопроизводительная модель в семействе Gemma 3 от Google Deep Mind. Это решение для быстрого локального развертывания, модель может эффективно работать логалькно в том числе на уровне встраиваемых систем и в браузерах. Она была специально создана для использования после дообучения под конкртеные задачи, но при этом модель "из коробки" умеет следовать инструкциям и структурировать текст. Идеальна для быстрой классификации, извлечения данных, и других задач, где важны скорость, точность, энергоэффективность и конфиденциальность.

русскоязычная
14.08.2025

GLM-4.5V

Мульти-модальная модель нового поколения, работающая с изображениями, видео, текстом и графическим пользовательским интерфейсом. Ее архитектура построена на базе флагманской МoЕ GLM-4.5 Air и поддерживает режимы Thinking Mode для глубокого рассуждения и No-Thinking Mode для быстрых ответов. На момент выхода модель занимает лидирующие позиции на 41 из 42 ключевых бенчмарков, с помощью которых тестируются LLM, способные воспринимать визуальную и текстовую информацию.

размышляющая
мультимодальная
русскоязычная
11.08.2025

Qwen3-4B-Thinking-2507

Обновление гибридной Qwen3-4B, получившее специализацию на сложных рассуждениях, увеличенный контекст в 262K токенов и работающая только в reasoning режиме. Для своих 4 млрд параметров модель достигает невероятного результата 81.3 в олимпиадной математике - AIME25! Она идеальна для локального развертывания, отладки кода, аналитических задач и сценариев, требующих пошаговых обдуманных решений.

размышляющая
русскоязычная
07.08.2025

Qwen3-4B-Instruct-2507

Небольшая, но высокопроизводительная языковая модель с 4B параметрами, специализированная на быстром выполнении инструкций без внутренних рассуждений. Модель превосходит GPT-4.1-nano по всем ключевым метрикам и поддерживает контекст до 262K токенов. Оптимальна для задач классификации, генерации ответов с использованием базы знаний и диалоговых ассистентов, и в целом для любых сценариев, где требуется высокая скорость обработки запросов и точное следование инструкциям.  

русскоязычная
07.08.2025

gpt-oss-20b

Компактная, но мощная reasoning MoE-модель от OpenAI с 20.9B общих параметров (3.61 активируются на токен), которая работает всего на 16GB памяти и идеально подходит для локального развертывания с использованием общедоступного пользователям оборудования. Но при этом сохраняет все передовые возможности reasoning и tool use, а по целому ряду ключевых бенчмарков превосходит не только open-source решения, но и популярную o3-mini OpenAI, что является хорошим сигналом для использования gpt-oss-20b в самых разных исследовательских и продуктовых сценариях.

размышляющая
русскоязычная
можно попробовать
05.08.2025

gpt-oss-120b

Флагманская, открытая! reasoning модель от OpenAI, наследующая лучшие научные разработки и достижения, которые компания использовала в знаменитом ChatGPT. Это модель с уникальной MoE-архитектурой в 116.8B параметров, но активирующей только 5.1B параметров на токен и оснащенная таким количеством инноваций, позволяющих эффективно балансировать между производительностью и потреблением ресурсов, причем так, что модель может работать на одном 80GB GPU. GPT-OSS-120B поддерживает трехуровневую систему рассуждений и впервые в открытых моделях представлена расширенная иерархия ролей и каналы вывода генерации под соответствующие роли, что в совокупности позволяет пользователю максимально точно настраивать и управлять поведением модели.

размышляющая
русскоязычная
05.08.2025

Qwen-Image

Мультимодальная модель для генерации и редактирования изображений на основе текстовых запросов, входящая в серию моделей Qwen. Она демонстрирует значительные улучшения в точном отображении сложного текста (включая китайский язык) и выполнении продвинутых операций редактирования изображений. Модель обладает обобщенными способностями как в создании изображений, так и в их редактировании, с акцентом на сохранение деталей шрифтов, композиции и контекстной гармонии текста.

04.08.2025

Qwen3-30B-A3B-Thinking-2507

Qwen3-30B-A3B-Thinking-2507 — обновление Qwen3-30B-A3B адаптированная и специализированная на работе только в режиме размышления. Модель с 30.5B параметров (3.3B активных), 128 экспертами (8 активны на токен) и увеличенным контекстом в 262 144 является идеальным open-source решением среди моделей средних размеров под задачи, требующие качественного reasoning для задействования инструментов и реализации агентских возможностей или же просто для формирования выверенных ответов на очень сложные вопросы пользователя.   

размышляющая
русскоязычная
29.07.2025

Qwen3-30B-A3B-Instruct-2507

Обновленная версия Qwen3-30B-A3B с 30.5 млрд параметров (3.3B активных) и увеличенным контекстом в 262 144 ориентированная на генерацию мгновенных и точных ответов без промежуточных размышлений. Невероятно эффективная диалоговая модель, способная на решение не только технических, но и творческих задач – идеальна для использования в чат-ботах.

русскоязычная
29.07.2025

GLM-4.5

Гибридная модель с 355B параметров, объединяющая продвинутые рассуждения, программирование с артефактами и агентные возможности в единой MoE архитектуре с увеличенным количеством скрытых слоев. На момент выхода модель занимает 3-е место в мировом рейтинге по среднему показателю на 12 ключевых бенчмарках. Особенно впечатляет ее возможности в генерации готовых веб-приложений, интерактивных презентаций и сложного программного кода. При этом пользователям достаточно просто объяснить модели как должна работать программа и какой результат они хотят видеть.   

размышляющая
русскоязычная
28.07.2025

GLM-4.5-Air

Качественая агент-ориентированная модель с 106B параметров, оптимизированная для быстрого инференса и умеренных аппаратных требований, сохраняющая ключевые возможности гибридного рассуждения и общей функциональности. На момент релиза модель занимает 6-е место в мировом рейтинге по 12 ключевым бенчмаркам, демонстрируя исключительную скорость и превосходные результаты в реальных сценариях разработки. Разработчики особенно подчеркивают эффективность ее использования в задачах автозаполнения и корректировки програмного кода для фронтэнда. 

размышляющая
русскоязычная
28.07.2025

Qwen3-235B-A22B-Thinking-2507

Новая версия флагманской MoE модели Qwen3-235B-A22B в серии Qwen 3 с усовершенствованным «мышлением» и расширенным контекстом в 262K токенов. Она работает только в режиме thinking, при этом демонстрирует state-of-the-art результаты среди лучших открытых и проприетарных thinking-моделей, превосходя многие известные бренды в математических вычислениях, программировании и логических задачах. Идеальный вариант для сложных исследовательских задач с продвинутыми агентскими и аналитическими возможностями.

размышляющая
русскоязычная
25.07.2025

Qwen3-Coder-480B-A35B-Instruct

Флагманская модель агентного программирования от Alibaba с архитектурой Mixture-of-Experts (480 млрд параметров, 35 млрд активных) и нативной поддержкой контекста 256K токенов. Сценарии применения Qwen3-Coder охватывают весь спектр современной разработки — от создания интерактивных веб-приложений до модернизации legacy-систем, включая автономную разработку функций, охватывающих backend API, frontend компоненты и базы данных.

русскоязычная
22.07.2025