Nemotron-3 Nano-30B новое поколение LLM от компании NVIDIA. Главной особенностью модели является инновационная архитектура, которая объединяет слои Mamba2, слои Трансформера и технологию Mixture-of-Experts в единый вычислительный кластер. Такая структура позволяет модели эффективно обрабатывать огромные массивы данных, сохраняя логическую связность и высокую пропускную способность. модель имеет общий объем 32 миллиардов параметров, но благодаря MoE-маршрутизации для генерации каждого отдельного токена задействуется только активное подмножество из примерно 3,5 миллиардов параметров. Это обеспечивает уникальный баланс: модель обладает «знаниями» и емкостью 30-миллиардной сети, но потребляет вычислительные ресурсы на уровне компактных моделей, оптимизированных для быстрого инференса. Модель обучена на датасете объемом около 25 триллионов токенов, включающем 43 языка программирования и более 19 естественных языков.
По сравнению с Nemotron v2 новая версия предлагает архитектуру MoE вместо плотной (dense), что дает в 4 раза большую пропускную способность (throughput). Еще одной из ключевых возможностей Nemotron-3-Nano является поддержка контекстного окна длиной до 1 миллион токенов. Такое расширение идеально демонстрирует возможности слоев Mamba2 которые обрабатывают длинные последовательности с минимальными затратами памяти. Важным этапом создания модели стало обучение с подкреплением в мульти-средах (Multi-environment Reinforcement Learning) с использованием библиотеки NeMo Gym. Модель тренировалась не просто отвечать на вопросы, а выполнять последовательности действий: вызывать инструменты, писать функциональный код и строить многоступенчатые планы. Это делает её поведение более предсказуемым и надежным в сложных сценариях, где требуется верификация результата на каждом шаге.
На бенчмарке AIME25 (American Invitational Mathematics Examination), проверяющем математическое и количественное рассуждение, Nemotron 3 Nano достигает 99,2% точности с использованием инструментов, превосходя GPT-OSS-20B с 98,7%. На LiveCodeBench (v6 2025-08–2025–05) модель показывает 68,2%, опережая Qwen3-30B (66,0%) и GPT-OSS-20B (61,0%). На других бенчмарках модель если не опережает, то нисколько не уступает аналогам.
С учетом архитектурных преимуществ и рекомендациях NVIDIA, модель идеально подходит для следующих задач: Агентные системы и оркестрация, RAG с длинным контекстом (Long-Context RAG), локальная обработка и Edge-вычисления, генерация кода и структурирование данных.
| Наименование модели | Контекст | Тип | GPU | TPS | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
|---|---|---|---|---|---|---|---|
262 144 |
16 | 32768 | 160 | 1 | 46,94 ₽ | Запустить | |
262 144 tensor |
16 | 32768 | 160 | 2 | 48,14 ₽ | Запустить | |
262 144 tensor |
16 | 32768 | 160 | 2 | 51,34 ₽ | Запустить | |
262 144 pipeline |
12 | 24576 | 120 | 3 | 74,84 ₽ | Запустить | |
262 144 |
16 | 24576 | 160 | 1 | 78,53 ₽ | Запустить | |
262 144 tensor |
16 | 32768 | 160 | 4 | 99,74 ₽ | Запустить | |
262 144 |
16 | 32768 | 160 | 1 | 103,04 ₽ | Запустить | |
262 144 |
12 | 65536 | 160 | 1 | 107,57 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 2 | 109,77 ₽ | Запустить | |
262 144 pipeline |
16 | 65536 | 160 | 3 | 127,37 ₽ | Запустить | |
262 144 |
16 | 65536 | 160 | 1 | 141,77 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 4 | 162,57 ₽ | Запустить | |
262 144 |
16 | 65536 | 160 | 1 | 211,77 ₽ | Запустить | |
262 144 |
16 | 65536 | 160 | 1 | 341,77 ₽ | Запустить | |
262 144 |
16 | 98304 | 160 | 1 | 367,41 ₽ | Запустить | |
262 144 |
16 | 131072 | 160 | 1 | 423,04 ₽ | Запустить | |
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
|---|---|---|---|---|---|---|---|
262 144 pipeline |
32 | 65536 | 160 | 3 | 78,57 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 2 | 83,37 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 4 | 85,77 ₽ | Запустить | |
262 144 pipeline |
32 | 131072 | 160 | 3 | 94,64 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 2 | 109,77 ₽ | Запустить | |
262 144 tensor |
32 | 131072 | 160 | 4 | 112,24 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 2 | 149,37 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 2 | 195,57 ₽ | Запустить | |
262 144 tensor |
16 | 65535 | 240 | 2 | 198,54 ₽ | Запустить | |
262 144 |
16 | 65536 | 160 | 1 | 211,77 ₽ | Запустить | |
262 144 tensor |
16 | 65536 | 160 | 2 | 261,77 ₽ | Запустить | |
262 144 |
16 | 65536 | 160 | 1 | 341,77 ₽ | Запустить | |
262 144 |
16 | 98304 | 160 | 1 | 367,41 ₽ | Запустить | |
262 144 |
16 | 131072 | 160 | 1 | 423,04 ₽ | Запустить | |
| Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
|---|---|---|---|---|---|---|---|
262 144 pipeline |
32 | 131072 | 160 | 6 | 147,44 ₽ | Запустить | |
262 144 tensor |
16 | 131072 | 160 | 4 | 156,24 ₽ | Запустить | |
262 144 tensor |
16 | 131072 | 160 | 4 | 209,04 ₽ | Запустить | |
262 144 |
16 | 131072 | 160 | 1 | 223,04 ₽ | Запустить | |
262 144 tensor |
16 | 98304 | 320 | 4 | 284,16 ₽ | Запустить | |
262 144 pipeline |
64 | 262144 | 320 | 3 | 347,52 ₽ | Запустить | |
262 144 |
16 | 131072 | 160 | 1 | 353,04 ₽ | Запустить | |
262 144 |
16 | 98304 | 160 | 1 | 367,41 ₽ | Запустить | |
262 144 tensor |
16 | 98304 | 320 | 4 | 376,56 ₽ | Запустить | |
262 144 pipeline |
16 | 98304 | 160 | 3 | 387,41 ₽ | Запустить | |
262 144 tensor |
32 | 98304 | 160 | 4 | 388,21 ₽ | Запустить | |
262 144 |
16 | 131072 | 160 | 1 | 423,04 ₽ | Запустить | |
262 144 tensor |
16 | 131072 | 160 | 4 | 513,04 ₽ | Запустить | |
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.