Nemotron-3 Nano-30B новое поколение LLM от компании NVIDIA. Главной особенностью модели является инновационная архитектура, которая объединяет слои Mamba2, слои Трансформера и технологию Mixture-of-Experts в единый вычислительный кластер. Такая структура позволяет модели эффективно обрабатывать огромные массивы данных, сохраняя логическую связность и высокую пропускную способность. модель имеет общий объем 32 миллиардов параметров, но благодаря MoE-маршрутизации для генерации каждого отдельного токена задействуется только активное подмножество из примерно 3,5 миллиардов параметров. Это обеспечивает уникальный баланс: модель обладает «знаниями» и емкостью 30-миллиардной сети, но потребляет вычислительные ресурсы на уровне компактных моделей, оптимизированных для быстрого инференса. Модель обучена на датасете объемом около 25 триллионов токенов, включающем 43 языка программирования и более 19 естественных языков.
По сравнению с Nemotron v2 новая версия предлагает архитектуру MoE вместо плотной (dense), что дает в 4 раза большую пропускную способность (throughput). Еще одной из ключевых возможностей Nemotron-3-Nano является поддержка контекстного окна длиной до 1 миллион токенов. Такое расширение идеально демонстрирует возможности слоев Mamba2 которые обрабатывают длинные последовательности с минимальными затратами памяти. Важным этапом создания модели стало обучение с подкреплением в мульти-средах (Multi-environment Reinforcement Learning) с использованием библиотеки NeMo Gym. Модель тренировалась не просто отвечать на вопросы, а выполнять последовательности действий: вызывать инструменты, писать функциональный код и строить многоступенчатые планы. Это делает её поведение более предсказуемым и надежным в сложных сценариях, где требуется верификация результата на каждом шаге.
На бенчмарке AIME25 (American Invitational Mathematics Examination), проверяющем математическое и количественное рассуждение, Nemotron 3 Nano достигает 99,2% точности с использованием инструментов, превосходя GPT-OSS-20B с 98,7%. На LiveCodeBench (v6 2025-08–2025–05) модель показывает 68,2%, опережая Qwen3-30B (66,0%) и GPT-OSS-20B (61,0%). На других бенчмарках модель если не опережает, то нисколько не уступает аналогам.
С учетом архитектурных преимуществ и рекомендациях NVIDIA, модель идеально подходит для следующих задач: Агентные системы и оркестрация, RAG с длинным контекстом (Long-Context RAG), локальная обработка и Edge-вычисления, генерация кода и структурирование данных.
| Наименование модели | Контекст | Тип | GPU | Статус | Ссылка |
|---|
Для данной модели пока нет публичных эндпоинтов.
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 |
1 | 46,94 ₽ | 1,61 | Запустить | ||
262 144 tensor |
2 | 48,14 ₽ | 4,65 | Запустить | ||
262 144 tensor |
2 | 51,34 ₽ | 4,65 | Запустить | ||
262 144 |
1 | 73,73 ₽ | 1,61 | Запустить | ||
262 144 pipeline |
3 | 74,84 ₽ | 3,61 | Запустить | ||
262 144 |
1 | 91,14 ₽ | 1,61 | Запустить | ||
262 144 tensor |
4 | 99,74 ₽ | 8,40 | Запустить | ||
262 144 |
1 | 107,57 ₽ | 6,27 | Запустить | ||
262 144 tensor |
2 | 109,77 ₽ | 13,96 | Запустить | ||
262 144 pipeline |
3 | 127,37 ₽ | 1,87 | Запустить | ||
262 144 |
1 | 141,77 ₽ | 6,27 | Запустить | ||
262 144 tensor |
4 | 162,57 ₽ | 6,07 | Запустить | ||
262 144 |
1 | 211,77 ₽ | 34,21 | Запустить | ||
262 144 |
1 | 341,77 ₽ | 34,21 | Запустить | ||
262 144 |
1 | 367,41 ₽ | 42,37 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 69,73 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 pipeline |
3 | 78,57 ₽ | 2,39 | Запустить | ||
262 144 tensor |
2 | 83,37 ₽ | 4,01 | Запустить | ||
262 144 tensor |
4 | 85,77 ₽ | 10,09 | Запустить | ||
262 144 pipeline |
3 | 94,64 ₽ | 2,39 | Запустить | ||
262 144 tensor |
2 | 109,77 ₽ | 4,01 | Запустить | ||
262 144 tensor |
4 | 112,24 ₽ | 10,09 | Запустить | ||
262 144 tensor |
2 | 139,77 ₽ | 4,01 | Запустить | ||
262 144 tensor |
2 | 171,77 ₽ | 145,02 | 4,01 | Запустить | |
262 144 tensor |
2 | 198,54 ₽ | 13,33 | Запустить | ||
262 144 |
1 | 211,77 ₽ | 24,26 | Запустить | ||
262 144 tensor |
2 | 261,77 ₽ | 13,33 | Запустить | ||
262 144 |
1 | 341,77 ₽ | 134,65 | 24,26 | Запустить | |
262 144 |
1 | 367,41 ₽ | 32,41 | Запустить | ||
262 144 |
1 | 423,04 ₽ | 59,78 | Запустить | ||
| Наименование | GPU | TPS | Параллельность (макс.) | |||
|---|---|---|---|---|---|---|
262 144 pipeline |
6 | 148,21 ₽ | 5,33 | Запустить | ||
262 144 tensor |
4 | 157,01 ₽ | 8,57 | Запустить | ||
262 144 |
1 | 223,81 ₽ | 4,10 | Запустить | ||
262 144 tensor |
4 | 264,96 ₽ | 8,57 | Запустить | ||
262 144 tensor |
4 | 328,96 ₽ | 8,57 | Запустить | ||
262 144 pipeline |
3 | 347,52 ₽ | 10,18 | Запустить | ||
262 144 |
1 | 353,81 ₽ | 4,10 | Запустить | ||
262 144 |
1 | 368,18 ₽ | 12,25 | Запустить | ||
262 144 pipeline |
3 | 388,18 ₽ | 10,18 | Запустить | ||
262 144 tensor |
4 | 417,92 ₽ | 27,20 | Запустить | ||
262 144 |
1 | 423,81 ₽ | 39,62 | Запустить | ||
262 144 tensor |
4 | 514,59 ₽ | 27,20 | Запустить | ||
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.