gpt-oss-20b

размышляющая
русскоязычная

Модель GPT-OSS-20B представляет собой удивительное достижение в области компактных языковых моделей, доказывая, что размер не всегда определяет качество. С 20.9B общими параметрами и 3.6B активными параметрами на токен, эта модель демонстрирует поразительную эффективность, работая на устройствах со всего лишь 16GB памяти благодаря инновационной квантизации MXFP4. Архитектура включает 24 слоя с 32 экспертами на каждом слое, но активируются только топ-4 эксперта, что обеспечивает оптимальный баланс между производительностью и доступностью. Модель использует те же оптимизации, что и её «старший брат»: чередующиеся attention-паттерны (full и window), Grouped Query Attention, rotary position embeddings, но в еще более компактном формате.

Техническое совершенство GPT-OSS-20B проявляется в её способности генерировать сверхдлинные цепочки рассуждений — в среднем более 20,000 CoT токенов на задачу из бенчмарка AIME, что позволяет ей конкурировать с гораздо более крупными моделями. И действительно на математических задачах уровня AIME 2025 модель достигает фантастических результатов в 98.7% точности, превосходя OpenAI o3-mini (86.5%). В области программирования модель показывает Elo рейтинг 2516 на Codeforces и 60.7% на SWE-Bench Verified. На HealthBench модель достигает 42.5%, превосходя o1 (41.8%) и o3-mini (37.8%), что намекает на её потенциал в медицинских исследованиях и приложениях.

Практическая ценность GPT-OSS-20B заключается в её универсальности и доступности (лицензия Apache 2.0). Модель обучена тем же техникам CoT и RL, что и o3 от OpenAI, поддерживает полный спектр агентских инструментов как решения enterprise уровня (веб-поиск, выполнение скриптов на Python, вызов произвольных функций разработчика), но благодаря упомянутой нативной квантизации MXFP4 все это умещается всего в 12.8 GiB. Она идеальна для локального развертывания, быстрого прототипирования и сценариев, где требуется баланс между возможностями ИИ и ограниченными ресурсами.


Дата анонса: 05.08.2025
Параметров: 21B
Экспертов: 32
Активно параметров при инференсе: 4B
Контекст: 132K
Слоев: 24, с полным вниманием: 12
Тип внимания: Sliding Window Attention
Разработчик: OpenAI
Версия Transformers: 4.55.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами бесплатно для теста инференса и знакомства с gpt-oss-20b. Получить токен для доступа к API вы можете на странице управления токенами после регистрации и верификации.
Наименование модели Контекст Тип GPU TPS Tooling Статус Ссылка
openai/gpt-oss-20b 131 072 Публичный RTX4090 79.50 доступен чат

API доступ к gpt-oss-20b эндпоинтам

curl https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer USER_API_KEY" \
-d '{"model": "gpt-oss-20b", "messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"}
], "temperature": 0, "max_tokens": 150}'
$response = Invoke-WebRequest https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/chat/completions `
-Method POST `
-Headers @{
"Authorization" = "Bearer USER_API_KEY"
"Content-Type" = "application/json"
} `
-Body (@{
model = "gpt-oss-20b"
messages = @(
@{ role = "system"; content = "You are a helpful assistant." },
@{ role = "user"; content = "Say this is a test" }
)
} | ConvertTo-Json)
($response.Content | ConvertFrom-Json).choices[0].message.content
#!pip install OpenAI --upgrade

from openai import OpenAI

client = OpenAI(
api_key="USER_API_KEY",
base_url="https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/",
)

chat_response = client.chat.completions.create(
model="gpt-oss-20b",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"},
]
)
print(chat_response.choices[0].message.content)

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации сервера для хостинга gpt-oss-20b

Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-2.16.32.160
131 072
tensor
2 51,34 ₽ 3,80 Запустить
rtx2080ti-2.16.64.160
131 072
tensor
2 63,57 ₽ 0,98 Запустить
rtx4090-1.32.64.160
131 072
1 105,57 ₽ 2,33 Запустить
rtxa5000-2.16.64.160.nvlink
131 072
tensor
2 109,77 ₽ 8,32 Запустить
teslat4-4.48.192.320
131 072
tensor
4 127,45 ₽ 11,26 Запустить
rtx5090-1.32.64.160
131 072
1 150,57 ₽ 4,59 Запустить
teslaa10-4.16.128.160
131 072
tensor
4 156,24 ₽ 20,29 Запустить
rtx3080-4.16.96.160
131 072
tensor
4 168,21 ₽ 4,49 Запустить
teslaa100-1.16.64.160
131 072
1 211,77 ₽ 18,13 Запустить
rtx3090-4.16.128.160
131 072
tensor
4 269,04 ₽ 20,29 Запустить
h100-1.16.64.160
131 072
1 341,77 ₽ 18,13 Запустить
h100nvl-1.16.96.160
131 072
1 367,41 ₽ 22,08 Запустить
teslaa100-2.24.256.160.nvlink
131 072
tensor
2 439,97 ₽ 39,91 Запустить
h200-2.24.256.160.nvlink
131 072
tensor
2 839,97 ₽ 74,33 Запустить
h200-4.32.768.480
131 072
tensor
4 1 717,59 ₽ 152,31 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-4.32.128.480
131 072
tensor
4 115,35 ₽ 2,89 Запустить
teslat4-4.48.192.320
131 072
tensor
4 127,45 ₽ 2,89 Запустить
teslaa10-4.16.128.160
131 072
tensor
4 156,24 ₽ 11,92 Запустить
rtxa5000-4.16.128.160.nvlink
131 072
tensor
4 209,04 ₽ 11,92 Запустить
teslaa100-1.16.64.160
131 072
1 211,77 ₽ 9,76 Запустить
rtx5090-2.16.64.160
131 072
tensor
2 261,77 ₽ 4,46 Запустить
rtx3090-4.16.128.160
131 072
tensor
4 269,04 ₽ 11,92 Запустить
rtx4090-4.16.64.160
131 072
tensor
4 321,77 ₽ 11,92 Запустить
h100-1.16.64.160
131 072
1 341,77 ₽ 9,76 Запустить
h100nvl-1.16.96.160
131 072
1 367,41 ₽ 13,71 Запустить
teslaa100-2.24.256.160.nvlink
131 072
tensor
2 439,97 ₽ 31,54 Запустить
h200-2.24.256.160.nvlink
131 072
tensor
2 839,97 ₽ 65,96 Запустить
h200-4.32.768.480
131 072
tensor
4 1 717,59 ₽ 143,94 Запустить
Цены:
Наименование GPU Цена, час TPS Параллельность (макс.)
teslaa2-4.32.128.480
131 072
tensor
4 115,35 ₽ 2,71 Запустить
teslat4-4.48.192.320
131 072
tensor
4 127,45 ₽ 2,71 Запустить
teslaa10-4.16.128.160
131 072
tensor
4 156,24 ₽ 11,74 Запустить
rtxa5000-4.16.128.160.nvlink
131 072
tensor
4 209,04 ₽ 11,74 Запустить
teslaa100-1.16.64.160
131 072
1 211,77 ₽ 9,57 Запустить
rtx5090-2.16.64.160
131 072
tensor
2 261,77 ₽ 4,28 Запустить
rtx3090-4.16.128.160
131 072
tensor
4 269,04 ₽ 11,74 Запустить
rtx4090-4.16.64.160
131 072
tensor
4 321,77 ₽ 11,74 Запустить
h100-1.16.64.160
131 072
1 341,77 ₽ 9,57 Запустить
h100nvl-1.16.96.160
131 072
1 367,41 ₽ 13,52 Запустить
teslaa100-2.24.256.160.nvlink
131 072
tensor
2 439,97 ₽ 31,36 Запустить
h200-2.24.256.160.nvlink
131 072
tensor
2 839,97 ₽ 65,77 Запустить
h200-4.32.768.480
131 072
tensor
4 1 717,59 ₽ 143,76 Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.