gpt-oss-20b

размышляющая
русскоязычная

Модель GPT-OSS-20B представляет собой удивительное достижение в области компактных языковых моделей, доказывая, что размер не всегда определяет качество. С 20.9B общими параметрами и 3.6B активными параметрами на токен, эта модель демонстрирует поразительную эффективность, работая на устройствах со всего лишь 16GB памяти благодаря инновационной квантизации MXFP4. Архитектура включает 24 слоя с 32 экспертами на каждом слое, но активируются только топ-4 эксперта, что обеспечивает оптимальный баланс между производительностью и доступностью. Модель использует те же оптимизации, что и её «старший брат»: чередующиеся attention-паттерны (full и window), Grouped Query Attention, rotary position embeddings, но в еще более компактном формате.

Техническое совершенство GPT-OSS-20B проявляется в её способности генерировать сверхдлинные цепочки рассуждений — в среднем более 20,000 CoT токенов на задачу из бенчмарка AIME, что позволяет ей конкурировать с гораздо более крупными моделями. И действительно на математических задачах уровня AIME 2025 модель достигает фантастических результатов в 98.7% точности, превосходя OpenAI o3-mini (86.5%). В области программирования модель показывает Elo рейтинг 2516 на Codeforces и 60.7% на SWE-Bench Verified. На HealthBench модель достигает 42.5%, превосходя o1 (41.8%) и o3-mini (37.8%), что намекает на её потенциал в медицинских исследованиях и приложениях.

Практическая ценность GPT-OSS-20B заключается в её универсальности и доступности (лицензия Apache 2.0). Модель обучена тем же техникам CoT и RL, что и o3 от OpenAI, поддерживает полный спектр агентских инструментов как решения enterprise уровня (веб-поиск, выполнение скриптов на Python, вызов произвольных функций разработчика), но благодаря упомянутой нативной квантизации MXFP4 все это умещается всего в 12.8 GiB. Она идеальна для локального развертывания, быстрого прототипирования и сценариев, где требуется баланс между возможностями ИИ и ограниченными ресурсами.


Дата анонса: 05.08.2025
Параметров: 20.91B
Экспертов: 32
Активно параметров при инференсе: 3.61B
Контекст: 131K
Тип внимания: Sliding Window Attention
Потребление памяти: 12.9 ГБ в точности 4 бит
Разработчик: OpenAI
Версия Transformers: 4.55.0.dev0
Лицензия: Apache 2.0

Публичный эндпоинт

Воспользуйтесь нашими готовыми публичными эндпоинтами для теста инференса и знакомства с gpt-oss-20b.
Наименование модели Контекст Тип GPU TPS Статус Ссылка
openai/gpt-oss-20b 131 072 Публичный RTX3090 61.74 доступен попробовать

API доступ к gpt-oss-20b эндпоинтам

curl https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer USER_API_KEY" \
-d '{"model": "gpt-oss-20b", "messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"}
], "temperature": 0, "max_tokens": 150}'
$response = Invoke-WebRequest https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/chat/completions `
-Method POST `
-Headers @{
"Authorization" = "Bearer USER_API_KEY"
"Content-Type" = "application/json"
} `
-Body (@{
model = "gpt-oss-20b"
messages = @(
@{ role = "system"; content = "You are a helpful assistant." },
@{ role = "user"; content = "Say this is a test" }
)
} | ConvertTo-Json)
($response.Content | ConvertFrom-Json).choices[0].message.content
#!pip install OpenAI --upgrade

from openai import OpenAI

client = OpenAI(
api_key="USER_API_KEY",
base_url="https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/",
)

chat_response = client.chat.completions.create(
model="gpt-oss-20b",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"},
]
)
print(chat_response.choices[0].message.content)

Частный сервер

Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.

Мы рекомендуем создание частных инстансов в случаях, если необходимо:

  • получить максимальную производительность эндпоинта,
  • получить полный контекст для обработки больших запросов и диалогов,
  • обеспечить максимальную безопасность, для обработки данных в выделенном изолированном пространстве,
  • использовать кастомизированные веса: fine-tuned версии или lora-адаптеры.

Рекомендуемые конфигурации для хостинга gpt-oss-20b

Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslat4-1.16.16.160 16 16384 160 1 40,83 ₽ Запустить
teslaa10-1.16.32.160 16 32768 160 1 46,94 ₽ Запустить
teslaa2-2.16.32.160 16 32768 160 2 51,34 ₽ Запустить
rtx2080ti-2.12.64.160 12 65536 160 2 61,37 ₽ Запустить
rtx3090-1.16.24.160 16 24576 160 1 78,53 ₽ Запустить
rtx3080-2.16.32.160 16 32762 160 2 86,54 ₽ Запустить
rtx4090-1.16.32.160 16 32768 160 1 103,04 ₽ Запустить
teslav100-1.12.64.160 12 65536 160 1 107,57 ₽ Запустить
rtx5090-1.16.64.160 16 65536 160 1 141,77 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa2-2.16.32.160 16 32768 160 2 51,34 ₽ Запустить
teslat4-2.16.32.160 16 32768 160 2 71,14 ₽ Запустить
teslaa10-2.16.64.160 16 65536 160 2 83,37 ₽ Запустить
rtx2080ti-3.16.64.160 16 65536 160 3 84,47 ₽ Запустить
teslav100-1.12.64.160 12 65536 160 1 107,57 ₽ Запустить
rtx3080-3.16.64.160 16 65536 160 3 127,37 ₽ Запустить
rtx5090-1.16.64.160 16 65536 160 1 141,77 ₽ Запустить
rtx3090-2.16.64.160 16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160 16 65536 160 2 195,57 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить
Цены:
Наименование vCPU ОЗУ, МБ Диск, ГБ GPU Цена, час
teslaa10-2.16.64.160 16 65536 160 2 83,37 ₽ Запустить
teslat4-4.16.64.160 16 65536 160 4 131,77 ₽ Запустить
rtx3090-2.16.64.160 16 65536 160 2 149,37 ₽ Запустить
rtx4090-2.16.64.160 16 65536 160 2 195,57 ₽ Запустить
teslav100-2.16.64.240 16 65535 240 2 198,54 ₽ Запустить
teslaa100-1.16.64.160 16 65536 160 1 230,77 ₽ Запустить
rtx5090-2.16.64.160 16 65536 160 2 261,77 ₽ Запустить
teslah100-1.16.64.160 16 65536 160 1 456,27 ₽ Запустить

Связанные модели

Остались вопросы?

Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.