Модель GPT-OSS-20B представляет собой удивительное достижение в области компактных языковых моделей, доказывая, что размер не всегда определяет качество. С 20.9B общими параметрами и 3.6B активными параметрами на токен, эта модель демонстрирует поразительную эффективность, работая на устройствах со всего лишь 16GB памяти благодаря инновационной квантизации MXFP4. Архитектура включает 24 слоя с 32 экспертами на каждом слое, но активируются только топ-4 эксперта, что обеспечивает оптимальный баланс между производительностью и доступностью. Модель использует те же оптимизации, что и её «старший брат»: чередующиеся attention-паттерны (full и window), Grouped Query Attention, rotary position embeddings, но в еще более компактном формате.
Техническое совершенство GPT-OSS-20B проявляется в её способности генерировать сверхдлинные цепочки рассуждений — в среднем более 20,000 CoT токенов на задачу из бенчмарка AIME, что позволяет ей конкурировать с гораздо более крупными моделями. И действительно на математических задачах уровня AIME 2025 модель достигает фантастических результатов в 98.7% точности, превосходя OpenAI o3-mini (86.5%). В области программирования модель показывает Elo рейтинг 2516 на Codeforces и 60.7% на SWE-Bench Verified. На HealthBench модель достигает 42.5%, превосходя o1 (41.8%) и o3-mini (37.8%), что намекает на её потенциал в медицинских исследованиях и приложениях.
Практическая ценность GPT-OSS-20B заключается в её универсальности и доступности (лицензия Apache 2.0). Модель обучена тем же техникам CoT и RL, что и o3 от OpenAI, поддерживает полный спектр агентских инструментов как решения enterprise уровня (веб-поиск, выполнение скриптов на Python, вызов произвольных функций разработчика), но благодаря упомянутой нативной квантизации MXFP4 все это умещается всего в 12.8 GiB. Она идеальна для локального развертывания, быстрого прототипирования и сценариев, где требуется баланс между возможностями ИИ и ограниченными ресурсами.
Наименование модели | Контекст | Тип | GPU | TPS | Статус | Ссылка |
---|---|---|---|---|---|---|
openai/gpt-oss-20b | 131 072 | Публичный | RTX3090 | 61.74 | доступен | попробовать |
curl https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer USER_API_KEY" \
-d '{"model": "gpt-oss-20b", "messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"}
], "temperature": 0, "max_tokens": 150}'
$response = Invoke-WebRequest https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/chat/completions `
-Method POST `
-Headers @{
"Authorization" = "Bearer USER_API_KEY"
"Content-Type" = "application/json"
} `
-Body (@{
model = "gpt-oss-20b"
messages = @(
@{ role = "system"; content = "You are a helpful assistant." },
@{ role = "user"; content = "Say this is a test" }
)
} | ConvertTo-Json)
($response.Content | ConvertFrom-Json).choices[0].message.content
#!pip install OpenAI --upgrade
from openai import OpenAI
client = OpenAI(
api_key="USER_API_KEY",
base_url="https://chat.immers.cloud/v1/endpoints/gpt-oss-20b/generate/",
)
chat_response = client.chat.completions.create(
model="gpt-oss-20b",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say this is a test"},
]
)
print(chat_response.choices[0].message.content)
Арендуйте собственный физически выделенный инстанс с почасовой оплатой или на длительный срок с помесячной оплатой.
Мы рекомендуем создание частных инстансов в случаях, если необходимо:
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
---|---|---|---|---|---|---|---|
16 | 16384 | 160 | 1 | 40,83 ₽ | Запустить | ||
16 | 32768 | 160 | 1 | 46,94 ₽ | Запустить | ||
16 | 32768 | 160 | 2 | 51,34 ₽ | Запустить | ||
12 | 65536 | 160 | 2 | 61,37 ₽ | Запустить | ||
16 | 24576 | 160 | 1 | 78,53 ₽ | Запустить | ||
16 | 32762 | 160 | 2 | 86,54 ₽ | Запустить | ||
16 | 32768 | 160 | 1 | 103,04 ₽ | Запустить | ||
12 | 65536 | 160 | 1 | 107,57 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 141,77 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 230,77 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 456,27 ₽ | Запустить |
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
---|---|---|---|---|---|---|---|
16 | 32768 | 160 | 2 | 51,34 ₽ | Запустить | ||
16 | 32768 | 160 | 2 | 71,14 ₽ | Запустить | ||
16 | 65536 | 160 | 2 | 83,37 ₽ | Запустить | ||
16 | 65536 | 160 | 3 | 84,47 ₽ | Запустить | ||
12 | 65536 | 160 | 1 | 107,57 ₽ | Запустить | ||
16 | 65536 | 160 | 3 | 127,37 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 141,77 ₽ | Запустить | ||
16 | 65536 | 160 | 2 | 149,37 ₽ | Запустить | ||
16 | 65536 | 160 | 2 | 195,57 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 230,77 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 456,27 ₽ | Запустить |
Наименование | vCPU | ОЗУ, МБ | Диск, ГБ | GPU | |||
---|---|---|---|---|---|---|---|
16 | 65536 | 160 | 2 | 83,37 ₽ | Запустить | ||
16 | 65536 | 160 | 4 | 131,77 ₽ | Запустить | ||
16 | 65536 | 160 | 2 | 149,37 ₽ | Запустить | ||
16 | 65536 | 160 | 2 | 195,57 ₽ | Запустить | ||
16 | 65535 | 240 | 2 | 198,54 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 230,77 ₽ | Запустить | ||
16 | 65536 | 160 | 2 | 261,77 ₽ | Запустить | ||
16 | 65536 | 160 | 1 | 456,27 ₽ | Запустить |
Свяжитесь с нашей специализированной группой поддержки по нейросетям nn@immers.cloud или отправьте ваш запрос в отдел продаж sale@immers.cloud.