Open AI впервые за 6 лет выпустили сразу две открытые модели — GPT OSS!
🧠 Модели представлены в двух вариантах:
— GPT-OSS-120B (https://huggingface.co/openai/gpt-oss-120b)— 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B (https://huggingface.co/openai/gpt-oss-20b)— 21B параметров, работает на 16GB GPU
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)
✔ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
Старшая модель превосходит o4-mini, младшая на уровне с o3-mini.
Младшая модель может запускаться даже на локальном железе!
🏴☠Лицензирование: Apache 2.0
Это первая открытая LLM от OpenAI за 6 лет, со времён GPT-2.
Цены на модели
Модель: $0.25/$0.69 за млн токенов — дороже GPU, но быстрее в разы. Groq: 120B (500 ток/с, $0.15/$0.75 за млн), 20B (1000 ток/с, $0.1/$0.5 за млн).
🚀 Попробовать можно здесь с прикрученным апи или здесь, если включить сами знаете что: https://www.gpt-oss.com/
💥 Официальный релиз: http://openai.com/open-models
#openai #opensource #chatgpt