OpenAI представила два відкритих AI‑моделі — gpt-oss‑120b і gpt-oss‑20b

Ключове з релізу OpenAI
OpenAI вперше за понад п’ять років опублікувала open-weight модель, тобто з доступом до ваг (weights), які дозволяють запускаючи моделі локально, аналізувати їхню внутрішню структуру (останнім раз це було з GPT‑2 у 2019 році) .
Обидві моделі доступні безкоштовно на Hugging Face під ліцензією Apache 2.0, що дозволяє модифікацію, комерційне використання та перерозподіл .
Технічні характеристики
| Модель | Розмір параметрів | Потрібне обладнання | Продуктивність |
|---|---|---|---|
| gpt‑oss‑20b | ~21 млрд | ПК з 16 GB пам’яті | Рівень o3‑mini, зручна локальна інтеграція |
| gpt‑oss‑120b | ~117 млрд | Єдина GPU з ~80 GB пам’яті | Продуктивність на рівні o4‑mini, або навіть вище в окремих завданнях |
Обидві підтримують chain‑of‑thought reasoning, виконують код, навігують у веб, можуть працювати агентами — але є text-only, тобто не мультимодальні .
Безпека та прозорість
Моделі пройшли ретельне тестування з боку OpenAI і зовнішніх експертів, включно з adversarial fine-tuning під їхньою Preparedness Framework. Результати — низький ризик шкідливого застосування навіть у модифікованих версіях .
OpenAI вирішила зробити видимими chain‑of‑thought процеси (CoT), щоб дослідники могли відстежувати потенційні помилки, хоча компанія радить не використовувати їх у вихідному інтерфейсі для кінцевих користувачів .
Значення та перспектива
Реліз відкритих моделей означає стратегічний зсув OpenAI: із закритих сервісів ChatGPT до більшої демократизації AI, коли розробники можуть контролювати модель і запускати її локально, без збереження даних в хмарі .
Це також відповідь на конкуренцію з відкритими проєктами, такими як Meta Llama або китайський DeepSeek .
CEO Sam Altman заявив: «Ми прагнемо, аби індивіди мали можливість прямо керувати та змінювати свою AI, коли це потрібно. Переваги приватності очевидні» .
Ваша запитання: “Скільки експертів на шар у моделі gpt-oss‑120b?”
Згідно з описом моделі, gpt‑oss‑120b має 36 шарів, кожен з яких має 128 експертів, з яких на кожен токен активуються 4 експерти (MoE – mixture of experts) .
Підсумовуємо
gpt‑oss‑120b
— це передова випускова модель від OpenAI: ~120 млрд параметрів, 36 шарів, 128 експертів, 4 активних експерти на токен, продуктивність на рівні або вище від o4‑mini, і працює на одній GPU.
gpt‑oss‑20b
— компактніший варіант (~21 млрд параметрів), який легко запускати навіть на локальному ноутбуці з 16 GB.
Обидві моделі відкриті, прозорі (weights), мають високу безпечність, підтримують reasoning, агентну інтеграцію, але не мультимодальні.