06/08/2025 di redazione

OpenAI insegue la leggerezza (su Pc) con due modelli open-weight

L’azienda di San Francisco ha presentato gpt-oss-120B e gpt-oss-20B, modelli di ragionamento “a peso aperto” ottimizzati per l’AI agentica e per l’esecuzione su laptop.

L’offerta di modelli di ragionamento di OpenAI si allarga, con promesse di trasparenza (parziale), personalizzazione e “leggerezza”. L’azienda di Sam Altman ha presentato due nuovi modelli di ragionamento open-weight, gpt-oss-120B e gpt-oss-20B, liberamente utilizzabili e distribuiti con licenza Apache 2.0.. Per stessa definizione di OpenAI, si tratta dei suoi modelli “a peso” aperto più avanzati, tra quelli presentati finora, oltre che di tecnologie particolarmente flessibili e sicure. Si tratta dei primi modelli linguistici open-weight rilasciati da OpenAI dai tempi di GPT‑2.

A differenza dei modelli open-source, che consentono di conoscere le logiche di costruzione, i dati di addestramento, gli algoritmi e l’architettura sottostanti, i modelli open-weight sono solo parzialmente “trasparenti”. Sviluppatori esterni e aziende utenti possono, cioè, solo vedere i parametri appresi in seguito all’addestramento, parametri che definiscono il comportamento del modello. Gli open-weight ben si prestano ad attività di fine-tuning con dati proprietari, qualora serva un certo grado di flessibilità ma si voglia anche procedere speditamente.

Le due novità di OpenAI sono pensate per funzionare con risorse di calcolo e memoria limitate, anche su dispositivi come semplici laptop. Leggerezza, quindi, ma senza rinunciare alle prestazioni. In particolare, a detta dell’azienda, gpt-oss-120B eguaglia il modello di ragionamento di OpenAI o4-mini nei benchmark principali, pur richiedendo una singola Gpu da 80 GB. Si tratta di un Large Language Model eseguibile su server o su Pc di alta gamma. Al contrario, gpt-oss-20B è un modello di medie dimensioni che può funzionare su un dispositivo edge da 16 GB, quindi su buona parte degli attuali Pc desktop e laptop.

A seconda del caso d’uso e del livello di efficienza e consumo desiderato, è possibile regolare il livello di “ragionamento” (su basso, medio o alto), ottenendo in ogni caso una bassa latenza. Inoltre, per scopi di debugging e di trasparenza, è possibile accedere alla completa catena di pensiero sottostante agli output. A detta di OpenAI, i due modelli ben si prestano anche alla realizzazione di strumenti come la ricerca Web e gli agenti AI. Inoltre, mostrano ottime prestazioni nel richiamo di funzioni few-shot (in cui il modello “ragiona” sulla base di una quantità limitata di dati) e nelle catene di pensiero (procedimenti chain-of-thought, CoT).

“Siamo entusiasti di rendere questo modello, frutto di miliardi di dollari di ricerca, disponibile al mondo intero, per portare l'AI nelle mani del maggior numero possibile di persone”, ha dichiarato Sam Altman con l’usuale enfasi. “In questo contesto, siamo molto fiduciosi che questo rilascio abiliterà nuovi tipi di ricerca e la creazione di nuovi tipi di prodotti”. OpenAI si rivolge, così, a sviluppatori, startup e aziende che non dispongono di grandi budget da investire, ma anche a chi opera in settori o ambienti dove sia richiesta un’elevata sicurezza. 

Distribuiti con licenza Apache 2.0, entrambi i prodotti possono essere utilizzabili sia per attività di sviluppo e test sia per scopi commerciali, senza restrizioni di copyleft e senza rischio di violazione di brevetto. I nuovi modelli saranno condivisi su Hugging Face e su altre piattaforme, associati al loro report tecnico, al documento sulla sicurezza, alla scheda di sistema e alle guide per gli sviluppatori.

<a href="https://www.freepik.com/free-ai-image/artificial-intelligence-neural-network-visualization_417567904.htm">Image by freepik</a>

La sicurezza e un premio per chi la potenzia

Per questi nuovi modelli, in fase di training sono state effettuate le usuali valutazioni di sicurezza, più ulteriori test, e OpenAI sostiene che i livelli di sicurezza di gpt-oss-120B e gpt-oss-20B siano paragonabili a quelli dei suoi modelli GPT proprietari. 

A breve, inoltre, saranno pubblicate nuove guide per sviluppatori e strumenti per aiutare i team a effettuare il fine-tuning in modo responsabile e con i necessari guardrail. Nelle guide verrà anche spiegato come poter integrare questi modelli di Hugging Face, vLLM, Ollama, llama.cpp e con le principali piattaforme di Gpu e acceleratori di calcolo.

L’azienda chiede anche il contributo della community degli sviluppatori e si prepara a premiare l’impegno profuso. OpenAI sta organizzando una Red Teaming Challenge⁠ con cui chiederà a ricercatori, sviluppatori e amatori di contribuire all’identificazione di nuove problematiche di sicurezza: è previsto un montepremi di 500.000 dollari, che sarà assegnato in base al giudizio di una giuria composta da esperti di OpenAI e altri laboratori. 

scopri altri contenuti su

ARTICOLI CORRELATI