OpenAI è tornata a far parlare di sé nel modo più inatteso, e per certi veri più sperato, dagli appassionati di intelligenza artificiale e dagli sviluppatori indipendenti, con la pubblicazione di due nuovi modelli linguistici open-weight l’azienda fondata da Sam Altman prova a ricucire il rapporto con la propria identità originaria, dopo anni di chiusura crescente.

I modelli si chiamano gpt-oss-120b e gpt-oss-20b e sono i primi open-weight rilasciati da OpenAI dai tempi di GPT-2, ovvero nel lontano 2019; ma cosa significa esattamente open-weight? E in che modo questi modelli si collocano all’interno dell’ecosistema attuale, sempre più diviso tra sistemi chiusi e iniziative open source?

Open-weight sì, open source no, cosa sta facendo davvero OpenAI

Partiamo da un chiarimento doveroso, OpenAI non ha rilasciato modelli open source in senso stretto, i due LLM appena pubblicati sono infatti modelli open-weight, ovvero i pesi (cioè i valori numerici) appresi durante l’addestramento e resi disponibili al pubblico, ma senza rendere accessibile né il codice sorgente né i dataset utilizzati per il training.

Questo tipo di rilascio consente comunque un buon grado di libertà, gli utenti possono eseguire, adattare e perfezionare i modelli a seconda delle proprie esigenze, anche in contesti locali, ma senza poter risalire al funzionamento interno del training (come avverrebbe invece con un modello veramente open source).

In altre parole, se i modelli closed-source (quelli commerciali per intenderci) sono vere e proprie scatole nere e quelli open source permettono un controllo totale, gli open-weight si posizionano esattamente a metà strada, offrendo un giusto compromesso tra trasparenza e protezione aziendale.

Come suggerisce il nome, la differenza principale tra i due nuovi modelli rilasciati da OpenAI riguarda il numero di parametri, ovvero le variabili interne che il modello può modificare per migliorare le sue previsioni:

  • gpt-oss-120b è un modello con 117 miliardi di parametri
  • gpt-oss-20b invece ne possiede 21 miliardi

La differenza di scala si riflette ovviamente anche nei requisiti hardware per l’utilizzo, il modello maggiore (120b) richiede una singola GPU da 80 GB per funzionare efficientemente, mentre il più piccolo può girare anche su un computer moderno con almeno 16 GB di RAM, rendendolo di fatto accessibile a molti sviluppatori indipendenti e maker.

Entrambi i modelli sono già disponibili per il download su Hugging Face e vengono distribuiti con licenza Apache 2.0, garantendo ampia libertà di modifica e redistribuzione per utilizzi sia personali che commerciali.

Rispetto ai modelli più avanzati e commerciali di OpenAI (come GPT-4o e o3), gpt-oss-120b e 20b non supportano input multimodali, quindi non sono in grado di processare immagini, video o audio; ma ciò non significa che siano limitati in senso assoluto, entrambi supportano infatti funzioni avanzate come il ragionamento tramite catena di pensiero (Chain-of-Thought Reasoning) e l’utilizzo di strumenti esterni, incluso l’accesso al web e l’uso di linguaggi come Python.

Secondo OpenAI le performance di gpt-oss-120b nella codifica competitiva si avvicinano a quelle di o3, il modello commerciale attualmente più avanzato in ambito ragionamento logico, mentre gpt-oss-20b si colloca tra 03-mini e o4-mini, rendendolo di fatto una proposta di medio livello ma già molto solida.

OpenAI ha chiarito che il rilascio dei due modelli è da considerarsi un esperimento, se la risposta della community sarà positiva è probabile che ne arrivino altri in futuro; l’azienda sta inoltre già collaborando con organizzazioni come AI Sweden, il centro nazionale svedese per l’IA applicata, per distribuire versioni personalizzate dei nuovi modelli.

Curiosamente, la mossa arriva proprio mentre Meta sembra fare marcia indietro sul fronte dell’open source, con dichiarazioni recenti di Mark Zuckerberg che indicano una riduzione del numero di modelli aperti rilasciati al pubblico; una scelta che stona con il tono usato in passato dallo stesso CEO, che aveva mandato a quel paese i sistemi closed source.

In questo contesto, il riorno di OpenAI verso l’open-weight sembra assumere anche un valore simbolico, offrendo una risposta implicita ma eloquente a chi accusa l’azienda di essersi allontanata dalla sua missione originale.

Sebbene non si tratti di un’apertura completa (come avverrebbe con modelli realmente open source), il rilascio di gpt-oss-120b e gpt-oss-20b rappresenta comunque una svolta significativa per OpenAI, sia sul piano tecnico che su quello culturale.

I nuovi modelli democratizzano l’accesso a LLM di alto livello per chi non dispone di un’infrastruttura da data center e offrono una solida base per sviluppi personalizzati, test e applicazioni offline; un gesto che, se supportato adeguatamente dalla community, potrebbe aprire la strada a futuri rilasci, e magari a una nuova stagione di collaborazione tra OpenAI e il mondo dell’open innovation.