Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di Arriva gpt-oss ma non è "ChatGPT Open Source", ecco i dettagli
Business
Immagine di La "morte" di Windows 10 non sta aiutando a vendere più PC La "morte" di Windows 10 non sta aiutando a vendere più PC...
Immagine di 5G: cosa è andato storto con la grande promessa? 5G: cosa è andato storto con la grande promessa?...

Arriva gpt-oss ma non è "ChatGPT Open Source", ecco i dettagli

OpenAI ha rilasciato i modelli gpt-oss, presentandoli come "open weight". Una mossa strategica per contrastare la concorrenza e che offre nuove opportunità alle imprese.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 06/08/2025 alle 10:20
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

OpenAI ha annunciato il rilascio di due nuovi modelli di intelligenza artificiale, gpt-oss-120b e gpt-oss-20b: sono due modelli gratuiti e open weight, che è possibile eseguire localmente anche su un normale laptop. La notizia ha generato un'immediata eco mediatica, ed è importante sottolineare che non si tratta di “ChatGPT diventa open source” - un’affermazione che sarebbe imprecisa e un po’ fuorviante. Non si tratta di un'apertura totale, ma di un'operazione calcolata che introduce il concetto, molto più restrittivo, di modelli "open weight".

La mossa segna un cambiamento di rotta per un'azienda che ha costruito la sua fortuna sulla natura proprietaria e inaccessibile dei suoi modelli di frontiera. Capire cosa sia realmente gpt-oss, come si differenzi dall'open source e perché OpenAI abbia scelto proprio questo momento per un'azione simile è fondamentale, e può essere utile per crearsi un vantaggio competitivo in ambito professionale. GPT-oss, in effetti, può essere una scelta strategica per realizzare una strategia AI efficace ed efficiente.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Cosa sono i modelli gpt-oss

I due nuovi arrivati nella scuderia di OpenAI sono motori di intelligenza artificiale, non applicazioni finite come ChatGPT. Il gpt-oss-120b è il modello più grande e potente, con un totale di 117 miliardi di parametri, mentre il gpt-oss-20b è una versione più snella da 21 miliardi di parametri, ottimizzata per l'efficienza. Entrambi sfruttano un'architettura nota come Mixture-of-Experts (MoE), una tecnica che permette di attivare solo una frazione dei parametri totali del modello per ogni singola elaborazione, riducendo così il carico computazionale.

Secondo i dati rilasciati da OpenAI, il modello da 120 miliardi di parametri offre prestazioni paragonabili al modello proprietario o4-mini in compiti di ragionamento e programmazione, mentre la versione da 20 miliardi si attesta su livelli simili a o3-mini. La differenza sostanziale non risiede solo nelle performance, ma nei requisiti hardware. Per eseguire il gpt-oss-120b è necessaria una GPU con almeno 80 GB di memoria VRAM, come una NVIDIA A100 o H100. Il modello gpt-oss-20b è molto più accessibile e può funzionare su hardware con soli 16 GB di VRAM, aprendo a scenari di utilizzo su dispositivi consumer o infrastrutture meno onerose.

Immagine id 65738

Questi non sono strumenti "chiavi in mano". A differenza dell'interazione con ChatGPT o con le API di OpenAI, utilizzare gpt-oss significa prendere in carico un motore grezzo. L'azienda che lo adotta deve provvedere all'infrastruttura hardware, alla sua configurazione, alla sua sicurezza e all'integrazione nei propri applicativi. Si passa da essere semplici consumatori di un servizio gestito a operatori di una tecnologia complessa, con un trasferimento di costi e responsabilità che va attentamente ponderato. È la differenza che passa tra noleggiare un'auto con autista e acquistare un motore da competizione da montare sul proprio telaio.

La distinzione fondamentale: perché "open weight" non è "open source"

Il punto cruciale dell'intera operazione risiede nella differenza, tutt'altro che semantica, tra i termini "open weight" e "open source". Comprendere questo divario significa capire il perimetro del controllo che OpenAI mantiene sulla sua tecnologia. I "pesi" di un modello sono il risultato finale del processo di addestramento: un'ampia matrice di numeri che rappresenta la conoscenza "congelata" appresa da miliardi di dati. Possiamo immaginarli come le connessioni sinaptiche di un cervello già formato, capace di ragionare e rispondere, ma privo della memoria di come abbia acquisito le sue abilità.

La licenza Apache 2.0 non conferisce alcun diritto sulla proprietà intellettuale sottostante

Il vero software open source, al contrario, garantisce accesso completo non solo al prodotto finale, ma all'intero processo di creazione. Equivale ad avere non solo la torta, ma anche la ricetta dettagliata, la lista degli ingredienti, le istruzioni del forno e la possibilità di modificare ogni passaggio per creare una torta diversa. Nell'IA, questo si tradurrebbe nell'accesso al codice sorgente dell'architettura, alla metodologia di addestramento e, soprattutto, al set di dati utilizzato, l'asset più prezioso e controverso. OpenAI, rilasciando solo i pesi, condivide il risultato ma non il processo, mantenendo un segreto industriale invalicabile.

La licenza scelta per la distribuzione, la Apache 2.0, è permissiva e consente l'uso commerciale, la modifica e la distribuzione dei modelli gpt-oss. Tuttavia, questa si applica esclusivamente agli artefatti forniti — i pesi. Non conferisce alcun diritto sulla proprietà intellettuale sottostante, ovvero i metodi e i dati di addestramento. Questa scelta permette a OpenAI di esercitare un controllo strategico, promuovendo l'adozione della sua tecnologia come standard di fatto, senza però cedere il vantaggio competitivo che le ha permesso di crearla.

Opportunità concrete per le imprese: i casi d'uso di gpt-oss

Nonostante i limiti concettuali, la disponibilità di questi modelli apre scenari applicativi di enorme valore per le imprese, risolvendo alcuni dei principali ostacoli all'adozione dell'IA generativa. Il vantaggio più evidente è legato alla sovranità e alla privacy dei dati. Per settori come la finanza, la sanità, la difesa o il legale, che trattano informazioni altamente sensibili, la possibilità di eseguire un modello potente on-premise (sui propri server) o in un'istanza di cloud privato è un punto di svolta. Si elimina il rischio di inviare dati proprietari a fornitori terzi, garantendo la piena conformità con normative come il GDPR.

Un'azienda può addestrare ulteriormente gpt-oss sul proprio corpus di documenti interni

Un secondo ambito di grande impatto è la personalizzazione avanzata. Mentre le API offrono limitate possibilità di adattamento, avere accesso diretto al modello permette un processo di fine-tuning molto più profondo. Un'azienda può addestrare ulteriormente gpt-oss sul proprio corpus di documenti interni, manuali tecnici, interazioni con i clienti o database legali. Il risultato è un assistente virtuale verticale, specializzato nel gergo aziendale e nei processi specifici, con un'accuratezza e una pertinenza irraggiungibili per un modello generico.

Immagine id 65737

Dal punto di vista operativo, l'hosting locale elimina la latenza di rete, un fattore che può essere importante in certi scenari, per applicazioni interattive o real-time, come i chatbot di assistenza clienti o i sistemi di analisi istantanea. Questo si traduce in un controllo diretto sulle performance. Inoltre, per carichi di lavoro intensi e costanti, il passaggio da un modello di costo variabile (pay-per-token) a un costo fisso legato all'infrastruttura può generare significativi risparmi. Infine, la leggerezza del gpt-oss-20b apre le porte all'edge computing: l'IA può essere eseguita direttamente su dispositivi industriali, veicoli o sistemi di sorveglianza, anche in assenza di connettività internet.

L'analisi strategica: le ragioni non dichiarate della mossa di OpenAI

La decisione di OpenAI non è un atto di filantropia, ma una risposta pragmatica a tre pressioni strategiche. La prima è l'erosione del suo vantaggio competitivo. Modelli open source come Llama 3 di Meta o quelli della francese Mistral AI o la cinese DeepSeek hanno raggiunto un livello di performance "good enough" per moltissime applicazioni, offrendo soluzioni a costo zero o significativamente più basse. Di fronte a questa commoditizzazione dal basso, OpenAI risponde rilasciando un proprio modello "gratuito" per competere direttamente su questo terreno, cercando di imporre la propria architettura come standard di riferimento.

La seconda ragione riguarda la rinegoziazione del rapporto con Microsoft. La simbiosi tra le due aziende è stata fondamentale, ma ha reso OpenAI fortemente dipendente da un unico, potentissimo partner che integra la sua tecnologia in tutto l'ecosistema Azure e Microsoft 365. Rilasciare modelli che possono essere implementati su qualsiasi cloud o on-premise è un modo per diversificare i canali di adozione e costruire una relazione diretta con la comunità di sviluppatori e imprese. Si tratta di un'assicurazione strategica per evitare di diventare una semplice "feature" di una piattaforma più grande e per mantenere il proprio brand al centro dell'innovazione.

Infine, vi è la pressione della sostenibilità economica e degli investitori. I costi per addestrare e operare modelli di frontiera sono astronomici e la strada verso una redditività solida è ancora in fase di definizione. Conquistare l'ecosistema degli sviluppatori con modelli "open weight" è una strategia a lungo termine. Crea una base di utenti e aziende abituate a lavorare con la tecnologia di OpenAI, che vedranno nei modelli proprietari a pagamento (come il futuro GPT-5) il logico e naturale percorso di upgrade. In questo modo, si crea un intero mercato che, pur partendo da una base gratuita, è strutturalmente orientato a generare valore per i servizi premium dell'azienda.

Oltre l'entusiasmo: limiti e costi nascosti dell'adozione

L'adozione di gpt-oss non è una passeggiata. Il primo ostacolo è il costo dell'infrastruttura. Sebbene il software sia accessibile, l'hardware non lo è. L'acquisto, la gestione e il consumo energetico di server equipaggiati con GPU come le NVIDIA H100 rappresentano un investimento iniziale e operativo che solo aziende di una certa dimensione possono sostenere. Il "gratis" ha un prezzo e si misura in centinaia di migliaia di euro di Capex e Opex.

Il secondo limite è la necessità di competenze altamente specializzate. Per implementare, ottimizzare, mettere in sicurezza e manutenere questi modelli serve un team di MLOps (Machine Learning Operations). Non si tratta di semplici sviluppatori, ma di ingegneri con esperienza in infrastrutture complesse, sicurezza e gestione di modelli di IA. La carenza di questi profili sul mercato rappresenta un collo di bottiglia significativo e un costo aggiuntivo in termini di recruiting e salari.

Inoltre, con l'adozione di un modello "open weight" si verifica un trasferimento di responsabilità. Mentre usando un'API la responsabilità per l'allineamento etico e la sicurezza del modello è in gran parte del fornitore, nel caso di un'implementazione locale l'onere ricade sull'azienda utilizzatrice. Un modello fine-tuned in modo errato o utilizzato per scopi malevoli può generare output dannosi, fake news o rivelare dati sensibili, con conseguenze legali e reputazionali devastanti. In altre parole, chi usa gpt-oss diventa anche responsabile del guardrailing. 

Infine, la questione ambientale: OpenAI esternalizza di fatto il consumo energetico dell'inferenza, ma l'enorme e non dichiarato impatto ecologico del training iniziale resta un costo nascosto e socializzato.

La decisione di OpenAI di rilasciare i modelli gpt-oss non va letta come una conversione all'ideologia dell'apertura, ma come una sofisticata manovra di riposizionamento in un'arena competitiva sempre più affollata. L'azienda sta usando la trasparenza selettiva come uno strumento per plasmare il mercato a proprio favore, commoditizzando il segmento in cui non può più vantare un'esclusività assoluta per proteggere e valorizzare la fascia alta della sua offerta proprietaria. Per le imprese, questa si traduce in un'opportunità unica di accedere a una tecnologia potentissima, a patto di intraprendere questo percorso con una valutazione lucida e pragmatica dei costi, delle competenze richieste e delle nuove, inevitabili, dipendenze strategiche che si andranno a creare. La domanda fondamentale per ogni decisore non è più solo cosa si può costruire con l'IA, ma sulla piattaforma di chi si sceglie di farlo.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

5G: cosa è andato storto con la grande promessa?
1

Business

5G: cosa è andato storto con la grande promessa?

Di Antonino Caffo
La "morte" di Windows 10 non sta aiutando a vendere più PC
1

Business

La "morte" di Windows 10 non sta aiutando a vendere più PC

Di Valerio Porcu
Dove sono i soldi in Italia? IA, quantum e cybersecurity

Business

Dove sono i soldi in Italia? IA, quantum e cybersecurity

Di Valerio Porcu
Una startup deep-tech italiana riparte da dove Google ed Apple hanno fallito

Sponsorizzato

Una startup deep-tech italiana riparte da dove Google ed Apple hanno fallito

Di Valerio Porcu
L'intelligenza artificiale ci mette in crisi ma la Filosofia può salvarci

Business

L'intelligenza artificiale ci mette in crisi ma la Filosofia può salvarci

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.