C'è un dettaglio nella trimestrale di Oracle — quasi nascosto tra le righe del comunicato ufficiale — che racconta meglio di qualsiasi grafico cosa sta succedendo nel mercato dell'infrastruttura AI. Alcuni clienti di Oracle comprano le GPU e le portano fisicamente nei data center di Oracle. L'azienda fornisce lo spazio, la rete, l'energia, la gestione operativa. Il cliente porta "il silicio".
Potrebbe essere un nuovo modello per il futuro, e sicuramente ha aiutato Oracle a segnare il trimestre più forte degli ultimi quindici anni, con un'infrastruttura cloud cresciuta dell'84% anno su anno a 4,9 miliardi di dollari. Il titolo ha fatto un balzo del 10% dopo la chiusura dei mercati, grazie anche a contratti futuri già firmati per 553 miliardi di dollari — una cifra che, per fare un confronto, supera il PIL dell'Austria.
Per capire perché questo modello esiste, perché funziona e cosa implica per il futuro del cloud, bisogna partire da un problema molto concreto: le GPU costano moltissimo, scarseggiano e nessuno vuole dipendere da chi le controlla.
La GPU come risorsa geopolitica
Negli ultimi tre anni, le GPU di Nvidia — in particolare i chip H100, H200 e la nuova serie Blackwell — sono diventate l'asset più conteso nell'industria tecnologica. Questo ha reso Nvidia la singola azienda più importante al mondo per lo sviluppo tecnologico e per l'intelligenza artificiale; anche se, è opportuno ricordarlo, il focus sta passando dal training all'inferenza, e questo cambia anche il peso specifico dell'hardware. La sfida dell'inferenza mette sotto pressione il dominio delle GPU tradizionali, e non è un caso che la stessa Nvidia abbia risposto con un'acquisizione strategica: quella di Groq, specialista nei chip per inferenza ad alta velocità, in un'operazione da circa 20 miliardi di dollari.
Tornando alle GPU, non sono solo prodotti molto costosi (un singolo H100 costa tra i 25.000 e i 40.000 dollari), ma anche razionati: Nvidia alloca la produzione secondo criteri che mettono i grandi hyperscaler in competizione diretta tra loro e con i nuovi arrivati. Non è necessariamente una questione speculativa: semplicemente la capacità produttiva è costantemente al limite, da anni ormai.
In questo scenario, aziende come OpenAI, Meta, Microsoft e decine di startup AI si sono trovate di fronte a un dilemma: aspettare mesi per ottenere allocazioni cloud da AWS, Azure o Google Cloud — che comprano le GPU e le rivendono come capacità compute — oppure trovare un modo per controllare direttamente l'hardware, eliminando l'intermediario. In molti, infatti, stanno sviluppando il proprio hardware specializzato. Ma produrre chip per l'intelligenza artificiale non è facile né economico, e diventa quasi impossibile se te ne servono centinaia di migliaia.
Ed ecco dove il nuovo "modello Oracle" diventa sensato. L'azienda ha in qualche modo rivisto e migliorato qualcosa che già accade nei data center di AWS (AWS Dedicated Hosts e AWS Outposts) e di Google (Distributed Cloud). Oracle tuttavia ha reso il modello esplicito e centrale nella sua narrativa, mentre per gli hyperscaler citati è più un extra di cui non si parla molto.
Oracle ne ha fatto un selling point principale: porta la tua GPU, al resto ci pensiamo noi. Il che ha senso, perché se magari riesci a comprarti una (o mille) GPU da Nvidia, costruirsi poi un data center è un'altra grossa complicazione.
Il modello BYOD-GPU: cosa significa in pratica
Il modello che Oracle ha formalizzato — chiamiamolo BYOD-GPU, "Bring Your Own Device" applicato all'hardware AI — funziona così: il cliente acquista le GPU, spesso direttamente da Nvidia o dai suoi partner. Oracle fornisce tutto il resto: spazio nei propri data center, infrastruttura di rete ad alta velocità (fondamentale per il training distribuito), alimentazione elettrica, raffreddamento, monitoraggio 24/7 e accesso ai propri servizi cloud complementari.
Il risultato è un ibrido tra il cloud classico e la co-location. Non è cloud puro, perché il cliente possiede l'hardware. Non è co-location tradizionale, perché Oracle integra il tutto nella propria piattaforma cloud e offre servizi gestiti sopra. È qualcosa di nuovo, che non esisteva nella forma attuale prima dell'era dell'AI.
Il comunicato ufficiale di Oracle lo descrive con una certa eleganza contabile: "Most of the increase in RPO in Q3 related to large scale AI contracts where Oracle does not expect to have to raise any incremental funds to support these contracts as most of the equipment needed is either funded upfront via customer prepayments so Oracle can purchase the GPUs, or the customer buys the GPUs and supplies them to Oracle."
Tradotto: Oracle sta costruendo infrastruttura AI con i soldi dei clienti. Il rischio di capitale sull'hardware — il più rilevante nell'intero settore — viene trasferito dal provider al cliente. È una rivoluzione silenziosa nel modo in cui funziona il cloud.
Perché i clienti accettano questo accordo
A prima vista sembra strano: perché un'azienda dovrebbe comprare GPU costose e poi pagarle ancora a Oracle per gestirle? La risposta sta in tre vantaggi concreti.
Controllo della supply chain. Chi compra le GPU le possiede. Non dipende da quote di allocazione cloud che possono cambiare, da prezzi che fluttuano con la domanda, da provider che possono razionare la capacità in momenti critici. Per un'azienda come OpenAI, che deve garantire continuità operativa per milioni di utenti e sessioni di training che durano settimane, il controllo sull'hardware è una priorità strategica.
Economie di scala operative. Oracle ha già costruito i data center, ha già la rete, ha già i contratti con i fornitori di energia, ha già il personale tecnico. Il costo marginale per Oracle di aggiungere un cliente che porta le proprie GPU è molto inferiore al costo che quel cliente sosterrebbe costruendo da zero. Il cliente paga per questa efficienza operativa.
Integrazione con i servizi Oracle. Oracle Cloud offre database, strumenti di governance dei dati, sicurezza, networking avanzato. Un'azienda AI che porta le sue GPU in un data center Oracle ottiene immediatamente accesso a questi servizi senza configurazioni complesse. Per chi costruisce pipeline di training che richiedono storage massivo, database vettoriali e gestione dei dati, è un vantaggio concreto.
550 miliardi di contratti già firmati
Il Q3 FY2026 di Oracle (trimestre chiuso il 28 febbraio 2026) è stato, secondo le stesse parole del management, "il trimestre più forte degli ultimi quindici anni". I numeri principali:
- Ricavi totali: $17,2 miliardi (+22% anno su anno) — primo trimestre in oltre 15 anni in cui sia i ricavi organici che l'EPS non-GAAP crescono di oltre il 20% contemporaneamente
- Cloud IaaS: $4,9 miliardi (+84% in USD, +81% in valuta costante) — il segmento dell'infrastruttura cloud pura
- Cloud totale (IaaS + SaaS): $8,9 miliardi (+44%)
- Multicloud Database Revenue: +531% — il dato più esplosivo, legato all'integrazione con AWS, Azure e Google Cloud
- EPS non-GAAP: $1,79 (+21%)
- Cash flow operativo ultimi 12 mesi: $23,5 miliardi (+13%)
Ma il numero che ha davvero mosso il titolo è il Remaining Performance Obligations (RPO): $553 miliardi, in crescita del 325% anno su anno e di $29 miliardi rispetto al trimestre precedente. Il RPO rappresenta i ricavi futuri già contrattualizzati — lavoro che Oracle dovrà fare e per cui è già stata pagata o ha ricevuto impegni vincolanti.
Una crescita del 325% del backlog contrattuale significa che Oracle non sta solo vendendo bene oggi: ha già in tasca una pipeline enorme di lavoro futuro. Per una società che qualche anno fa sembrava destinata a declinare lentamente nell'era del cloud, è una trasformazione radicale.
AWS, Azure, Google: devono preoccuparsi?
La risposta onesta è: nel breve termine, no. Oracle è ancora circa sei volte più piccola di AWS in termini di ricavi cloud. Microsoft Azure e Google Cloud sono anch'esse significativamente più grandi. Il gap di scala, di servizi disponibili, di ecosistema di partner e di maturità della piattaforma è ancora enorme.
Ma nel segmento specifico dei workload AI intensivi — training di modelli di grandi dimensioni, inferenza ad alta intensità, gestione di cluster GPU da migliaia di unità — Oracle sta erodendo quote in modo misurabile. E lo fa con un modello che i grandi hyperscaler non possono facilmente replicare.
AWS, Azure e Google Cloud sono costruiti su un principio fondamentale: il provider possiede e gestisce tutto l'hardware, il cliente paga per l'utilizzo. È un modello che ha generato rendimenti enormi e ha permesso economie di scala straordinarie. Ma richiede che il provider investa capitali enormi in anticipo — e con la GPU diventata un asset scarso e costoso, questo modello diventa più rischioso.
Oracle, spostando il rischio Capex verso i clienti, ha trovato un modo per crescere nell'AI senza i vincoli di bilancio degli hyperscaler tradizionali. Non è detto che questo vantaggio duri per sempre — AWS potrebbe offrire modelli simili — ma per ora Oracle sta beneficiando di un gap strutturale.
C'è anche un fattore strategico che i grandi clienti AI valutano attentamente: la dipendenza da un unico provider, nota anche come lock-in. OpenAI, per esempio, ha costruito la propria infrastruttura su Azure (Microsoft è il suo principale investitore), ma ha interesse a diversificare. Oracle offre una alternativa credibile che non è legata a uno dei suoi concorrenti diretti nel mercato dei modelli AI.
Il piano da 50 miliardi: scommessa o necessità?
A febbraio 2026, Oracle ha annunciato l'intenzione di raccogliere fino a 50 miliardi di dollari in debito ed equity — e di non emettere ulteriori obbligazioni per il resto dell'anno solare. È il finanziamento più grande nella storia dell'azienda, e punta direttamente all'espansione della capacità cloud AI. La domanda che molti analisti si pongono è: con un modello in cui i clienti pagano in anticipo le GPU e co-finanziano l'hardware, perché Oracle ha bisogno di $50 miliardi?
La risposta sta nei componenti dell'infrastruttura che Oracle deve finanziare autonomamente: terreni, costruzione degli edifici, infrastruttura elettrica (un data center AI moderno può richiedere centinaia di megawatt di potenza), sistemi di raffreddamento, rete in fibra, hardware di networking ad alta velocità (InfiniBand, switch specializzati). Questi elementi costano miliardi e non possono essere trasferiti ai clienti allo stesso modo delle GPU.
C'è anche una componente strategica: Oracle sta costruendo data center in anticipo rispetto alla domanda, per avere capacità disponibile quando i nuovi contratti arrivano. Il RPO da $553 miliardi è un segnale che la domanda c'è — ma trasformarla in ricavi richiede infrastruttura fisica che richiede tempo per essere costruita.
Il rischio è che se la domanda AI rallentasse — per una recessione, per un ridimensionamento degli investimenti delle Big Tech, o per un cambio tecnologico che riduce il fabbisogno di potenza di calcolo — Oracle si troverebbe con data center costosi e contratti che non si rinnovano. Il debito da $50 miliardi in quel scenario sarebbe un peso significativo.
Ma d'altra parte non si fa impresa senza rischiare
Oracle non è più un'azienda di database: il riposizionamento di Ellison
Per capire fino in fondo cosa sta succedendo, vale la pena ricordare da dove viene Oracle. Per trent'anni l'azienda è stata sinonimo di database enterprise: il fornitore che le grandi aziende pagavano per tenere in piedi le proprie applicazioni critiche. Un business solido, redditizio, ma considerato maturo — destinato a essere eroso lentamente dal cloud e dall'open source. A un certo punto il business del database ha cominciato a diventare noioso, una commoditity, e potrebbe diventare obsoleto molto presto.
Larry Ellison, fondatore e chairman di Oracle, ha quindi fatto una scommessa diversa. Mentre i competitor si concentravano sul SaaS e sulla migrazione dei database legacy al cloud, Oracle ha investito pesantemente nella costruzione di data center GPU-intensive, in anticipo rispetto alla domanda. Quando l'AI generativa è esplosa nel 2023-2024, Oracle aveva già l'infrastruttura. Non era pronta a tutto — ha dovuto accelerare enormemente — ma era posizionata meglio di quanto ci si potesse aspettare. E quel migliore posizionamento ha fatto la differenza.
Oggi Oracle è, di fatto, il "quarto hyperscaler" americano., anche se forse è ancora troppo piccola rispetto ai primi tre. Ma è molto rilevante nel segmento AI, che è ovviamente quello che conta di più: il modello BYOD-GPU le ha permesso di crescere a tassi che AWS non vedeva dai suoi anni d'oro.
Cosa succederà nei prossimi anni
Oracle ha avuto un trimestre da sogno, ma il modello proposto può durare a lungo?
Il RPO da $553 miliardi mette l'azienda al sicuro per i prossimi 2-3 anni, via via che quei contratti diventeranno realtà. Poi resterà da vedere se e come Oracle saprà reinventarsi di nuovo nel prossimo scenario, e già oggi si prevede uno spostamento verso l'hardware specializzato in inferenza.
Ma proprio questo atteso cambiamento nell'hardware potrebe essere la carta vincente di Oracle. Se tra qualche mese le GPU Nvidia non fossero più così importanti, per Oracle non sarebbe un problema perché non le hanno pagate loro. Similmente, se diventasse necessario comprare decine di migliaia di FPGA, chiederà ai clienti di farsene carico. Bisognerà solo vedere se il giochino funzionerà di nuovo.
Il +531% del Multicloud Database è forse il segnale più incoraggiante in questa direzione: i clienti non usano solo l'infrastruttura Oracle, ma integrano i database Oracle in ambienti multi-cloud complessi. Questo crea dipendenza tecnica e lock-in — il tipo di vantaggio competitivo che Oracle sa costruire meglio di chiunque altro.
La trasformazione di Oracle da software enterprise a infrastruttura AI è, in fondo, la versione 2026 della stessa storia che Amazon ha scritto con AWS venti anni fa: un'azienda che vede prima degli altri dove si accumula il valore nella catena del software, costruisce l'infrastruttura in anticipo e poi raccoglie i frutti quando il mercato la raggiunge.