Meta si prepara a un investimento massiccio nell'infrastruttura di calcolo per l'intelligenza artificiale, con negoziazioni in corso per acquisire chip specializzati direttamente da Google. Secondo quanto riportato da The Information e ripreso da Reuters, il colosso dei social media starebbe valutando un accordo in due fasi che coinvolge le Tensor Processing Unit (TPU) di Google, processori progettati specificamente per accelerare i carichi di lavoro di machine learning. La mossa segna un'intensificazione della corsa agli armamenti nell'AI tra i giganti tecnologici, con Meta che cerca di diversificare le proprie fonti di approvvigionamento oltre ai tradizionali fornitori come NVIDIA e AMD.
L'accordo prospettato prevede una strategia articolata su più anni: nella prima fase, prevista per il 2026, Meta affitterebbe capacità di calcolo basata su Google Cloud TPU attraverso servizi cloud, per poi procedere all'acquisto diretto dei chip nel 2027. Questa struttura permetterebbe al gruppo guidato da Mark Zuckerberg di testare l'efficacia dei processori tensoriali di Google sui propri workload di intelligenza artificiale prima di impegnarsi in un investimento patrimoniale di vasta portata, potenzialmente nell'ordine di miliardi di dollari.
Le TPU rappresentano l'architettura proprietaria di Google per l'accelerazione dell'AI, ottimizzata specificamente per operazioni di training e inference su reti neurali. A differenza delle GPU generaliste che dominano il mercato dell'intelligenza artificiale, le TPU sono progettate con un'architettura ASIC (Application-Specific Integrated Circuit) che privilegia l'efficienza nelle operazioni matriciali tipiche del deep learning. Google utilizza internamente queste unità per alimentare servizi come Search, Translate e i propri modelli linguistici di grandi dimensioni, tra cui Gemini.
La collaborazione tra Meta e Google nel settore dell'AI assume particolare rilievo considerando il contesto competitivo attuale. Meta ha già investito massicciamente in infrastruttura GPU NVIDIA per addestrare i propri modelli Llama, mentre sviluppa parallelamente chip AI custom in collaborazione con produttori come Broadcom. L'apertura verso le TPU di Google suggerirebbe una strategia di diversificazione dell'ecosistema hardware, riducendo la dipendenza da singoli fornitori in un mercato caratterizzato da carenze croniche di capacità produttiva.
Particolarmente interessante è la tempistica dell'accordo, che arriva nonostante una recente pausa nei progetti congiunti di cavi sottomarini tra le due aziende. I cavi in fibra ottica transoceanici rappresentano l'infrastruttura critica per il trasferimento dati globale, e il rallentamento di questi investimenti aveva fatto ipotizzare un raffreddamento dei rapporti. Le negoziazioni sui chip AI dimostrano invece che le considerazioni strategiche nel settore dell'intelligenza artificiale prevalgono su eventuali frizioni in altri ambiti.
Per il mercato europeo, l'eventuale accordo potrebbe avere implicazioni sulla disponibilità di servizi AI e sulla latenza per gli utenti del continente. Meta opera numerosi data center in Europa, e l'integrazione di TPU in queste facility richiederebbe investimenti infrastrutturali significativi, con potenziali ricadute occupazionali e tecnologiche. Le normative europee sull'AI, sempre più stringenti con l'AI Act, potrebbero inoltre influenzare l'architettura dei sistemi implementati, richiedendo maggiore trasparenza e controllo sui processi di inference.
L'industria dei semiconduttori osserva con attenzione queste dinamiche, che potrebbero ridisegnare gli equilibri di mercato. Se Meta dovesse effettivamente procedere con acquisti diretti di TPU su larga scala, si configurerebbe come cliente enterprise di primo piano per Google, tradizionalmente più orientata all'utilizzo interno dei propri chip. Resta da vedere se l'accordo includerà anche licenze tecnologiche o supporto ingegneristico personalizzato, elementi cruciali per ottimizzare le prestazioni su workload specifici come il training di modelli multimodali o l'inference in tempo reale per miliardi di utenti.