NVIDIA e AMD hanno subito perdite significative in borsa in seguito all'emergere di nuove dinamiche competitive che vedono Google protagonista con le sue TPU proprietarie. La notizia che Meta Platforms starebbe finalizzando accordi miliardari per l'acquisto di chip Google invece delle soluzioni NVIDIA ha innescato una reazione a catena che evidenzia quanto sia fluido e competitivo il mercato dell'hardware per AI.
La capitalizzazione di mercato di NVIDIA ha subito, nella giornata di ieri, un'erosione di circa 300 miliardi di dollari in una singola sessione di contrattazioni, con il titolo che è sceso sotto la soglia dei 170 dollari per azione prima di recuperare parzialmente, chiudendo comunque in calo del 4,2%. Il crollo arriva a meno di una settimana dalla presentazione di risultati trimestrali considerati eccezionali dagli analisti, dimostrando l'estrema volatilità che caratterizza questo settore. La causa scatenante è l'indiscrezione secondo cui Meta sarebbe in trattative avanzate per acquisire chip progettati da Google per un valore di diversi miliardi di dollari, destinati ai propri data center dedicati all'addestramento di modelli di intelligenza artificiale.
La risposta di NVIDIA non si è fatta attendere, con un comunicato dal tono apparentemente cordiale pubblicato sui canali social dell'azienda. Il produttore di Santa Clara ha dichiarato di essere "felice del successo di Google" e di continuare a fornire soluzioni al gigante di Mountain View, sottolineando però che NVIDIA rimane "un'intera generazione avanti rispetto ai concorrenti" e rappresenta "l'unica piattaforma in grado di eseguire ogni modello di AI ovunque venga effettuato il computing". Le rassicurazioni del CEO Jensen Huang, che ancora poche settimane fa definiva l'era dell'AI generativa come ancora nelle "prime fasi", non sono però riuscite a tranquillizzare gli investitori.
We’re delighted by Google’s success — they’ve made great advances in AI and we continue to supply to Google.
— NVIDIA Newsroom (@nvidianewsroom) November 25, 2025
NVIDIA is a generation ahead of the industry — it’s the only platform that runs every AI model and does it everywhere computing is done.
NVIDIA offers greater…
Anche AMD sta pagando un prezzo salato: il titolo ha registrato un calo del 6,4% nella stessa giornata, scendendo sotto la soglia psicologica dei 200 dollari per azione e portando le perdite dell'ultimo mese al 22%. L'azienda di Lisa Su, che negli ultimi anni aveva costruito una narrativa di crescita proprio sul fronte dei processori per data center e acceleratori AI con la linea Instinct MI300, si trova ora a fronteggiare uno scenario in cui i grandi clienti cloud valutano alternative proprietarie. Le TPU di Google rappresentano un'architettura ASIC (Application-Specific Integrated Circuit) ottimizzata specificamente per i carichi di lavoro di machine learning, offrendo potenzialmente vantaggi in termini di efficienza energetica e prestazioni per watt rispetto alle GPU general-purpose.
Questo episodio non è altro che l'ennesimo tassello che si aggiunge a un trend ormai noto: i giganti del cloud e dei social media stanno investendo massicciamente nello sviluppo di soluzioni personalizzate, per ridurre la dipendenza dai fornitori esterni. Amazon ha la sua famiglia Graviton e Trainium, Microsoft collabora con AMD per soluzioni custom, e ora Meta sembra orientarsi verso Google per chip specializzati. La strategia risponde sia a esigenze di ottimizzazione dei costi operativi nei data center, dove l'energia rappresenta una voce di spesa crescente, sia alla volontà di non dipendere totalmente da NVIDIA in un mercato estremamente competitivo.
Nonostante Jensen Huang e il CEO di Alibaba Eddie Wu abbiano dichiarato che l'AI generativa è ancora agli inizi, il mercato sta già attraversando una fase di consolidamento e differenziazione. La dominanza quasi monopolistica di NVIDIA nel segmento delle GPU per AI, che ha caratterizzato il 2024 e gran parte del 2025, sembra ora messa in discussione da alternative architetturali specificamente progettate per i carichi di lavoro di training e inference dei modelli linguistici di grandi dimensioni.