Il mercato dei processori per server sta attraversando una fase di trasformazione profonda, guidata dall'evoluzione delle architetture di calcolo legate all'intelligenza artificiale. Mentre negli ultimi anni l'attenzione si era concentrata quasi esclusivamente sulle GPU come motori principali dei carichi di lavoro AI, i mesi recenti hanno segnato un cambio di paradigma significativo: le CPU stanno riacquistando un ruolo centrale, soprattutto con l'affermarsi delle applicazioni di tipo agente autonomo. In questo contesto, AMD si trova a gestire una domanda di processori server inaspettatamente elevata, tanto da creare tensioni nell'intera catena di fornitura.
A rivelarlo è stata direttamente Lisa Su, CEO di AMD, intervenuta al Morgan Stanley Conference, dove ha descritto una situazione che ha superato anche le sue previsioni più ottimistiche. La dirigente ha ammesso di essere già particolarmente fiduciosa sulle prospettive del segmento CPU prima che la domanda accelerasse, ma l'entità della crescita ha comunque colto l'azienda in una posizione di rincorsa rispetto alle richieste dei clienti enterprise e degli operatori cloud su larga scala.
"Il segmento CPU ha di gran lunga superato le mie aspettative in termini di domanda. Ero già abbastanza ottimista, ma i nostri clienti principali ci stanno dicendo che la domanda di elaborazione CPU a supporto dell'AI era probabilmente stata sottostimata nelle previsioni. Stiamo lavorando per recuperare il terreno." Queste le parole di Su, che fotografano con precisione lo scarto tra le proiezioni iniziali e la realtà del mercato.
Il nodo centrale è la cosiddetta tensione nell'offerta dei processori AMD EPYC: la crescita improvvisa degli ordini nell'arco di pochi trimestri non ha lasciato alla catena di fornitura il tempo necessario per adeguarsi. AMD sta lavorando a stretto contatto con i propri partner produttivi per eliminare i colli di bottiglia esistenti, con aspettative di un ampliamento significativo delle capacità produttive nel corso del prossimo anno. Lisa Su ha confermato che il portafoglio di prodotti dell'azienda è ben posizionato per rispondere alle esigenze di addestramento, inferenza e computazione agente.
Il fenomeno non è esclusivo di AMD: anche Intel ha recentemente segnalato difficoltà analoghe, dichiarando di non essere riuscita a soddisfare pienamente gli impegni presi con i grandi operatori cloud a causa di capacità produttiva insufficiente. Il quadro si completa con l'ingresso di NVIDIA nel segmento CPU server tramite accordi dedicati esclusivamente all'architettura Vera, a riprova di come l'industria stia riconoscendo il crescente peso strategico dei processori tradizionali nei flussi di lavoro basati sull'intelligenza artificiale.
La ratio CPU/GPU nei carichi di lavoro AI, rimasta a lungo sbilanciata in favore delle schede grafiche, si sta riequilibrando rapidamente. Colossi come Meta stanno sottoscrivendo accordi autonomi per la fornitura di CPU con produttori come AMD e NVIDIA, segnale che la diversificazione dell'infrastruttura di calcolo è ormai una tendenza consolidata. Questo scenario apre prospettive interessanti per la roadmap futura di AMD, che dovrà accelerare l'espansione produttiva degli EPYC per non perdere quote di mercato in un segmento che, fino a poco tempo fa, sembrava destinato a un ruolo di supporto rispetto alle GPU, e che oggi si rivela invece uno dei pilastri della nuova era del calcolo distribuito.