All'Advancing AI 2025, AMD si è posizionata come la protagonista di un ecosistema aperto e interoperabile che sfida il dominio di NVIDIA, ormai consolidato nell'ambito dell'intelligenza artificiale. L'evento non è stato solo palcoscenico per il lancio di nuovi chip, ma ha delineato un approccio che integra hardware, software e infrastrutture di rete in una soluzione per data center hyperscale, e non solo.
Al centro di questa strategia c'è la nuova famiglia di acceleratori AMD Instinct MI350, composta dai modelli MI350X e MI355X, basati su architettura CDNA 4. Il cuore pulsante di questi processori è il nuovo die XCD (Accelerator Complex Die) realizzato su processo produttivo a 3 nanometri, accoppiato a un die I/O (prodotto a 6nm) in una configurazione 3D ibrida che massimizza densità computazionale ed efficienza energetica. Questa architettura innovativa sfrutta la quarta generazione di AMD Infinity Fabric per garantire interconnessioni veloci tra i componenti, senza alcun collo di bottiglia.
Una delle caratteristiche più interessanti delle nuove GPU riguarda la memoria: ogni unità MI350 integra 288 GB di HBM3E distribuita su otto stack fisici, raggiungendo una larghezza di banda aggregata fino a 8 TB/s. Questa configurazione permette di ospitare modelli di intelligenza artificiale generativa fino a 520 miliardi di parametri su una singola GPU, eliminando la necessità di distribuire il carico su più dispositivi per molte applicazioni critiche. Le prestazioni teoriche di picco toccano i 9.2 PFLOPS in formato FP8 per la MI350X, mentre la MI355X spinge fino a 20 PFLOPS in FP4, con TBP (Total Board Power) fino a 1.000 watt sulla MI350X e fino a 1.400 watt sulla MI355X.
In termini di prestazioni, rispetto alla generazione precedente MI300X le nuove GPU offrono miglioramenti fino a quattro volte nel training e 3,5 volte nell'inferenza per modelli complessi come Llama 3.1-405B e DeepSeek R1. Nei confronti diretti con le GPU NVIDIA B200 e GB200, la MI355X si dimostra efficace soprattutto in FP6 e FP4, dove il throughput teorico risulta fino a 2,2 volte superiore; negli scenari di test mostrati da AMD, la MI355X è il 30% più veloce di B200 in Llama 3.1 405B FP4 e il 20% più veloce in DeepSeek R1 FP4, mentre offre le stesse performance di GB200 in Llama 3.1 405B FP4 (a parità di core).
L'efficienza dal punto di vista economico emerge come un elemento distintivo della proposta AMD: stando a quanto dichiarato, la produttività misurata in token generati per dollaro speso risulta fino al 40% superiore rispetto alla concorrenza, un vantaggio che si traduce in configurazioni rack che possono ospitare fino a 128 GPU MI355X con raffreddamento a liquido, raggiungendo capacità computazionali di 1,3 exaFLOPS in formato FP4 e una memoria HBM3E totale di 36 TB.
Le architetture supportano anche deployment più compatti da 64 e 96 GPU, disponibili sia con raffreddamento ad aria che a liquido diretto (DLC), offrendo flessibilità nella progettazione di data center con esigenze diverse. Ogni GPU integra 4 chiplet XCD, per un totale di 256 compute unit e 1.024 matrix core, ottimizzati per carichi di lavoro LLM, sistemi di raccomandazione, generazione di contenuti e chatbot conversazionali.
Un ecosistema che va oltre le GPU
La strategia AMD non si ferma ai processori grafici, ma abbraccia l'intera infrastruttura di rete attraverso la NIC AMD Pensando Pollara 400, la prima AI NIC programmabile progettata per operare su scala massiva senza dipendenze da fabric proprietari. Questa soluzione offre fino al 20% di throughput RDMA in più rispetto alla concorrenza, una gestione avanzata della congestione e un miglioramento del 10% nella disponibilità dei cluster grazie a tecnologie di fault isolation e ritrasmissione selettiva.
Il supporto per lo standard UEC (Universal Ethernet Consortium) e l'architettura basata su Ethernet consentono scalabilità fino a un milione di nodi GPU, con una riduzione dei costi infrastrutturali fino al 16% rispetto a configurazioni equivalenti basate su InfiniBand. Oracle Cloud Infrastructure ha già adottato questa tecnologia, pianificando deployment fino a 131.072 GPU MI355X in configurazioni zettascale.
Il completamento dell'ecosistema arriva con ROCm 7, la nuova versione dello stack software open-source di AMD per l'intelligenza artificiale. L'aggiornamento introduce supporto completo per i principali framework come PyTorch, Triton e JAX, ottimizzazioni specifiche per l'inferenza distribuita e funzionalità avanzate per il training su modelli state-of-the-art. Le prestazioni sono fino a tre volte più alte rispetto a ROCm 6 nei test effettuali con modelli come Llama 3.1 70B, DeepSeek R1 e Qwen 2-72B.
Infine, sviluppatori e startup possono accedere all'infrastruttura grazie all'AMD Developer Cloud, una piattaforma cloud gestita globalmente che offre accesso immediato a GPU MI300 e MI350 con ROCm preinstallato. Questo servizio abbatte le barriere iniziali che solitamente si trovano davanti gli sviluppatori open source, le nuove startup e i partner industriali che hanno bisogno di sperimentare con hardware IA avanzato, ma non vogliono affrontare un investimento iniziale significativo.
Un futuro fatto di sostenibilità e innovazione
AMD ha voluto anche darci un assaggio di cosa ci aspetta in futuro con il sistema rack "Helios", previsto per il 2026 e che combinerà GPU MI400, CPU EPYC "Venice" e NIC "Vulcano" in una piattaforma integrata. Questa soluzione supporterà memoria HBM4 con larghezza di banda di 19,6 TB/s e capacità fino a 432 GB per GPU, rappresentando un ulteriore salto qualitativo nell'efficienza computazionale.
C'è poi la questione della sostenibilità, argomento delicato e che sta molto a cuore ad AMD: l'azienda mira a una riduzione del 95% nei consumi elettrici per l'addestramento AI entro il 2030 (rispetto ai livelli attuali). Se raggiunto, questo traguardo permetterebbe di addestrare modelli LLM avanzati usando meno di un rack, di fatto rivoluzionando l'economia energetica dell'intelligenza artificiale e rendendo accessibili capacità computazionali oggi riservate solo ai giganti che hanno a disposizione i più grandi data center.
La strategia di AMD punta a ridefinire il mercato dell'infrastruttura AI attraverso un approccio sistemico che privilegia apertura, standardizzazione ed efficienza operativa. L'ecosistema offerta copre l'intera catena di valore e rende l'azienda un'alternativa concreta per fornitori di servizi cloud, per chi crea infrastrutture e per tutte le aziende che vogliono investire in soluzioni IA di nuova generazione, slegandosi dal monopolio di NVIDIA che attualmente caratterizza questo settore.