AMD punta a migliorare la sua efficienza energetica di 100 volte entro il 2027

Gli sforzi di AMD per ridurre l'impatto energetico dei suoi prodotti AI dovrebbe raggiungere un grande obiettivo entro il 2027.

Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor

L'amministratore delegato di AMD, Lisa Su, ha partecipato all'ITF World 2024 per ricevere il prestigioso Imec Innovation Award per l'innovazione e la leadership nel settore, unendosi a personalità illustri come Gordon Moore, Morris Chang e Bill Gates. Dopo aver ricevuto il premio, Su ha elencato gli obiettivi AMD per raggiungere il cosidetto "30x25" che mira a migliorare l'efficienza energetica dei nodi di calcolo di 30 volte entro il 2025.

Su ha annunciato che AMD non è solo in linea per raggiungere questo obiettivo, ma prevede un miglioramento dell'efficienza di oltre 100x entro il 2026-2027.

Le preoccupazioni riguardanti il consumo energetico dell'intelligenza artificiale si sono moltiplicate a causa della rapida ascesa degli LLM generativi come ChatGPT. Tuttavia, AMD aveva previsto i problemi legati all'alto consumo energetico dell'IA già nel 2021, iniziando a lavorare sul suo obiettivo 30x25 per migliorare l'efficienza energetica dei nodi di calcolo dei data center, citando specificamente il consumo energetico di AI e HPC (High-Performance Computing) come problemi imminenti.

Nel 2014, AMD aveva fissato il suo primo ambizioso obiettivo energetico, il 25x20, raggiunto con un miglioramento di 31,7x entro il 2020.

L'IA generativa sta alimentando la rapida espansione dei data center, poiché le più grandi aziende del mondo si sfidano per la supremazia nell'IA. Tuttavia, le reti elettriche pubbliche non sono pronte per un improvviso aumento dei data center affamati di energia, facendo del consumo energetico il nuovo fattore limitante. Esistono limiti rigidi alla quantità di energia disponibile per i data center a causa della capacità della rete, delle infrastrutture e delle preoccupazioni ambientali. Molti nuovi data center vengono costruiti accanto a centrali elettriche per garantire la fornitura di energia, e la domanda schiacciante ha persino riacceso la spinta verso i reattori nucleari a piccolo modulo (SMR) per alimentare i singoli data center.

Il problema si sta intensificando poiché la potenza di calcolo richiesta per addestrare i modelli cresce. Su ha osservato che la dimensione dei primi modelli di riconoscimento di immagini e voce raddoppiava ogni due anni, in linea con i progressi delle prestazioni di calcolo nell'ultimo decennio. Tuttavia, la dimensione dei modelli di intelligenza artificiale generativa sta crescendo di venti volte su base annua, superando di gran lunga i progressi nel computing e nella memoria.

Su ha affermato che, sebbene i modelli più grandi di oggi siano addestrati su decine di migliaia di GPU che consumano fino a decine di migliaia di megawatt-ora, la rapida espansione delle dimensioni dei modelli potrebbe presto richiedere fino a centinaia di migliaia di GPU per l'addestramento, con conseguente necessità di diversi gigawatt di potenza per addestrare un singolo modello. Questo chiaramente non è sostenibile.

La soluzione proposta da AMD

AMD ha una strategia multi settoriale per migliorare l'efficienza energetica, includendo una visione ampia che va oltre le sue architetture IA e strategie di packaging avanzate, includendo anche un processo di ottimizzazione a livello di sistema e data center e iniziative di co-design hardware e software.

Il silicio è naturalmente il fondamento da cui partire. Su ha indicato i transistor Gate All Around (GAA) a 3nm come il prossimo passo sulla roadmap del silicio di AMD per migliorare l'efficienza energetica e le prestazioni. Inoltre, ha evidenziato un continuo focus sulla progettazione di packaging avanzato e interconnessioni che permettono design modulari più efficienti in termini di energia e costo. Il packaging avanzato gioca un ruolo chiave nell'aumentare la potenza ottenuta all'interno dei limiti di un singolo chip. 

AMD utilizza una combinazione di packaging 2.5D e 3D per massimizzare il calcolo per watt ottenuto da ogni millimetro quadrato di silicio nei data center.

Il trasferimento di dati tra i nodi e le rack dei server consuma potenza aggiuntiva, a causa delle distanze più lunghe. Ottimizzare la localizzazione dei dati può portare a notevoli risparmi energetici. L'MI300X di AMD è un ottimo esempio dell'efficienza derivata da package di chip sempre più grandi. Questo chip detiene 153 miliardi di transistor distribuiti su 12 chiplet abbinati a 24 chip HBM3 che forniscono una capacità di memoria di 192GB. Tutta questa memoria è disponibile al GPU come memoria locale. Abbinato all'interconnessione Infinity Fabric ottimizzata per potenza e prestazioni, l'elevata densità di calcolo e memoria mantiene più dati vicino ai core di elaborazione, riducendo così la quantità di energia necessaria per trasferire i dati.

In generale, Su ha affermato che AMD ha superato il tasso di progresso dell'industria in termini di efficienza energetica per nodo e l'azienda è sulla buona strada per raggiungere il traguardo "30x".

Su prevede che questa tendenza continui, tanto da affermare che:

 "Con questo tipo di innovazione, basandoci su ciò che vediamo oggi, pensiamo di poter fare meglio. Siamo sulla buona strada per superare di oltre 100 volte entro il 2026-2027. E c'è molto, molto di più che possiamo fare in quest'area."

Lisa Su ha infine notato che portare avanti i miglioramenti in questo ambito richiederà uno sforzo su scala industriale:

"Siamo tutti esperti in certi settori, ma quando riuniamo persone dei processi, del packaging, progettisti hardware, architetti, modelli software e designer di sistemi, possiamo ottenere quella capacità di progettazione olistica che piega davvero la curva dell'innovazione in avanti" ... "Abbiamo l'opportunità di guidare quell'ecosistema unendo molte capacità e competenze diverse. Penso che questo sia la chiave per la prossima generazione di innovazione,"

Produrre processori è un processo ad alta intensità di carbonio e acqua, quindi la sostenibilità è stato un argomento chiave all'evento. Su non ha anche ripercorso i progressi dell'azienda nella riduzione della sua impronta di carbonio, ma AMD ha recentemente delineato i suoi successi in un post pubblicato nel suo blog dove afferma che già ha risparmiato 50.000 tonnellate metriche di CO2 nel 2023 grazie a miglioramenti del rendimento che riducono il numero di wafer necessari per la fabbricazione. Il risparmio di CO2e di un solo anno è stato equivalente all'intera impronta operativa di AMD per tutto l'anno 2022, evidenziando che AMD sta affrontando le sfide ambientali da più angolazioni.

Leggi altri articoli