AMD e Nvidia creano un supercomputer da 180 PetaFLOPS

Perlmutter è il supercomputer che fa lavorare insieme AMD e Nvidia per prendersi il secondo posto della classifica dei più potenti al mondo.

Avatar di Gabriele Scordamaglia

a cura di Gabriele Scordamaglia

L'ultimo annuncio sul mondo dei supercomputer arriva dal Berkeley Lab del National Energy Research Scientific Computing (NERSC): una macchina che combina deep learning con incredibili capacità di simulazione. All'interno si trovano le CPU server top di gamma di AMD, le EPYC 7763 da 64-core, mentre l'elaborazione grafica è stata affidata alle GPU A100 di Nvidia. Dall'unione di questi componenti, i ricercatori sono riusciti a tirare fuori 180 PetaFLOPS di performance "standard" e addirittura un massimo di 4 ExaFLOPS di performance AI, riuscendo a piazzare questo supercomputer al secondo posto in classifica tra i più veloci al mondo, dietro solamente a Fugaku, il supercomputer giapponese.

Il direttore del NERSC, Sudip Dosanjh, ha dichiarato che "Perlmutter garantirà un maggiore range di applicazioni rispetto ai sistemi NERSC precedenti, oltre a essere il primo supercomputer NERSC progettato fin dall'inizio per soddisfare i bisogni sia in termini di simulazioni che di analisi di dati." Perlmutter si basa sull'architettura eterogenea Cray Shasta di HPE, e verrà consegnato in due fasi separate.

Nella prima fase, 12 cabinet eterogenei che comprenderanno 1.536 nodi: ogni nodo conterrà una CPU AMD EPYC 7763 "Milan" 64-core, 256 GB di SDRAM DDR4 e quattro GPU Nvidia A100 da 40 GB collegate tramite NVLink. La memoria all-flash da 35 PB garantirà un throughput di 5 TB/s. Durante questa prima fase, Perlmutter sarà in grado di generare 60 PetaFLOPS FP64 per le simulazioni e 3,823 ExaFLOPS FP16 per l'analisi e il deep learning.

Se tutto ciò non bastasse, il sistema amplia ulteriormente le sue prestazioni nella seconda fase: verranno aggiunti 3.072 nodi dedicati esclusivamente alle CPU, con 512 GB di memoria per ogni nodo dedicati alle simulazioni. Ci si aspetta che le prestazioni FP64 durante la seconda fase raggiungano i 120 PFLOPS, per un totale dunque di 180 PFLOPS se sommati a quelli della prima fase. Sicuramente tanti, ma ancora lontani dal primato mondiale di Fugaku, che si tiene stretta la prima posizione con tutti i suoi 442 PFLOPS.

Amazon vi offre lo Huawei MatePad T8 attualmente scontato del 30%!