Tsubame 3.0, il supercomputer con 2160 Nvidia Tesla P100

Il nuovo supercomputer giapponese Tsubame 3.0 è formato da 540 nodi in cui trovano spazio due CPU e quattro GPU Tesla P100. In funzione da questa estate, diventerà uno dei sistemi di punta per lo sviluppo dell'intelligenza artificiale.

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Il Tokyo Institute of Technology ha svelato i dettagli del nuovo supercomputer Tsubame 3.0, che sarà operativo da questa estate. Il nuovo sistema si candida a essere uno dei sistemi più potenti al mondo nel settore dell'intelligenza artificiale, con prestazioni di calcolo half precision (16 bit) di 47 petaflops. Il sistema sarà realizzato da HPE/SGI e al suo interno avrà acceleratori Nvidia Tesla P100.

L'uso delle soluzioni Nvidia è una scelta logica. Il sistema originale, creato nel 2006, usava schede ClearSpeed per l'accelerazione, ma due anni più tardi è stato aggiornato con le soluzioni Tesla S1040. Nel 2010 Tsubame 2.0 ha adottato moduli Tesla M2050, mentre la versione 2.5 ha visto al suo interno un mix di soluzioni S1050/S1070 e Tesla K20X.

supercomputer tokyo tsubame3 nvidia
Tsubame 3.0

Con le soluzioni P100 si mantiene non solo la compatibilità con le applicazioni sviluppate sul supercomputer, ma si ottiene anche un'eccellente piattaforma per compiti di machine learning e intelligenza artificiale, i due settori che più interessano ai ricercatori giapponesi, la patria della robotica e dell'automazione per eccellenza.

Quando sarà operativo, Tsubame 3.0 opererà insieme all'attuale Tsubame 2.5, offrendo complessivamente 64 petaflops di potenza in half precision. Il titolo di miglior supercomputer giapponese per l'AI però potrebbe non durare a lungo. Recentemente il National Institute of Advanced Industrial Science and Technology (AIST) ha annunciato di voler creare un supercomputer capace di toccare i 130 petaflops. Sarà pronto tra la fine del 2017 e l'inizio 2018.

Sebbene Nvidia e il Tokyo Tech enfatizzino le prestazioni half precision, il Tsubame 3.0 sarà usato anche per altre applicazioni e garantirà all'incirca 12 petaflops con calcoli a doppia precisione, una prestazione che potrebbe farlo rientrare nella top 10 dei migliori sistemi.

Il supercomputer è basato su 540 nodi. In ognuno ci sono due CPU Intel Xeon E5-2680 v4, quattro Tesla P100 (64 GB di HBM2 in totale), 1,08 petabyte per l'archiviazione e 256 GB di memoria. A permettere la comunicazione tra i nodi è l'interconnessione Omni-Path di Intel a 100 Gbps, usata anche per il sistema di archiviazione.

KFA2 GTX 1080 EXOC KFA2 GTX 1080 EXOC