image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di La carenza di RAM frena la ripresa del mercato PC La carenza di RAM frena la ripresa del mercato PC...
Immagine di Nvidia Feynman, la rivoluzione GPU è in arrivo Nvidia Feynman, la rivoluzione GPU è in arrivo...

Tsubame 3.0, il supercomputer con 2160 Nvidia Tesla P100

Il nuovo supercomputer giapponese Tsubame 3.0 è formato da 540 nodi in cui trovano spazio due CPU e quattro GPU Tesla P100. In funzione da questa estate, diventerà uno dei sistemi di punta per lo sviluppo dell'intelligenza artificiale.

Advertisement

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

@Tom's Hardware Italia

Pubblicato il 18/02/2017 alle 10:01
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il Tokyo Institute of Technology ha svelato i dettagli del nuovo supercomputer Tsubame 3.0, che sarà operativo da questa estate. Il nuovo sistema si candida a essere uno dei sistemi più potenti al mondo nel settore dell'intelligenza artificiale, con prestazioni di calcolo half precision (16 bit) di 47 petaflops. Il sistema sarà realizzato da HPE/SGI e al suo interno avrà acceleratori Nvidia Tesla P100.

L'uso delle soluzioni Nvidia è una scelta logica. Il sistema originale, creato nel 2006, usava schede ClearSpeed per l'accelerazione, ma due anni più tardi è stato aggiornato con le soluzioni Tesla S1040. Nel 2010 Tsubame 2.0 ha adottato moduli Tesla M2050, mentre la versione 2.5 ha visto al suo interno un mix di soluzioni S1050/S1070 e Tesla K20X.

supercomputer tokyo tsubame3 nvidia
Tsubame 3.0

Con le soluzioni P100 si mantiene non solo la compatibilità con le applicazioni sviluppate sul supercomputer, ma si ottiene anche un'eccellente piattaforma per compiti di machine learning e intelligenza artificiale, i due settori che più interessano ai ricercatori giapponesi, la patria della robotica e dell'automazione per eccellenza.

Quando sarà operativo, Tsubame 3.0 opererà insieme all'attuale Tsubame 2.5, offrendo complessivamente 64 petaflops di potenza in half precision. Il titolo di miglior supercomputer giapponese per l'AI però potrebbe non durare a lungo. Recentemente il National Institute of Advanced Industrial Science and Technology (AIST) ha annunciato di voler creare un supercomputer capace di toccare i 130 petaflops. Sarà pronto tra la fine del 2017 e l'inizio 2018.

Sebbene Nvidia e il Tokyo Tech enfatizzino le prestazioni half precision, il Tsubame 3.0 sarà usato anche per altre applicazioni e garantirà all'incirca 12 petaflops con calcoli a doppia precisione, una prestazione che potrebbe farlo rientrare nella top 10 dei migliori sistemi.

Il supercomputer è basato su 540 nodi. In ognuno ci sono due CPU Intel Xeon E5-2680 v4, quattro Tesla P100 (64 GB di HBM2 in totale), 1,08 petabyte per l'archiviazione e 256 GB di memoria. A permettere la comunicazione tra i nodi è l'interconnessione Omni-Path di Intel a 100 Gbps, usata anche per il sistema di archiviazione.

KFA2 GTX 1080 EXOC KFA2 GTX 1080 EXOC
  

Acquista

Le notizie più lette

#1
Il ritorno dell’hypervisor leggero: semplicità e controllo nella nuova era della virtualizzazione
7

Business

Il ritorno dell’hypervisor leggero: semplicità e controllo nella nuova era della virtualizzazione

#2
Nvidia Feynman, la rivoluzione GPU è in arrivo

Hardware

Nvidia Feynman, la rivoluzione GPU è in arrivo

#3
La carenza di RAM frena la ripresa del mercato PC
9

Hardware

La carenza di RAM frena la ripresa del mercato PC

#4
Perché stiamo tornando sulla Luna: vi spiego i veri motivi
4

Altri temi

Perché stiamo tornando sulla Luna: vi spiego i veri motivi

#5
Galaxy S26 Ultra risolverà uno dei problemi più grossi degli iPhone
1

Smartphone

Galaxy S26 Ultra risolverà uno dei problemi più grossi degli iPhone

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Nvidia Feynman, la rivoluzione GPU è in arrivo

Hardware

Nvidia Feynman, la rivoluzione GPU è in arrivo

Di Marco Pedrani
La carenza di RAM frena la ripresa del mercato PC
9

Hardware

La carenza di RAM frena la ripresa del mercato PC

Di Antonello Buzzi
Cinebench 2026, disponibile il benchmark che mette in ginocchio i PC
2

Hardware

Cinebench 2026, disponibile il benchmark che mette in ginocchio i PC

Di Marco Pedrani
Brucia un altro connettore 16 pin, ancora su una scheda AMD
8

Hardware

Brucia un altro connettore 16 pin, ancora su una scheda AMD

Di Marco Pedrani
La GPU cinese Lisuan G100 è realtà, spedite le prime unità ai clienti

Hardware

La GPU cinese Lisuan G100 è realtà, spedite le prime unità ai clienti

Di Marco Pedrani

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.