image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Razer lancia la waifu in bottiglia al CES 2026 Razer lancia la waifu in bottiglia al CES 2026...
Immagine di HP EliteBoard l'avveniristico "computer tastiera" che ha stupito il CES 2026 HP EliteBoard l'avveniristico "computer tastiera" che ha stu...

Google Cloud TPU, potenza bruta per allenare le reti neurali

La seconda generazione della Google TPU si chiama Cloud TPU. Il nuovo hardware di Google permette di allenare reti neurali, andando oltre l'inferenza.

Advertisement

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

@Tom's Hardware Italia

Pubblicato il 18/05/2017 alle 07:54
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Google ha sviluppato una TPU (Tensor Processor Unit) di seconda generazione che fonde quattro chip in grado di garantire una potenza complessiva di 180 TFLOPs per compiti di machine learning e intelligenza artificiale.

L'azienda di Mountain View l'ha chiamata "Cloud TPU" e intende renderla disponibile a tutti, integrandola in Google Cloud Compute nel corso dell'anno. Questo significa che i clienti potranno abbinare le Cloud TPU a CPU Intel, GPU Nvidia e al resto dell'infrastruttura per ottimizzare le proprie soluzioni di machine learning.

google cloud tpu
Google Cloud TPU

Nel machine learning ci sono due fasi: la prima è quella di "allenamento" e costruzione di un modello, mentre la seconda è quella in cui si cerca corrispondenze tra i modelli. Il primo carico di lavoro è altamente dipendente dalla potenza di calcolo, e in genere è gestito al meglio dalle GPU. La prima generazione della TPU di Google era usata per la seconda fase, e faceva inferenze per riconoscere immagini, linguaggio e altro.

Secondo Google per tale compito la prima generazione di TPU era dalle 15 alle 30 volte più veloce e dalle 30 alle 80 volte più efficiente di CPU e GPU. La nuova TPU fa però un passo avanti, ed è ottimizzata per le due fasi, ossia può essere usata sia per il training che l'inferenza.

Quando Google parla di 180 TFLOPs non è chiaro se il dato riguardi i calcoli FP16 o FP32, ma propendiamo per la prima opzione. Per riferimento (ma non confronto), Nvidia ha recentemente annunciato l'acceleratore Tesla V100, con unità Tensor Core dedicate per garantire 120 TFLOPS per compiti di machine-learning.

Fare raffronti con altre soluzioni è tutt'altro che semplice, perché le architetture create da Nvidia, AMD e altri divergono profondamente quando si tratta di machine learning. In determinati compiti può essere migliore una o l'altra, e c'è anche l'efficienza energetica da tenere presente; tra le stesse aziende ci sono vedute diverse su quale sia la soluzione migliore in uno scontro diretto.

google cloud tpu pod
Un "Google Pod" formato da Cloud TPU

Google si è limitata ad affermare che "un'operazione di training che ha richiesto un giorno intero a 32 delle migliori GPU disponibili in commercio può essere svolta in un pomeriggio usando otto Cloud TPU".

Ogni Cloud TPU ha una propria interconnessione ad alta velocità; 64 di queste schede possono essere collegate a quello che Google chiama "pod" per ottenere una potenza totale di 11,5 petaflops. Come la TPU di prima generazione, anche Cloud TPU supporta la libreria software per il machine learning TensorFlow, che Google ha reso open source due anni fa.


Tom's Consiglia

Vuoi saperne di più sull'intelligenza artificiale? Parti dalle basi!

Le notizie più lette

#1
VPN, perché la sede dei provider e dei server fa la differenza
4

Hardware

VPN, perché la sede dei provider e dei server fa la differenza

#2
La fisica avanza verso il più grande enigma dell’universo
3

Scienze

La fisica avanza verso il più grande enigma dell’universo

#3
Di fatto, Nvidia ha ammesso che le GPU per le IA general purpose non servono più
2

Business

Di fatto, Nvidia ha ammesso che le GPU per le IA general purpose non servono più

#4
Il 2026 è chiaramente l'anno del cloud gaming, arrendiamoci

Editoriale

Il 2026 è chiaramente l'anno del cloud gaming, arrendiamoci

#5
HP EliteBoard l'avveniristico "computer tastiera" che ha stupito il CES 2026
4

CES 2026

HP EliteBoard l'avveniristico "computer tastiera" che ha stupito il CES 2026

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

HP EliteBoard l'avveniristico "computer tastiera" che ha stupito il CES 2026
4

CES 2026

HP EliteBoard l'avveniristico "computer tastiera" che ha stupito il CES 2026

Di Andrea Maiellano
Razer lancia la waifu in bottiglia al CES 2026
2

CES 2026

Razer lancia la waifu in bottiglia al CES 2026

Di Andrea Maiellano
Kindle perderà una funzione per colpa di Microsoft
3

Hardware

Kindle perderà una funzione per colpa di Microsoft

Di Andrea Maiellano
Trump elogia Intel dopo il debutto di Panther Lake
4

Hardware

Trump elogia Intel dopo il debutto di Panther Lake

Di Antonello Buzzi
AMD non esclude una beta di FSR 4 per RDNA 3
1

Hardware

AMD non esclude una beta di FSR 4 per RDNA 3

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.