image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Riparare una RTX 5090 costa più che comprarla nuova Riparare una RTX 5090 costa più che comprarla nuova...
Immagine di AMD Ryzen 9850X3D: spuntano i primi, sorprendenti benchmark AMD Ryzen 9850X3D: spuntano i primi, sorprendenti benchmark...

Google Cloud TPU, potenza bruta per allenare le reti neurali

La seconda generazione della Google TPU si chiama Cloud TPU. Il nuovo hardware di Google permette di allenare reti neurali, andando oltre l'inferenza.

Advertisement

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

@Tom's Hardware Italia

Pubblicato il 18/05/2017 alle 07:54
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Google ha sviluppato una TPU (Tensor Processor Unit) di seconda generazione che fonde quattro chip in grado di garantire una potenza complessiva di 180 TFLOPs per compiti di machine learning e intelligenza artificiale.

L'azienda di Mountain View l'ha chiamata "Cloud TPU" e intende renderla disponibile a tutti, integrandola in Google Cloud Compute nel corso dell'anno. Questo significa che i clienti potranno abbinare le Cloud TPU a CPU Intel, GPU Nvidia e al resto dell'infrastruttura per ottimizzare le proprie soluzioni di machine learning.

google cloud tpu
Google Cloud TPU

Nel machine learning ci sono due fasi: la prima è quella di "allenamento" e costruzione di un modello, mentre la seconda è quella in cui si cerca corrispondenze tra i modelli. Il primo carico di lavoro è altamente dipendente dalla potenza di calcolo, e in genere è gestito al meglio dalle GPU. La prima generazione della TPU di Google era usata per la seconda fase, e faceva inferenze per riconoscere immagini, linguaggio e altro.

Secondo Google per tale compito la prima generazione di TPU era dalle 15 alle 30 volte più veloce e dalle 30 alle 80 volte più efficiente di CPU e GPU. La nuova TPU fa però un passo avanti, ed è ottimizzata per le due fasi, ossia può essere usata sia per il training che l'inferenza.

Quando Google parla di 180 TFLOPs non è chiaro se il dato riguardi i calcoli FP16 o FP32, ma propendiamo per la prima opzione. Per riferimento (ma non confronto), Nvidia ha recentemente annunciato l'acceleratore Tesla V100, con unità Tensor Core dedicate per garantire 120 TFLOPS per compiti di machine-learning.

Fare raffronti con altre soluzioni è tutt'altro che semplice, perché le architetture create da Nvidia, AMD e altri divergono profondamente quando si tratta di machine learning. In determinati compiti può essere migliore una o l'altra, e c'è anche l'efficienza energetica da tenere presente; tra le stesse aziende ci sono vedute diverse su quale sia la soluzione migliore in uno scontro diretto.

google cloud tpu pod
Un "Google Pod" formato da Cloud TPU

Google si è limitata ad affermare che "un'operazione di training che ha richiesto un giorno intero a 32 delle migliori GPU disponibili in commercio può essere svolta in un pomeriggio usando otto Cloud TPU".

Ogni Cloud TPU ha una propria interconnessione ad alta velocità; 64 di queste schede possono essere collegate a quello che Google chiama "pod" per ottenere una potenza totale di 11,5 petaflops. Come la TPU di prima generazione, anche Cloud TPU supporta la libreria software per il machine learning TensorFlow, che Google ha reso open source due anni fa.


Tom's Consiglia

Vuoi saperne di più sull'intelligenza artificiale? Parti dalle basi!

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

AMD Ryzen 9850X3D: spuntano i primi, sorprendenti benchmark

Hardware

AMD Ryzen 9850X3D: spuntano i primi, sorprendenti benchmark

Di Andrea Maiellano
Riparare una RTX 5090 costa più che comprarla nuova
3

Hardware

Riparare una RTX 5090 costa più che comprarla nuova

Di Andrea Maiellano
Aspetti Gemini su Google Home? Controlla le tue notifiche
1

Hardware

Aspetti Gemini su Google Home? Controlla le tue notifiche

Di Andrea Maiellano
Meta continua la sua corsa all'IA acquisendo una nuova startup

Hardware

Meta continua la sua corsa all'IA acquisendo una nuova startup

Di Andrea Maiellano
Continua la "fuga da Apple", un'altra figura storica vuole lasciare
1

Hardware

Continua la "fuga da Apple", un'altra figura storica vuole lasciare

Di Andrea Maiellano

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.