Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Nel corso della Google I/O 2018 la casa di Mountain View ha svelato la Tensor Processor Unit (TPU) 3.0. Con questo termine s'intende un ASIC creato da Google, specializzato nell'accelerazione dei compiti di intelligenza artificiale (machine learning e modelli di apprendimento) all'interno dei server di Google Cloud che offrono i servizi a cui abbiamo accesso quotidiano.

Sundar Pichai, amministratore delegato di Google, ha affermato che un "pod" di nuova generazione, ossia un insieme di TPU ottimizzate per il framework TensorFlow di Google, arriva a essere fino a 8 volte più potente rispetto alla versione dello scorso anno, ed è in grado di garantire prestazioni fino a 100 petaflops. Queste caratteristiche hanno imposto (per la prima volta) l'uso di raffreddamento a liquido per gestire il calore prodotto.

tpu 3 google pichai

Google ha spiegato che la prima TPU era un progetto "primitivo", con supporto a otto istruzioni. La sua funzione era più quella di un acceleratore matematico, collegato a un insieme di CPU, per modelli d'apprendimento. La versione 2.0 era più completa, capace di gestire diversi aspetti in modo indipendente, tanto da essere messa a disposizione degli sviluppatori tramite Google Cloud. La TPU 3.0 espande ulteriormente quelle capacità.

"Inizialmente, i sistemi di apprendimento automatico per compiti come il riconoscimento d'immagini o della voce usavano le proprie tecniche di codifica", ha affermato Zak Stone, product manager di Google. "Ma abbiamo visto l'emergere di un insieme di reti neurali per tutti questi compiti. Questo ha un costo - tendono a essere più grandi e hai bisogno di più potenza di calcolo per eseguirle - quindi abbiamo bisogno di hardware specializzato per l'apprendimento automatico".

Google non ha svelato le esatte caratteristiche della TPU 3.0, ma inizierà l'installazione dell'hardware su larga scala nei prossimi mesi.