Nvidia rilancia sul deep learning: le macchine diventeranno più intelligenti

Nvidia ha aggiornato i software e le librerie che consentono ai ricercatori di sfruttare le proprie architettura grafiche per il deep learning. Prestazioni raddoppiate e migliori capacità di gestire i dati in ingresso.

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Il tema cardine della GPU Technology Conference 2015 di Nvidia è stato senza dubbio il deep learning. Con questo termine (in italiano "apprendimento approfondito") s'intende il processo attraverso il quale i computer usano reti neurali (strutture di dati simili alla corteccia cerebrale umana) per imparare da soli a compiere determinate azioni.

Per permettere ai ricercatori di tutto il mondo di arrivare all'obiettivo l'azienda statunitense punta a usare i SoC Tegra e le GPU, a partire dalle future soluzioni basate su architettura Pascal. In occasione della GTC 2015 Nvidia annunciò persino DIGITS DevBox, un nuovo sistema all-in-one con quattro GTX Titan X creato per velocizzare le ricerche nell'ambito del "deep learning".

nvidia deep learning icml 01
Il deep learning, ad esempio, permetterà di creare auto autonome intelligenti, capaci d'identificare rapidamente possibili pericoli - clicca per ingrandire

Gli sforzi in tale settore però sono solo all'inizio e all'ICML - International Conference on Machine Learning - Nvidia ha rilanciato con alcune interessanti novità. L'azienda ha annunciato aggiornamenti per i propri software di deep learning in grado di sfruttare meglio una o più GPU. Tali miglioramenti, secondo Nvidia, raddoppieranno le prestazioni con le quali i ricercatori riuscieranno a istruire sistemi più o meno complessi a prendere decisioni autonome.

nvidia deep learning icml 04

Clicca per ingrandire

Il nuovo pacchetto di software permetterà agli scienziati di dare una scossa ai propri progetti in ambito deep learning, sviluppando prodotti con reti neurali più accurate. Nello specifico Nvidia ha annunciato DIGITS 2 e cuDNN 3. Il primo favorisce uno scaling automatico per la formazione di reti neurali su più GPU ad alte prestazioni. Rispetto all'uso di una singola GPU con DIGITS 2 è possibile raddoppiare la velocità con cui una rete neurale può classificare le immagini.

nvidia deep learning icml 02

Clicca per ingrandire

Grazie a DIGITS 2 gli ingegneri di Nvidia sono riusciti a sfruttare quattro GPU Maxwell per istruire il noto modello di rete neurale AlexNet in metà tempo. "Istruire una delle nostre reti per l'auto tagging su una singola GTX Titan X richiede circa 16 giorni, ma con il nuovo scaling automatico su quattro Titan X il processo si completa in soli 5 giorni", ha affermato Simon Osindero, A.I. architect di Flickr.

cuDNN 3 invece integra la possibilità di archiviare dati ottimizzati (16-bit floating point) nella memoria della GPU, favorendo la costituzione di reti neurali più sofisticate. Allo stesso tempo cuDNN 3 offre prestazioni superiori a cuDNN 2, dimezzando i tempi di apprendimento delle reti neurali su una singola GPU.

nvidia deep learning icml 03

Clicca per ingrandire

La "Preview Release" di DIGITS 2 Preview è disponibile da oggi, gratuitamente, per gli sviluppatori registrati Nvidia. La libreria cuDNN 3 sarà integrata nei principali framework di deep learning come Caffe, Minerva, Theano e Torch nei prossimi mesi. La casa di Santa Clara ha infine annunciato CUDA 7.5: la piattaforma di elaborazione in parallelo è ora in grado di gestire insiemi di dati due volte più grandi ed eseguire il profiling a livello dell'istruzione.