DIGITS DevBox, il sistema da 15.000 dollari di Nvidia per il deep learning

Alla GTC 2015 Nvidia ha svelato DIGITS DevBox, un sistema tutto in uno con quattro GTX Titan X per il deep learning. Ricadute nel mondo della ricerca scientifica, medica e non solo.

Avatar di Roberto Buonanno

a cura di Roberto Buonanno

CEO

Nel corso della GPU Technology Conference 2015 Nvidia ha annunciato DIGITS DevBox, un nuovo sistema all-in-one pensato per velocizzare le ricerche nell'ambito del "deep learning", la nuova tematica su cui ha deciso di focalizzarsi Nvidia per spingere i suoi prodotti, dalle GPU ai SoC Tegra.

gtx titan x deep learning

Con deep learning (in italiano "apprendimento approfondito") s'intende il processo attraverso il quale i computer usano reti neurali (strutture di dati simili alla corteccia cerebrale umana) per imparare da soli a fare determinate azioni o a riconoscere oggetti, foto e molto altro.

Insomma, si vuole riprodurre sui computer il modo in cui noi umani apprendiamo e interpretiamo l'ambiente che ci circonda, con tutte le sue varie sfumature. "Usare reti neurali per allenare i computer a imparare come classificare e riconoscere oggetti può essere un'operazione onerosa che richiede tempo", ha spiegato Nvidia.

digits devbox nvidia 01

Così ecco il DIGITS DevBox, un sistema ideato da Nvidia che si collega a una singola presa di corrente ed è basato su un case Corsair Air 450 con quattro schede video GeForce GTX Titan X (qui la recensione), per un totale di 28 TeraFLOPS di potenza di calcolo. A bordo di questo computer c'è un processore Core i7-5930K Haswell-E su motherboard Asus X99 con 8 slot PCI Express. Il sistema può ospitare fino a 64 GB di memoria DDR4 e necessita di 1300 watt.

Questo prodotto, indirizzato a università e piccole aziende che si muovono nel settore della ricerca, ha un prezzo di 15.000 dollari. A bordo c'è un pacchetto software, DIGITS, che lavora su Ubuntu 14.04.

digits devbox nvidia 02

Secondo Nvidia DIGITS DevBox accelererà il lavoro dei ricercatori sul deep learning, portando a quello che il CEO Jen-Hsun Huang spera rappresenterà un "Bing Bang" in questo ambito emergente, dove le GPU possono dare un grande contributo.

"È il primo sistema di questo tipo a fornire monitoraggio e visualizzazione in tempo reale, così gli utenti possono affinare il loro lavoro. E supporta l'accelerazione tramite GPU di Caffe, il popolare framework usato da molti scienziati e ricercatori per realizzare reti neurali", ha concluso Nvidia.

Durante la GTC 2015 sono stati numerosi gli interventi che hanno parlato di GPU e deep learning. I chip grafici moderni, per molti versi, sono simili al nostro cervello. Sono fatti di miliardi di transistor, ognuno con una funzione specifica nella struttura generale. Il nostro cervello è fatto di miliardi di cellule, ognuna responsabile di qualche cosa.

Nvidia Tesla K40 Nvidia Tesla K40

I ricercatori possono dire alla GPU d'imparare a risolvere problemi, ad apprendere con l'esperienza. Tra le applicazioni incredibili in cui possono applicare reti neurali e il "machine learning" per migliorare come viviamo c'è il campo medico. Le capacità di riconoscimento delle immagini favorite dal deep learning possono essere usate per identificare le cellule cancerose metaplastiche.

Queste tendono a effettuare la mitosi più frequentemente rispetto alle cellule normali. Le reti neurali possono seguire e riconoscere questo modello al microscopio meglio degli istopatologi, medici specializzati nella rilevazione di malattie e tumori (alterazioni strutturali dei tessuti).

deep learning medical research

Il deep learning può essere applicato anche alla genetica. Possiamo insegnare alle reti neurali a seguire e rilevare gli schemi genetici che si potrebbero tradurre in malattie. È quindi possibile invertire questi modelli per trovare una cura o un trattamento efficace. Un concetto simile può essere applicato ai farmaci e al modo in cui reagiscono con altri recettori e composti all'interno del nostro corpo.