Periferiche di Rete

Nvidia abbassa il prezzo di DGX Station, solo 50.000 dollari

Nvidia ha scontato di oltre il 25% la DGX Station, quello che l'azienda definisce un "supercomputer IA personale" per tutti i ricercatori e le aziende impegnate nel campo del deep learning. Questa offerta è mirata, infatti si rivolge solo a chi non ha ancora acquistato una DGX Station. Inoltre è limitata, dura fino al 29 aprile, e viene attuata tramite i partner rivenditori.

Il prezzo passa quindi da 69.000 a 49.900 dollari, per un sistema equipaggiato con quattro schede Tesla V100 con GPU Volta GV100, pensate proprio per il settore dell'intelligenza artificiale. Nvidia ha progettato la propria DGX Station per essere una versione più accessibile – sia per prezzo che per form factor – del server DGX-1.

Le quattro Tesla V100 raffreddate a liquido all'interno della workstation sono in grado di offrire fino a 500 teraFLOPs di potenza all'interno di un case full tower. In totale i ricercatori hanno accesso a 20.480 CUDA core e 64 GB di memoria HBM2. Oltre agli aspetti tecnici delle schede, ci sono anche 256 GB di memoria DDR4 e tre SSD da 1,92 TB in RAID 0, oltre a un'unità di simile capacità dedicata al sistema operativo e doppia connettività LAN 10 Gb.

dgx station JPG

Secondo Nvidia la DGX è in grado di offrire prestazioni che superano quelle di 400 CPU (non è chiaro quali) con un consumo energetico contenuto. Certo, per contenuto stiamo parlando di 1500W sotto carico, ma secondo Nvidia il raffreddamento a liquido assicura una rumorosità non fastidiosa.

Il prezzo è alto, senza dubbio, ma il sistema è per ora l'unica workstation disponibile ad avere quattro schede Tesla V100 collegate con NVLink, mentre altre workstation, incluse quelle "fai da te", sono limite a due collegamenti NVLink. L'interconnessione NVLink permette alle GPU di scambiarsi un maggior numero di dati. Per esempio, quattro collegamenti NVLink permettono un bandwidth "inter GPU" di 5 volte maggiore rispetto al collegamento tra GPU con una PCI Express standard.

nvidia volta

Nvidia include anche la propria suite di software, precaricata e verificata sul sistema, con la quale l'azienda ritiene di poter offrire prestazioni superiori fino al 30% rispetto altre soluzioni. Gli sviluppatori possono semplicemente caricare container ottimizzati, progettare il loro software e poi migrarlo verso server di produzione in datacenter. L'idea di Nvidia (lo scenario ideale) è quella di far lavorare in tandem DGX Station con i server DGX-1, cosa che permetterebbe allo sviluppatore di migrare il codice senza ricompilarlo.

03 JPG
04 JPG

Frank Wu, direttore del Machine Learning per SAP, ha spiegato che uno dei benefici immediati di DGX Station è la drastica riduzione del tempo necessario per allenare modelli di deep learning.

In precedenza l'azienda nel suo laboratorio usava un sistema basato su CPU, ma il design compatto e silenzioso del nuovo sistema le ha permesso di usarlo in postazioni di ufficio tradizionali. SAP crea i modelli in ufficio e poi li migra direttamente dalla DGX Station al server DGX-1 in un datacenter.

Tesla V100 con GV100, sguardo ravvicinato a Nvidia Volta

SAP ha inoltre visto che il sistema ha sufficiente potenza per supportare più utenti in simultanea, cosa ideale per la sua divisione deep learning, con team dislocati tra Stati Uniti e Germania. Per esempio, anche il gruppo HANA usa il sistema per sviluppare database accelerato dalla GPU.