Intel svela il Neural Network Processor per sfidare Nvidia

Il Neural Network Processor di Intel promette di offrire prestazioni elevate nel campo del machine learning per favorire la creazione di intelligenze artificiali migliori.

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Si chiama Neural Network Processor, NNP per "gli amici", il nuovo ASIC di Intel pensato per massimizzare le prestazioni nel campo dell'apprendimento automatico (machine learning). È un concorrente delle GPU Nvidia, usate nello stesso ambito con grande successo.

Messo a punto da Nervana (con qualche suggerimento da parte di Facebook), realtà che Intel ha acquisito l'anno passato per 350 milioni di dollari, è un chip privo di una gerarchia cache standard e con memoria on-chip direttamente gestita dal software.

Questo si deve al fatto che al cuore del deep learning ci sono moltiplicazione di matrici e convoluzioni. Questi calcoli sono differenti dagli altri; operazioni e movimenti dei dati sono noti a priori. Un design standard non serve, e una migliore gestione della memoria permette al chip di raggiungere livelli d'uso elevati delle unità di calcolo, cosa che si traduce in tempi di allenamento più rapidi per le reti neurali.

Dato che l'allenamento di queste reti su un singolo chip è limitato dal bandwidth di memoria e dai consumi, Nervana ha inventato un nuovo formato numerico chiamato flexpoint. Secondo Intel, flexpoint permette d'implementare calcoli scalari sotto forma di matematica a punto fisso. Questo consente di creare circuiti più piccoli e ridurre i consumi. La matematica a punto fisso di solito però limita la flessibilità sul fronte software, quindi starà ai clienti verificare la bontà della scelta di Intel.

intel

Il chip - che dall'immagine sembrerebbe essere accompagnato da memoria HBM - è inoltre stato progettato con interconnessioni ad alta velocità sia al suo interno che verso l'esterno, per avere quello che l'azienda definisce "un data transfer bidirezionale imponente". Questo permette di collegare i chip insieme e creare un unico grande chip virtuale per modelli di deep-learning di dimensioni maggiori.

Per il momento la casa di Santa Clara non ha rivelato alcun dato prestazionale, ma in passato Nervana stimò un'efficienza all'incirca 10 volte maggiore dell'architettura Maxwell di Nvidia. Quest'ultima - così come le altre realtà con ASIC per il machine learning, come Google con la sua TPU - hanno fatto molti passi avanti rispetto all'architettura Maxwell, quindi il paragone non è del tutto azzeccato. Nervana, inoltre, pensava di produrre il chip (nome in codice Lake Crest) a 28 nanometri, ma ragionevolmente si affiderà ai 14/10 nanometri grazie a Intel.

Intel Nervana neural network processor

Proprio Nvidia ha introdotto con l'architettura Volta - due generazioni dopo Maxwell - i Tensor core dedicati all'allenamento delle reti neurali. Grazie a questi core Tesla V100 raggiunge prestazioni fino a 12 volte maggiori rispetto ai prodotti basati su architettura Pascal con operazioni FP32 e fino a 6 volte maggiori con calcoli FP16.

Rimane quindi da capire come si comporterà questa NNP rispetto alla concorrenza, anche se l'azienda ritiene di essere perfettamente nei tempi per "accelerare l'allenamento di reti neurali di 100 volte entro il 2020". Intel ha intenzione di avviare la distribuzione della NNP entro l'anno.


Tom's Consiglia

Se vuoi creare una workstation davvero potente con processore Intel c'è un Core i9-7920X con 12 core che ti aspetta su Amazon.