image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Questa è la tech che salverà le schede video da 8GB Questa è la tech che salverà le schede video da 8GB...
Immagine di Uso della VRAM ridotto all'osso con la nuova versione del DLSS Uso della VRAM ridotto all'osso con la nuova versione del DL...

Mettere una CPU Intel Ice Lake in uno slot M.2? Possibile con l'acceleratore NNP-I

Intel ha rimosso la GPU e altri componenti da una CPU Ice Lake per creare un acceleratore di inferenza, NNP-I, inseribile anche in uno slot M.2.

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Pubblicato il 28/06/2019 alle 11:35

Intel ha annunciato durante l’Israeli Development Center (IDC) Day tenutosi ad Haifa, in Israele, che il suo processore di rete neurale dedicato all’inferenza, chiamato Nervana Neural Network Processor for Inference, o in breve NNP-I, arriverà sotto forma di processore Ice Lake a 10 nanometri modificato, posto su un PCB che s’inserisce all’interno di uno slot M.2, normalmente dedicato all’archiviazione.

Per raggiungere l’obiettivo, Intel ha rimosso parti fondamentali dell’architettura Ice Lake, come il core grafico e i componenti deputati alla visualizzazione, per fare spazio alle unità per accelerare i carichi di intelligenza artificiale. Il dispositivo è comunque sempre basato sul package standard di Ice Lake, con la CPU e il platform controller hub (PCH) affiancati.

intel-nnp-i-nervana-ice-lake-40129.jpg

L’inferenza permette di usare modelli di IA finiti – ottenuti tramite l’allenamento delle reti neurali usando GPU e FPGA molto potenti – su dispositivi non troppo potenti, al fine di renderli in grado di analizzare le operazioni quotidiane e dai dati raccolti dal mondo circostante. Creare soluzioni per l’inferenza a basso consumo e costo è quindi importante: nel caso dell'acceleratore NNP-I, Intel ha pronosticato l'uso accanto alle CPU Xeon, in modo da sgravarle dai compiti di IA e dedicarle solo ai calcoli generali.

Oltre agli acceleratori Intel ha aggiunto anche degli engine DSP che possono essere usati per algoritmi che non sono perfettamente ottimizzati per i blocchi di accelerazione a funzione fissa. Questo permetterà alla soluzione di mantenere la compatibilità anche se nel campo dell'IA ci saranno evoluzioni.

Intel non ha condiviso dettagli sui blocchi deputati all’accelerazione dell’inteferenza, ma probabilmente si basano su una serie di elementi ripetuti, in modo simile a una GPU (tanti piccoli core). Il sottosistema di memoria di norma dedicato alla GPU Gen11 è in questo caso usato per alimentare i core, e lo stesso ruolo hanno le interconnessioni e le strutture complementari tra le unità.

intel-nnp-i-nervana-ice-lake-40131.jpg intel-nnp-i-nervana-ice-lake-40132.jpg

Lato CPU, abbiamo diversi core x86 – Intel non ha specificato il numero – basati su architettura Sunny Cove. Oren Gershon, general manager di Intel per la parte Inference Products Engineering, ha affermato che l’azienda ha rimosso “alcuni degli altri core” per fare spazio alla componentistica extra, quindi è possibile che non vi siano quattro core x86 su questo dispositivo ma solo due.

Intel può inserire il package in differenti formati, come la versione M.2 fotografata qui sotto, che permettono così l’inserimento all'interno di uno slot M.2 standard su una scheda madre server, o anche su schede aggiuntive più grandi inseribili in uno slot PCIe standard.

A differenza di alcune soluzioni custom progettate per l’IA, come la TPU di Google, questa soluzione offre un’ampia compatibilità hardware, praticamente con qualsiasi server moderno. Anche l’approccio è scalabile: potete aggiungere più NNP-I a un server, specialmente con soluzioni riser PCIe che possono offrire più slot M.2.

intel-nnp-i-nervana-ice-lake-40130.jpg

Intel ha affermato che NNP-I ha un TDP simile a quello dei processori Ice Lake, il che significa un massimo prossimo ai 28 watt, anche se il limite di 15 watt dell’interfaccia M.2 è qualcosa di cui sicuramente l’azienda avrà tenuto conto. Una NNP-I inserita in schede aggiuntive più grandi può invece operare a valori di TDP più alti, offrendo maggiori prestazioni.

Intel metterà a disposizione del software capace di dirottare i compiti di inferenza interamente della CPU all’acceleratore e poi notificare alla CPU Xeon che il lavoro è pronto. Scaricare questi carichi di lavoro fa sì che lo Xeon non sia costretto a comunicare costantemente lungo il bus PCIe con altri tipi di acceleratori, un compito pesante per la CPU perché genera degli interrupt e richiede il movimento di dati.

Di contro l’NNP-I lavora come un sistema autonomo con il proprio PCH che gli consente di accedere ai dati necessari per svolgere i calcoli.

I carichi di lavoro legati all’IA tendono a richiedere moltissimi dati, il che fa pensare che la connessione PCIe 3.0 x4 non basti. Intel ha assicurato però di aver testato carichi IA legati all’analisi video senza riscontrare limitazioni, che invece esistono per quanto concerne la potenza di calcolo.

I core x86 supportano anche le istruzioni Intel VNNI (DL Boost) che sfruttano AVX-512 per aumentare le prestazioni. Intel ritiene quindi di aver raggiunto un livello di flessibilità massimo, che consente di gestire praticamente qualsiasi tipo di carico di lavoro IA, in particolare quelli inadatti ad altri tipi di core.

Intel metterà a disposizione anche un compilatore in grado di adattare il codice agli acceleratori NNP-I e sta lavorando con Facebook per garantire che il compilatore Glo supporti questo nuovo dispositivo. Non manca inoltre il supporto a tutti i linguaggi standard, come PyTorch e TensorFlow, con nessuna o poche alterazioni.

Secondo Gershon, NNP-I ha un'efficienza “sorprendente, molto meglio di una CPU o GPU di ordini multipli". Le applicazioni di inferenza sono molto più diffuse rispetto all’allenamento nei datacenter, e dispositivi a basso consumo a prezzi accessibili hanno un grande mercato tra i provider di servizi cloud, il che significa che potrebbe diventare un segmento redditizio per Intel. Ovviamente queste soluzioni non saranno acquistabili da tutti, ma Intel si aspetta che i provider di servizi cloud le esporranno tramite istanze.

Intel non è ancora andata oltre le semplici affermazioni, ovvero non le ha supportate con dati prestazionali, ma ha assicurato di essere in fase di sampling con i primi clienti e si aspetta la produzione in volumi entro fine anno. Insomma, ne sapremo di più nei prossimi mesi.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Questo nuovo materiale "vive" e ricostruisce gli edifici
  • #2
    Uso della VRAM ridotto all'osso con la nuova versione del DLSS
  • #3
    Anche Amazon nella rete del “NO IVA”: ecco gli affari nascosti
  • #4
    Uno YouTuber ha acquistato uno dei marchi più famosi del retrogaming
  • #5
    Milioni di stampanti in tutto il mondo a rischio sicurezza
  • #6
    Questa è la tech che salverà le schede video da 8GB
Articolo 1 di 5
Uso della VRAM ridotto all'osso con la nuova versione del DLSS
Le ottimizzazioni della VRAM hanno raggiunto un nuovo traguardo con l'ultimo aggiornamento alla tecnologia DLSS 4 di NVIDIA.
Immagine di Uso della VRAM ridotto all'osso con la nuova versione del DLSS
5
Leggi questo articolo
Articolo 2 di 5
Questa è la tech che salverà le schede video da 8GB
Una ricerca di AMD dimostra come generare alberi e vegetazione in tempo reale riduca drasticamente l'uso della VRAM nei rendering 3D di diverse volte.
Immagine di Questa è la tech che salverà le schede video da 8GB
2
Leggi questo articolo
Articolo 3 di 5
Queste DRAM consumano il 20% in meno e performano di più
L'industria delle memorie DRAM sta assistendo a una rivoluzione che potrebbe ridefinire i parametri di efficienza energetica e delle prestazioni.
Immagine di Queste DRAM consumano il 20% in meno e performano di più
Leggi questo articolo
Articolo 4 di 5
Mediaworld fa il NO IVA, ma Amazon batte il prezzo su questo tablet Lenovo
Il NO IVA di Mediaworld non basta! Amazon ha il tablet Lenovo Tab M11 a un prezzo ancora più basso, solo 138€. Tra i migliori tablet entry level!
Immagine di Mediaworld fa il NO IVA, ma Amazon batte il prezzo su questo tablet Lenovo
1
Leggi questo articolo
Articolo 5 di 5
NVIDIA pensa già alle RTX 50 SUPER: ecco quando arriveranno
Le nuove RTX 50 SUPER debutteranno probabilmente al CES 2026. Le novità riguardano principalmente la VRAM, aumentata del 50% rispetto ai modelli base.
Immagine di NVIDIA pensa già alle RTX 50 SUPER: ecco quando arriveranno
16
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.