Ecco l'hardware di Facebook per l'intelligenza artificiale

Si chiama Big Sur il nuovo sistema hardware di Facebook che, grazie a otto GPU, punta a istruire reti neurali per compiti di machine learning e lo sviluppo d'intelligenze artificiali. La buona notizia è che sarà reso del tutto open source.

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Negli ultimi anni i ricercatori di tutto il mondo e le aziende tecnologiche hanno compiuto passi da gigante nell'ambito dell'intelligenza artificiale e più precisamente in una delle sue aree, il machine learning (apprendimento automatico), dove dati e algoritmi per il riconoscimento di modelli complessi permettono ai computer di prendere decisioni e svolgere compiti.

Il boom di quest'ultimo periodo è legato a due trend: l'ampia disponibilità di dati di ricerca pubblici e l'arrivo sulla scena delle GPU, capaci di macinare quantità enormi di informazioni in minor tempo rispetto ai tradizionali microprocessori.

facebook big sur 02

Tra i tanti che stanno lavorando in questo ambito troviamo Facebook: inevitabile per chi possiede miliardi di informazioni nuove ogni giorno che possono essere analizzate e combinate per creare nuove esperienze, rispondere a problemi e molto altro ancora.

"Abbiamo sviluppato software che possono leggere storie, rispondere a domande, giocare e imparare cose tramite l'osservazione di alcuni esempi. Abbiamo tuttavia realizzato che per prendere davvero di petto questi problemi avremmo dovuto progettare i nostri sistemi", spiegano gli ingegneri Kevin Lee e Serkan Piantino. "Oggi sveliamo il nostro nuovo sistema basato su GPU per istruire reti neurali, il suo nome in codice è Big Sur".

Big Sur è l'hardware "open rack compatibile" più recente di Facebook, pensato per lavorare nello sviluppo di intelligenze artificiali su larga scala. A bordo che sono ben otto schede acceleratrici Tesla M40 di Nvidia. Ogni scheda offre una GPU GM200 con 3072 CUDA core affiancati da 12 GB di memoria GDDR5, per una potenza di picco a singola precisione di 7 TFLOPs, un bandwidth di 288 GB/s e TDP di 250 watt.

facebook big sur 01

"Big Sur è il doppio più veloce della nostra precedente generazione, il che significa che possiamo istruire due volte più rapidamente ed esplorare reti il doppio più grandi. Distribuire la formazione tra otto GPU ci permette di scalare la dimensione e la velocità delle nostre reti di un altro fattore pari a due", scrivono i due ingegneri dell'azienda.

Lee e Piantino aggiungono che Big Sur è molto più versatile ed efficiente perché pur usando un raffreddamento speciale e altre soluzioni uniche, sono riusciti a ottimizzare il nuovo sistema per una maggiore efficienza energetica e il funzionamento a temperature inferiori, tanto che è raffreddato ad aria.

"Abbiamo rimosso i componenti che non venivano usati molto, mentre i componenti che si rompevano di frequente - come gli hard disk e le DIMM - possono ora essere rimossi e rimpiazzati in pochi secondi. […] Persino la motherboard può essere rimossa in pochi minuti, mentre la piattaforma hardware originale richiedeva oltre un'ora. Big Sur è quasi interamente smontabile senza l'uso di cacciavite, a eccezione del dissipatore della CPU".

La buona notizia per l'intero settore della ricerca è che Big Sur sarà reso "open source" e sarà sottoposto all'Open Compute Project (OCP). Facebook, in questo modo, spera che altri possano realizzare sistemi simili e persino migliori al fine di compiere passi avanti nel settore dell'intelligenza artificiale in tempi più rapidi.

Nvidia Tesla K80 Nvidia Tesla K80