Processori con 1000 core se Intel e AMD copiano Internet

di Manolo De Agostini, 11 aprile, 2012 08:18

Ricercatori del MIT tracciano la via per i chip multi-core del futuro. Basterebbe prendere esempio dalle tecniche di instradamento dati su Internet per realizzare soluzioni potenti ed efficienti.

Copiare Internet per avere chip multi-core più veloci ed efficienti. Li-Shiuan Peh, professoressa associata in ingegneria elettrica e informatica del MIT, ritiene che permettere ai core di una CPU di comunicare in modo simile a quanto fanno i computer collegati al Web sia la strada da seguire per la progettazione di futuri microprocessori.

In questo momento i processori tradizionali hanno al massimo sei o otto core, che comunicano l'uno con l'altro tramite singoli collegamenti definiti bus. Su questa "strada" possono passare nello stesso momento un numero limitato d'informazioni e questo creerà un serio collo di bottiglia quando i chip avranno centinaia o migliaia di core.

La professoressa Li-Shiuan Peh ritiene che la chiave sia inserire le informazioni trasmesse dai core all'interno di "pacchetti". Ogni core dovrebbe avere il proprio router, il quale avrebbe il compito d'inviare il pacchetto attraverso un percorso diverso in base alle condizioni complessive della rete. Durante una conferenza in giugno Peh e i suoi colleghi presenteranno un documento in cui non solo stabiliranno i limiti teorici di efficienza nelle reti di comunicazione on-chip basate su pacchetti, ma mostreranno anche dei dati ottenuti su un chip di test.

"I bus hanno raggiunto un limite. Solitamente scalano fino a circa otto core", ha dichiarato la professoressa Peh. Le soluzioni server a 10 core hanno un secondo bus, ma secondo gli studiosi del MIT questo approccio non funzionerà quando avremo CPU con centinaia o più core. "I bus consumano un sacco di energia, perché provano a gestire lunghi collegamenti a otto o 10 core in contemporanea". Nel tipo di rete che propone la professoressa, ogni core comunica solo con i quattro core che gli sono più vicini. "Si gestiscono fili di minore lunghezza e questo consente di ridurre la tensione".

Poiché però in una rete on-chip la trasmissione di un pacchetto di dati da un core a un altro deve passare attraverso ogni router sul proprio cammino, se due pacchetti arrivano al router nello stesso momento, uno deve essere archiviato in memoria mentre il router si occupa dell'altro. In molti ingegneri ritengono che questo funzionamento introduca latenza e una complessità tale da offuscare i vantaggi concettuali di questa soluzione tecnologica. Al MIT però hanno sviluppato due tecniche che dovrebbero mettere a tacere ogni preoccupazione.

La prima è chiamata "virtual bypassing" e si basa sul concetto che su Internet, quando un pacchetto arriva a un router, questo ispeziona l'informazione sul suo indirizzamento prima di decidere attraverso quale percorso inviarlo. Con il virtual bypassing ogni router invia un segnale in anticipo a quello che lo segue, in modo che questo reimposti il proprio switch e velocizzi l'instradamento del pacchetto senza ulteriori calcoli. Secondo la professoressa, questa tecnica ha permesso di avvicinarsi alla velocità di trasmissione massima teorica prevista da analisi teoriche.

L'altra tecnica è chiamata "low-swing signaling". I dati digitali sono formati da più "zero" e più "uno", che sono trasmessi su canali di comunicazione come tensioni alte e basse. Il dottorando Sunghyun Park ha sviluppato un circuito che riduce l'oscillazione tra tensioni alte e basse a 300 millivolt, rispetto al classico volt. Combinando le due tecniche, i ricercatori hanno ottenuto un chip che ha richiesto il 38% di energia in meno rispetto alle loro prime soluzioni di prova. "Se si confronta il tutto con una soluzione dotata di bus, otteniamo risparmi di diversi ordini di grandezza", ha dichiarato la professoressa.

Luca Carloni, italiano che è professore associato d'informatica alla Columbia University, ritiene che "i vantaggi delle reti packet-switched su chip sembrano convincenti". Secondo Carloni i vantaggi non includono solo l'efficienza operativa, ma anche il livello di regolarità e produttività durante la fase di progettazione e in tal senso il lavoro svolto da Li-Shiuan Peh e dal proprio team è "fondamentale". 

Il lavoro dei ricercatori del MIT è però solo all'inizio, perché ancora non è stato raggiunto un livello vicino al limite teorico per quanto riguarda i consumi del chip. Intel, AMD e tutti i progettisti di chip dovrebbero fare una capatina a Boston, anche perché secondo la Peh "il problema più grande è che nell'industria attuale le persone non sanno come realizzare queste reti perché hanno lavorato sui bus per decenni".

Ti potrebbe interessare anche:

 

Notizie dal web

 

Commenti dei lettori (17)

1/2 avanti   
Tsaeb 11/04/2012 08:30
+1
beh meno male che stanno studiando soluzioni già ora, c'è ancora tempo prima di arrivare a un centinaio di core nel mercato consumer.
FrankieDedo 11/04/2012 08:40
0
Nuovo Intel Dual Core Cane: MILLEMILA CORE!!!

apparte gli scherzi, 2 dubbi:
1 - Con centinaia di core, sarà facile progettare un processore? o duplicheranno una struttura, diciamo a 10 core, per 10-100 volte? in quel caso un errore di progettazione...beh...

2 - Se questa tecnica di routing delle informazioni è così ganza, è utile metterla nelle attuali architetture?
LinFX 11/04/2012 08:46
+10

 Originariamente inviata da articolo

Intel, AMD e tutti i progettisti di chip dovrebbero fare una capatina a Boston, anche perché secondo la Peh "il problema più grande è che nell'industria attuale le persone non sanno come realizzare queste reti perché hanno lavorato sui bus per decenni".


Mi vedo già Otellini e Rory dietro i banchi a sputarsi palline di carta con la Bic
GiovanniT 11/04/2012 08:46
+1

 Originariamente inviata da Tsaeb

beh meno male che stanno studiando soluzioni già ora, c'è ancora tempo prima di arrivare a un centinaio di core nel mercato consumer.



Tutto dipende da che tipo di core si intende...io credo non di certo uno attuale, ma più una cosa simile a AMD nelle ultime cpu
OmbraShadow 11/04/2012 08:51
+2
Speriamo solo che anche i software poi vengono sviluppati in modo da sfruttarli davvero sti millemila core...
catyaa 11/04/2012 09:02
0
Praticamente stanno riprendendo i concetti del Transputer e della Thinking Machine
catyaa 11/04/2012 09:05
0
Un parallelismo cosi' spinto puo' essere utilizzato in situazioni molto particolari. In generale non e' 'general purpose'.
Certo, ogni core potrebbe essere utilizzato per eseguire uno dei thread del sistema, ma cosi' non si sfrutta al meglio tale potenza espressiva.
simbus82 11/04/2012 09:16
+1
L'idea di pachettizzare i dati all'interno stesso del pc e staccarsi dall'idea di "bus" non è mica una novità, solo che finalmente evidentemente ci sono buone probabilità che questo sia prestazionale ed efficente!
GianArd 11/04/2012 09:35
0
Con il processo produttivo odierno 100 core li fai con un chip grande cm tutto il case..
O devono avere un'architettura così elementare che un 6 core odierno è più performante..
Alien1900 11/04/2012 09:42
+1
Da quello che ho letto non mi sembra una novità. Per esempio il processore http://en.wikipedia.org/wiki/TILEPro64 già implementa una soluzione del genere per far comunicare i suoi 64 core.
1/2 avanti   
Devi essere collegato scrivere un commento!

Accesso utenti

Nome utente:
Password:
 
Segui Tom's Hardware!
Informazioni su Tom's Hardware
powered by
Powerd by Aruba Cloud Powerd by Intel Powerd by Dell

Copyright © 2014 A Purch Company. Tutti i diritti riservati.
P.Iva 04146420965 - Testata registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013
Clicca per i dettagli