Avatar di Manolo De Agostini

a cura di Manolo De Agostini

"Siamo nell'era post Legge di Moore" secondo David Patterson, professore della University of California, ingegnere di Google e pioniere dell'architettura RISC, e per questo "non c'è un momento migliore per essere un progettista di architetture di calcolo".

"Ci troviamo di un fattore 15 dietro a dove dovremmo essere se la Legge di Moore fosse ancora operativa", ha spiegato Patterson durante la 2018 @Scale Conference che si è tenuta la scorsa settimana a San Jose, un evento in cui si incontrano i progettisti di architetture di tutto il mondo.

"Siamo alla fine dello scaling prestazionale a cui eravamo abituati. Quando le prestazioni raddoppiavano ogni 18 mesi e le persone avrebbero buttato i loro computer desktop funzionanti perché quello nuovo dell'amico era molto più veloce".

david patterson
David Patterson

La "Legge" - termine usato impropriamente, ma ormai diventato comune - si è dimostrata valida dal 1965, con diverse evoluzioni. Proclamata da Gordon Moore, cofondatore di Intel, dice che "le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18/24 mesi".

In tutto questo hanno giocato un grande ruolo i processi produttivi, ma negli ultimi anni i costi della miniaturizzazione sono saliti alle stelle e ci si sta avvicinando a importanti limiti fisici che riguardano i materiali come il silicio. Insomma, la corsa all'inserimento di sempre più transistor nel medesimo spazio ha subito un forte rallentamento.

Lo scorso anno, come fatto notare da Patterson, "le prestazioni con un singolo programma sono cresciute del 3%, quindi raddoppiano ogni 20 anni. Se te ne stai seduto lì ad aspettare che i chip diventino più veloci, dovrai aspettare molto tempo".

Ed è proprio questo motivo Patterson ritiene che un "computer architect" come lui debba festeggiare. E anche gli ingegneri software dovrebbero farlo. "Nuove architetture hardware rivoluzionarie e nuovi linguaggi di programmazione, su misura per affrontare specifici tipi di problemi informatici, stanno solo aspettando di essere sviluppati".

Patterson ha spiegato che riscrivendo Python in C è possibile avere un incremento delle prestazioni di 50 volte. "Aggiungete varie tecniche di ottimizzazione e la velocità può aumentare notevolmente. Non sarebbe troppo complesso ottenere un miglioramento di un fattore di 1000 in Python".

Leggi anche: Nvidia: GPU al posto delle CPU, Legge di Moore al capolinea

Per quanto riguarda l'hardware, il professore ritiene che le architetture domain-specific, concentrate quindi su un particolare dominio, funzionino meglio. "Non è magia, ci sono cose che possiamo fare. Ad esempio, ci sono applicazioni che non richiedono che il calcolo sia fatto con lo stesso livello di precisione. Per alcune è possibile usare un calcolo in virgola mobile di minore precisione anziché lo standard IEEE 754 comunemente usato".

L'area in cui le opportunità sono più grandi per applicare nuove architetture e linguaggi è il machine learning, dove tutti stanno battendo strade diverse. Google usa la propria Tensor Processing Unit (TPU), Nvidia usa le GPU e Microsoft gli FPGA. Intel invece sta percorrendo tutte le vie, dalle CPU agli FPGA, dai processori di reti neurali specializzati fino alle GPU (quest'ultime a partire dal 2020).

Oltre ai grandi colossi, Patterson ha spiegato che ci sono almeno 45 startup hardware che si stanno interessando al machine learning. Alla fine, come sempre, sarà il mercato a decretare la soluzione migliore. "Questa è un'età dell'oro per le architetture di calcolo".