Sviluppare per GPGPU, troppo costoso per Epic

La tecnologia GPGPU, che sfrutta la GPU per compiti non grafici, dovrà abbassare i costi se vorrà imporsi.

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Tim Sweeney, amministratore delegato di Epic Games, ha dichiarato che realizzare software che possa avvantaggiarsi delle capacità di calcolo generico delle moderne GPU (graphics processing unit) è molto più costoso che realizzare un programma in grado di sfruttare la CPU (central processing units).

Per questo motivo l'avanzare del concetto di software GPGPU dovrebbe essere tutt'altro che rapido, nonostante il grado impulso che Nvidia, ad esempio, sta dando all'intero movimento.

L'uso delle GPU per compiti non grafici ha fatto sì che si coniasse il termine GPGPU (general purpose computing on graphics processing units). Come abbiamo già visto in alcuni articoli (elencati a fondo notizia), i nuovi chip grafici eseguono calcoli molti più rapidamente del miglior processore in commercio, riducendo i tempi in cui sono eseguite alcune operazioni, a volte impossibili da amministrare per le CPU.

"Anche se le prestazioni potrebbero crescere di oltre 20 volte, il budget per i videogiochi (software) crescerà meno di due. Perciò per gli sviluppatori è vitale avvantaggiarsi delle capacità e delle prestazioni dell'hardware al costo più contenuto possibile", ha affermato Sweeney.

"Se il costo (tempo, soldi e impegno) dello sviluppo di un algoritmo single-thread efficiente per la CPU è X, costerà due volte di più sviluppare la versione multi-thread, tre volte di più sviluppare una versione per Cell e dieci volte di più creare una versione GPGPU".

 

Appare quindi lampante che soppesando gli indubbi vantaggi per l'utilizzatore finale, con gli svantaggi di costi e fatica degli sviluppatori, la tecnologia GPGPU abbia davanti a sé un futuro fatto di tanta gavetta. Sweeney, infatti, ha parlato anche di "modelli GPGPU limitati in generale" e della morte delle GPU per come le conosciamo oggi. Il futuro però è del calcolo generico, su questo non ci piove. I giorni di DirectX e OpenGL, pronosticò Sweeney un anno fa, sono agli sgoccioli.

"Nella prossima generazione scriveremo il 100 percento del nostro codice di rendering in linguaggio di programmazione reale, non DirectX o OpenGL, ma un linguaggio come C++ o CUDA. Un linguaggio di programmazione reale libero da costrizioni misteriose delle API. Che lavori su hardware Nvidia, Intel o ATI è una questione indipendente. Potreste potenzialmente farlo lavorare su qualsiasi hardware in grado di usare con efficienza codice general purpose".

Articoli correlati
Video con CUDA e Badaboom, scelta della scheda grafica Convertire video per iPhone e PSP non è mai stato così veloce. ( leggi tutto )
Test Nvidia CUDA, la scheda grafica batte la CPU Vittoria schiacciante delle schede grafiche sulle CPU grazie a CUDA.... ( leggi tutto )