image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Questo display vi farà dire addio a ogni distrazione Questo display vi farà dire addio a ogni distrazione...
Immagine di Lunga vita alla Sound Blaster! Linux resuscita la scheda del '94 Lunga vita alla Sound Blaster! Linux resuscita la scheda del...

Schede video con tante GPU, Nvidia sperimenta con RC 18

Nvidia ha parlato di RC 18, un progetto Multi-Chip Module GPU (MCM-GPU) di cui ha eseguito il tape out. Il futuro delle schede video è nella moltitudine di GPU?

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Pubblicato il 09/04/2019 alle 08:04
Nvidia Research
sta lavorando su RC 18, un acceleratore di intelligenza artificiale formato da più die di GPU su un singolo package. Si tratta di un prototipo, il cui funzionamento sarà analizzato in futuro per capirne le potenzialità, ma allo stesso tempo sembra un’idea in cui Nvidia ripone molta fiducia.

Di questo progetto si parla su base teorica dal 2017 e si basa su quello che può essere definito Multi-Chip Module GPU (MCM-GPU), ossia l'uso di diversi moduli GPU su un singolo package. Stando a quanto riportato dal sito giapponese PC Watch (via PCGameN), l’attuale prototipo ha superato il tape out presso TSMC con processo produttivo a 16 nanometri, lo stesso usato per le GeForce serie 10.

nvidia-rc-18-27836.jpg

Sul package di questo prototipo si contano 36 piccoli moduli, ognuno formato da 16 PEs (Processing Elements), un core RISC-V Rocket, buffer di memoria e otto collegamenti GRS (Ground-Referenced Signaling) per un bandwidth di I/O totale per chip pari a 100 GB/s. Nel complesso ogni singolo chip è formato da 87 milioni di transistor.

“Abbiamo dimostrato un prototipo di ricerca come esperimento per rendere scalabile il deep learning”, ha affermato Bill Dally, capo di Nvidia Research, nel corso della GTC 2019. "Si tratta di un tape out recente, attualmente in fase di valutazione. Stiamo lavorando su RC 18, che significa ‘the research chip of 2018’. Si tratta di un acceleratore per il deep learning che può scalare da una dimensione molto piccola, e ha 16 PE su un piccolo die".

“Questo chip ha il vantaggio di essere in grado di dimostrare diverse tecnologie”, ha aggiunto Dally. “Una delle tecnologie è un’architettura deep learning scalabile. L’altra è una trasmissione die-to-die su un substrato organico molto efficiente”.

Insomma, da questo progetto di ricerca potrebbero nascere prima gli acceleratori di IA del futuro e successivamente anche potenti schede video gaming, qualora questo design dovesse diventare “uno standard”. L’adozione di un progetto MCM, oltre ad aumentare le prestazioni, potrebbe velocizzare anche i tempi di progettazione e forse contenere anche i consumi.

nvidia-rc-18-27837.jpg

Nvidia attualmente usa una propria tecnologia d’interconnessione chiamata NVLink per collegare ad alta velocità diverse GPU, ma recentemente ha acquisito Mellanox, specialista nei collegamenti ad alta velocità nel campo dei datacenter. Le conoscenze ottenute potrebbero risultare importanti anche per il progetto MCM.

Nvidia però non è l’unica che sta lavorando a un’architettura di calcolo altamente scalabile. Anche AMD ci sta pensando, con l’attuale boss della divisione RTG, David Wang, che ha affermato come sia semplicemente prematuro accostare un design simile alle GPU gaming, senza però escluderne l’applicazione in altri ambiti.

Raja Koduri, colui che si sta occupando dello sviluppo delle nuove GPU dedicate di Intel in arrivo nel 2020, ha più volte parlato in passato di progetti MCM, sottolineando come possano rappresentare il futuro delle GPU.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    5 condizionatori portatili da tenere d'occhio in vista del Prime Day
  • #2
    Nessuna GPU NVIDIA sembra al sicuro dai connettori che si sciolgono
  • #3
    Non è una Panda, non è un Cybertruck: è il Cyberpandino
  • #4
    Prestazioni top e prezzo shock: questa CPU può dominare nel gaming economico
  • #5
    Microsoft blocca Chrome: bug o guerra a Google?
  • #6
    Lunga vita alla Sound Blaster! Linux resuscita la scheda del '94
Articolo 1 di 5
Lunga vita alla Sound Blaster! Linux resuscita la scheda del '94
La community degli sviluppatori Linux continua a stupire per la sua dedizione nel mantenere viva la compatibilità con hardware di epoche ormai remote.
Immagine di Lunga vita alla Sound Blaster! Linux resuscita la scheda del '94
1
Leggi questo articolo
Articolo 2 di 5
Questo display vi farà dire addio a ogni distrazione
Un dispositivo che promette di riportare gli scrittori all'essenziale attraverso un approccio radicalmente minimalista e senza distrazioni.
Immagine di Questo display vi farà dire addio a ogni distrazione
2
Leggi questo articolo
Articolo 3 di 5
Il più grande attacco DDoS della storia conta numeri da record
Il più grande attacco DDoS della storia ha stabilito un nuovo record di intensità che ha messo in allerta la sicurezza informatica mondiale.
Immagine di Il più grande attacco DDoS della storia conta numeri da record
Leggi questo articolo
Articolo 4 di 5
Non serve comprare un trapano a colonna! Ora potete stamparlo in 3D
DC Sets, uno YouTuber molto noto nel campo del DIY, ha deciso di progettare e stampare in 3D un trapano a colonna funzionante.
Immagine di Non serve comprare un trapano a colonna! Ora potete stamparlo in 3D
1
Leggi questo articolo
Articolo 5 di 5
La prima GPU cinese a 6nm è reale, ma è più lenta di una scheda di 13 anni fa
Il test condotto su Geekbench ha rivelato prestazioni deludenti per la G100, che ha ottenuto 15.524 punti nel benchmark OpenCL.
Immagine di La prima GPU cinese a 6nm è reale, ma è più lenta di una scheda di 13 anni fa
3
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.