image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Dì addio al vecchio monitor e dai il benvenuto al 2026 con questo Asus OLED Dì addio al vecchio monitor e dai il benvenuto al 2026 con ...
Immagine di Configurazione ASUS TUF BTF con RTX 5070 Ti | 2025 Configurazione ASUS TUF BTF con RTX 5070 Ti | 2025...

Nvidia annuncia la H200 GPU, nuovo punto di riferimento per l'IA

Nvidia ha presentato, durante il Supercomputing 23, i chip H200 e GH200, i più potenti mai creati dall'azienda, pensati per le IA

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 14/11/2023 alle 21:27
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nvidia ha presentato, durante il Supercomputing 23, i chip H200 e GH200, i più potenti mai creati dall'azienda. Questi chip, basati sull'architettura Hopper H100, mostrano notevoli miglioramenti nella capacità di memoria e nelle prestazioni di calcolo.

Progettati per alimentare la prossima generazione di supercomputer per l'intelligenza artificiale, si prevede che entro il 2024 offriranno oltre 200 exaflops di capacità di calcolo AI.

Il fulcro dell'attenzione sembra essere l'H200 GPU, caratterizzato da un notevole incremento nella capacità di memoria e nella larghezza di banda per GPU. La versione aggiornata dell'H200 presenta una memoria totale HBM3e di 141 GB con una larghezza di banda di 4,8 TB/s per GPU attraverso sei stack HBM3e.

Questo rappresenta un salto significativo rispetto all'H100 originale, che offriva 80 GB di HBM3 e 3,35 TB/s di larghezza di banda. L'H200 SXM offre il 76% in più di capacità di memoria e il 43% in più di larghezza di banda rispetto alla variante H100 SXM.

Immagine id 4286

Le prestazioni di calcolo non sembrano essere drasticamente cambiate: Nvidia ha presentato una configurazione HGX 200 con otto GPU che offrivano un totale di "32 PFLOPS FP8". L'H100 originale offriva 3.958 teraflops di FP8, quindi otto GPU simili già fornivano circa 32 petaflops di FP8.

Nvidia sostiene che l'H200 sarà fino a 18 volte più veloce del precedente A100 per modelli linguistici come GPT-3, i quali traggono vantaggio da una maggiore capacità di memoria.

Inoltre, Nvidia ha accennato al futuro Blackwell B100, anche se al momento non sono ancora stati rivelati dei dettagli precisi.

L'annuncio non riguarda solo l'H200, ma anche il nuovo GH200 che unisce l'H200 con la CPU Grace. Ogni GH200 avrà una memoria combinata di 624 GB, rispetto ai 480 GB di memoria LPDDR5x e 96 GB di memoria HBM3 del GH100. La nuova iterazione utilizza 144 GB di HBM3e.

Fonte dell'articolo: www.tomshardware.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Configurazione ASUS TUF BTF con RTX 5070 Ti | 2025

In collaborazione

Configurazione ASUS TUF BTF con RTX 5070 Ti | 2025

Di Marco Pedrani
Dì addio al vecchio monitor e dai il benvenuto al 2026 con questo Asus OLED

Offerte e Sconti

Dì addio al vecchio monitor e dai il benvenuto al 2026 con questo Asus OLED

Di Dario De Vita
DJI Osmo Action 6: una registrazione, più formati | Test & Recensione
2

Hardware

DJI Osmo Action 6: una registrazione, più formati | Test & Recensione

Di Andrea Ferrario
Intel perde il ricorso: multa UE da 237 milioni
1

Hardware

Intel perde il ricorso: multa UE da 237 milioni

Di Antonello Buzzi
Accordo Disney e OpenAI: i personaggi arrivano in Sora e ChatGPT

Hardware

Accordo Disney e OpenAI: i personaggi arrivano in Sora e ChatGPT

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.