Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Raddoppio delle prestazioni per le Nvidia H100, basta un aggiornamento software
Business
Immagine di È ora di trasformare le promesse del cloud sovrano in realtà. Riempiamo gli Usa di troppi soldi È ora di trasformare le promesse del cloud sovrano in realt...
Immagine di Le 10 competenze IT più richieste per il 2026 Le 10 competenze IT più richieste per il 2026...

Raddoppio delle prestazioni per le Nvidia H100, basta un aggiornamento software

Nvidia sta collaborando con partner per migliorare le GPU Tensor Core H100, raddoppiando le prestazioni grazie a TensorRT-LLM, ottimizzando il parallelismo dei task.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 12/09/2023 alle 14:44
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nvidia sta collaborando con un elenco di partner tecnologici per realizzare un software che possa raddoppiare le prestazioni delle sue GPU Tensor Core H100.

L'aggiornamento open source di TensorRT-LLM uscirà nelle prossime settimane, e in teoria permette a un sistema H100 di moltiplicare per otto le prestazioni del precedente A100, quindi il doppio delle prestazioni H100 precedenti. Il test è stato effettuato sul GPT-J 6B, un modello utilizzato per riassumere articoli presi da famosi siti web.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Sicuramente è una notizia eccellente per tutte le aziende, grandi e piccole, che si occupano di sviluppare sistemi IA e che lo fanno affidandosi all’hardware Nvidia. L’aumento delle prestazioni è calcolato su task molto specifici, ma è lecito supporre che porti miglioramenti anche in altri ambiti LLM, visto e considerato che il nuovo software, soprattutto, ottimizza il parallelismo tra i task.

Nvidia e i suoi partner hanno integrato TensorRT-LLM con una tecnica di pianificazione più potente, chiamata in-flight batching. Questa tecnica sfrutta il fatto che la generazione del testo può essere suddivisa in più sottoattività.

In parole povere, invece di aspettare che un intero batch di attività da una richiesta finisca prima di passare alla richiesta successiva, il sistema può continuare a elaborare nuovi batch da richieste diverse in parallelo. TensorRT-LLM comprende un compilatore di deep learning TensorRT e include kernel ottimizzati, fasi di pre-elaborazione e post-elaborazione, nonché primitive di comunicazione multi-GPU e multi-nodo.

TensorRT-LLM include anche versioni completamente ottimizzate e pronte per l'esecuzione dei più diffusi LLM, tra cui Llama 2, GPT-2 e GPT-3, oltre a Falcon, Mosaic MPT, BLOOM e decine di altri. È possibile accedere a queste versioni tramite un'API Python.

L'aggiornamento è disponibile in accesso anticipato e sarà presto integrato nel framework Nvidia NeMo, che fa parte di Nvidia AI Enterprise. I ricercatori possono accedervi attraverso il framework NeMo, il portale NGC o il repository sorgente su GitHub.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Le 10 competenze IT più richieste per il 2026

Business

Le 10 competenze IT più richieste per il 2026

Di Antonino Caffo
È ora di trasformare le promesse del cloud sovrano in realtà. Riempiamo gli Usa di troppi soldi
5

Business

È ora di trasformare le promesse del cloud sovrano in realtà. Riempiamo gli Usa di troppi soldi

Di Antonino Caffo
No, gli agenti IA per il coding non sono la soluzione migliore per le aziende
1

Business

No, gli agenti IA per il coding non sono la soluzione migliore per le aziende

Di Antonino Caffo
Il divario nell'uso dell'IA divide i lavoratori

Business

Il divario nell'uso dell'IA divide i lavoratori

Di Antonino Caffo
Agentic AI e Composable Architecture: come guidare l’impresa digitale del futuro

Business

Agentic AI e Composable Architecture: come guidare l’impresa digitale del futuro

Di Luca Fassero
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.