image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Milioni di stampanti in tutto il mondo a rischio sicurezza Milioni di stampanti in tutto il mondo a rischio sicurezza...
Immagine di Questo notebook ha una RTX 4070 e costa meno di 1000€ (se sei MW Club) Questo notebook ha una RTX 4070 e costa meno di 1000€ (se ...

Una ricerca mostra come ridurre al minimo i consumi delle IA senza perdere prestazioni

I consumi dei data center e delle applicazioni IA sono troppo alti ma forse c'è un modo per ridurli drasticamente e renderli più sostenibili.

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor

Pubblicato il 26/06/2024 alle 16:15

Uno studio pubblicato dell'Università della California, Santa Cruz, ha rivelato la scoperta di un modo per far funzionare i moderni modelli di linguaggio di grandi dimensioni (LLM) con soli 13 Watt di potenza. Per avere un valore di riferimento, parliamo all'incirca dello stesso consumo energetico di una lampadina LED da 100W equivalente. Al contempo si parla di una riduzione di 50 volte rispetto ai 700W di potenza necessari per alimentare le GPU per i data center come la Nvidia H100 e H200, senza contare la futura Blackwell B200 che può arrivare fino a 1200W per GPU.

I ricercatori hanno ottenuto questi risultati utilizzando hardware custom FGPA, chiarendo che la maggior parte dei guadagni in termini di efficienza può essere applicata tramite software open-source e ottimizzazioni degli attuali setup. La chiave di queste prestazioni elevate è stata la rimozione della matrice di moltiplicazione (MatMul) dai processi di addestramento e inferenza dei LLM.

Immagine id 16148

Ma come hanno fatto a rimuovere la MatMul da una rete neurale mantenendo le stesse prestazioni e accuratezza? I ricercatori hanno combinato due metodi. Innanzitutto, hanno convertito il sistema numerico in un sistema "ternario" utilizzando -1, 0 e 1. Questo rende possibile il calcolo sommando piuttosto che moltiplicando i numeri. Successivamente, hanno introdotto il calcolo basato sul tempo nell'equazione, dando alla rete una sorta di "memoria" per permetterle di eseguire ancora più rapidamente con meno operazioni.

Il modello di riferimento utilizzato dai ricercatori è stato il LLM di Meta, LLaMa. L’ispirazione per il progetto è venuta da un paper di Microsoft sull’uso dei numeri ternari nelle reti neurali, anche se Microsoft non è arrivata a rimuovere la moltiplicazione della matrice o a rendere open-source il proprio modello come hanno fatto i ricercatori dell'UC Santa Cruz.

In sostanza, si tratta di un problema di ottimizzazione. Rui-Jie Zhu, uno dei ricercatori che ha lavorato al paper, ha spiegato:

"Abbiamo sostituito l'operazione costosa con operazioni più economiche". Resta da vedere se l'approccio possa essere applicato universalmente alle soluzioni AI e LLM, ma se fosse possibile, potrebbe cambiare radicalmente il panorama dell'AI.

Negli ultimi anni, abbiamo assistito a una crescente domanda di potenza dai principali aziende di IA. Questa ricerca suggerisce che gran parte di questo aumento è dovuto all'uso di metodi di elaborazione inefficienti. Figure autorevoli, come il CEO di Arm, avvertono che se la domanda di potenza dell'AI continua a crescere ai tassi attuali, potrebbe consumare un quarto dell'energia degli Stati Uniti entro il 2030. Ridurre l'utilizzo di potenza a un cinquantesimo dell’attuale quantità rappresenterebbe un miglioramento significativo.

Ci auguriamo che aziende come Meta, OpenAI, Google, Nvidia e altri grandi player trovino modi per sfruttare questa innovazione open-source. Un'elaborazione più veloce e molto più efficiente dei carichi di lavoro dell'IA ci avvicinerebbe a livelli di funzionalità simili al cervello umano(che consuma circa 0,3 kWh di potenza al giorno, circa 1/56 di ciò che richiede una Nvidia H100). Naturalmente, molti LLM richiedono decine di migliaia di queste GPU e mesi di addestramento, quindi il nostro cervello non è completamente sorpassato, almeno per ora.

Fonte dell'articolo: www.tomshardware.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    6 ventilatori da tenere d'occhio in vista del Prime Day
  • #2
    7 smartphone da tenere d'occhio in vista del Prime Day
  • #3
    6 friggitrici ad aria da tenere d'occhio in vista del Prime Day
  • #4
    6 tablet da tenere d'occhio in vista del Prime Day
  • #5
    Steam: sono iniziati i saldi estivi, ecco le occasioni da non perdere
  • #6
    L'accusa dei concessionari: "le ricerche sulle EV sono di parte"
Articolo 1 di 5
Questo notebook ha una RTX 4070 e costa meno di 1000€ (se sei MW Club)
Offerta senza precedenti quella di Mediaworld, riservata ai clienti MW Club. Un notebook Asus con RTX 4070 scende a soli 982€!
Immagine di Questo notebook ha una RTX 4070 e costa meno di 1000€ (se sei MW Club)
Leggi questo articolo
Articolo 2 di 5
Milioni di stampanti in tutto il mondo a rischio sicurezza
Le stampanti Brother presentano vulnerabilità di sicurezza che mettono a rischio i dati degli utenti. Aggiornamenti urgenti necessari.
Immagine di Milioni di stampanti in tutto il mondo a rischio sicurezza
2
Leggi questo articolo
Articolo 3 di 5
Non è il solito monitor da gaming: HDR600, 4K e -43% di prezzo
Il monitor gaming BenQ MOBIUZ EX2710U da 27 pollici è in offerta su Amazon: 4K, 144Hz e HDR600 a soli 400,77€ invece di 699€!
Immagine di Non è il solito monitor da gaming: HDR600, 4K e -43% di prezzo
Leggi questo articolo
Articolo 4 di 5
QD-OLED su un monitor? È (ovviamente) Samsung, oggi al minimo storico
Offerta imperdibile per il Samsung Odyssey OLED G9 da 49 pollici: monitor gaming curvo DQHD a 240Hz in sconto del 18% su Amazon, ora a 941,72€
Immagine di QD-OLED su un monitor? È (ovviamente) Samsung, oggi al minimo storico
Leggi questo articolo
Articolo 5 di 5
Sta per finire! Corri a prenderti la tua stampante 3D in sconto
Il conto alla rovescia è iniziato! Mancano davvero pochi giorni alla fine delle offerte Anycubic su alcune delle migliori stampanti 3D.
Immagine di Sta per finire! Corri a prenderti la tua stampante 3D in sconto
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.