Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata Abbiamo fatto un giro in Silicon Valley, ecco com'è andata...
Immagine di C'è chi è convinto che i large language model possano pensare C'è chi è convinto che i large language model possano pens...

Qualcomm, nuovi chip dedicati ai data center AI

Kit per inferenza efficiente basato su Snapdragon, con promesse di prestazioni ottimali ma pochi dettagli tecnici al momento

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 28/10/2025 alle 12:26

La notizia in un minuto

  • Qualcomm entra nel mercato dei data center AI con le schede acceleratrici AI200 e AI250, sfidando Nvidia e AMD con un focus su efficienza energetica e capacità di memoria superiore
  • L'AI250 promette un salto prestazionale grazie al near-memory computing, con larghezza di banda dieci volte superiore e consumi ridotti rispetto alle soluzioni attuali
  • La strategia si basa sull'esperienza delle NPU Hexagon sviluppate per il mobile, con Humain come primo cliente significativo che prevede 200 megawatt di implementazioni dal 2026
Riassunto generato con l'IA. Potrebbe non essere accurato.

Qualcomm ha svelato due nuove schede acceleratrici, denominate AI200 e AI250, progettate specificamente per gestire carichi di lavoro di inferenza AI, accompagnate da sistemi rack completi per ospitarle. L'azienda così torna nel settore dei data center dopo precedenti tentativi poco fortunati focalizzati sulle CPU tradizionali.

Questa volta Qualcomm si concentra su tre criticità che attanagliano gli operatori del settore: il consumo energetico esorbitante necessario per alimentare le applicazioni di intelligenza artificiale, la conseguente generazione di calore che richiede infrastrutture di raffreddamento costose ed energivore, e infine la quantità di memoria disponibile negli acceleratori, fattore determinante per stabilire quali modelli possono essere eseguiti e quanti contemporaneamente su una singola unità.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Sul fronte delle specifiche tecniche, Qualcomm ha mantenuto un profilo prudente rivelando dettagli limitati. La scheda AI200 supporta 768 GB di memoria LPDDR per unità, una capacità superiore rispetto ai chip flagship proposti attualmente da Nvidia e AMD. La versione AI250, invece, promette prestazioni ancora più elevate grazie a un'architettura di memoria innovativa basata sul near-memory computing, che secondo l'azienda dovrebbe garantire una larghezza di banda effettiva dieci volte superiore e un consumo energetico notevolmente ridotto rispetto alle soluzioni esistenti.

Un salto generazionale nell'efficienza dei carichi di inferenza AI

I sistemi rack che ospiteranno queste schede acceleratrici saranno preconfigurati e integreranno raffreddamento a liquido diretto, connettività PCIe per lo scale-up, Ethernet per lo scale-out e tecnologie per garantire la sicurezza dei carichi di lavoro AI. Il consumo energetico a livello di rack è stimato in 160 kW, una cifra che Qualcomm posiziona come competitiva nel panorama attuale.

L'annuncio non fa menzione di CPU, nonostante il CEO Cristiano Amon avesse dichiarato lo scorso maggio che l'azienda avrebbe sfruttato la propria esperienza nella costruzione di processori per "pensare a cluster di inferenza caratterizzati da alte prestazioni con consumi energetici molto bassi". Invece, l'approccio sembra basarsi sulla leadership già acquisita nelle NPU (Neural Processing Unit) di Qualcomm, probabilmente un riferimento diretto alle unità di elaborazione neurale marchiate Hexagon integrate nei processori per laptop e dispositivi mobili.

La tecnologia Hexagon più recente, incorporata nel SoC Snapdragon 8 Elite, include 12 acceleratori scalari e otto acceleratori vettoriali, supportando precisioni INT2, INT4, INT8, INT16, FP8 e FP16. Questa expertise nel settore mobile sembra costituire la base per l'incursione nel mercato enterprise, con un focus particolare sul rapporto tra prestazioni, costo ed efficienza energetica.

Humain, un'azienda saudita specializzata in intelligenza artificiale, ha dichiarato di puntare a implementare 200 megawatt di soluzioni rack AI200 e AI250 a partire dal 2026 per fornire servizi di inferenza AI ad alte prestazioni sia nel Regno dell'Arabia Saudita che a livello globale. Tuttavia, permangono incongruenze temporali considerando che Qualcomm stessa prevede la disponibilità dell'AI250 solo nel 2027.

La comunicazione dell'azienda enfatizza le prestazioni a livello di rack e la capacità di memoria superiore per un'inferenza AI generativa rapida, con un eccellente rapporto prestazioni per dollaro per watt e un basso costo totale di proprietà. Tuttavia, restano numerosi interrogativi senza risposta: non è chiaro se i grandi hyperscaler abbiano manifestato interesse per queste soluzioni, né se saranno adatte per implementazioni on-premise.

Gli investitori sembrano comunque apprezzare questa nuova direzione strategica: il titolo Qualcomm ha registrato un balzo dell'11% in borsa lunedì scorso. Resta da vedere se l'azienda riuscirà dove aveva fallito in passato nel mercato dei data center, questa volta cavalcando l'onda dell'intelligenza artificiale con prodotti che promettono di massimizzare l'efficienza delle operazioni di inferenza, un segmento destinato a espandersi esponenzialmente nei prossimi anni.

Fonte dell'articolo: www.theregister.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Il ragno delle Canarie che ha dimezzato il suo genoma
  • #2
    Nascita e morte del CD: la tecnologia che ha cambiato tutto
  • #3
    Windows 7 “mini” da 69 MB: geniale o inutile?
  • #4
    Allenarsi rallenta il cuore (e ti fa guadagnare anni)
  • #5
    Intel rilancia: AVX e AMX tornano con Nova Lake
  • #6
    Siri cambia anima: l’AI di Google arriva su iPhone
Articolo 1 di 5
C'è chi è convinto che i large language model possano pensare
Un'analisi confronta il ragionamento CoT con i processi cognitivi umani e i risultati dei benchmark.
Immagine di C'è chi è convinto che i large language model possano pensare
1
Leggi questo articolo
Articolo 2 di 5
Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Dalle aule di Stanford ai laboratori Google, il nostro Grand Tour in Silicon Valley ha svelato il vero spirito della disruption AI. Abbiamo trovato una forte comunità italiana tra campus, startup e big tech: l'innovazione è qui.
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Leggi questo articolo
Articolo 3 di 5
Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
Per la resilienza industriale, gli UPS trifase sono un pilastro contro i blackout. Evitano danni e fermi. Caratteristiche chiave: modularità, scalabilità e monitoraggio remoto.
Immagine di Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
1
Leggi questo articolo
Articolo 4 di 5
25 strumenti AI per la creazione di contenuti e il marketing
Una guida analizza 25 strumenti IA per la creazione di contenuti, evidenziando una tendenza all'automazione accessibile che promette di abbassare la barriera d'ingresso al mercato.
Immagine di 25 strumenti AI per la creazione di contenuti e il marketing
Leggi questo articolo
Articolo 5 di 5
I colossi licenziano e usano l'AI, poi toccherà alle PMI?
I giganti USA (Amazon, Walmart, Google) stanno ristrutturando le operation in funzione dell'IA, tra tagli al personale e ridefinizione dei ruoli.
Immagine di I colossi licenziano e usano l'AI, poi toccherà alle PMI?
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.