Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Non puoi parlare se non sei competente, la Cina blocca gli influencer Non puoi parlare se non sei competente, la Cina blocca gli i...
Immagine di Perché l'AGI potrebbe essere impossibile da raggiungere Perché l'AGI potrebbe essere impossibile da raggiungere...

Qualcomm, nuovi chip dedicati ai data center AI

Kit per inferenza efficiente basato su Snapdragon, con promesse di prestazioni ottimali ma pochi dettagli tecnici al momento

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 28/10/2025 alle 12:26

La notizia in un minuto

  • Qualcomm entra nel mercato dei data center AI con le schede acceleratrici AI200 e AI250, sfidando Nvidia e AMD con un focus su efficienza energetica e capacità di memoria superiore
  • L'AI250 promette un salto prestazionale grazie al near-memory computing, con larghezza di banda dieci volte superiore e consumi ridotti rispetto alle soluzioni attuali
  • La strategia si basa sull'esperienza delle NPU Hexagon sviluppate per il mobile, con Humain come primo cliente significativo che prevede 200 megawatt di implementazioni dal 2026
Riassunto generato con l'IA. Potrebbe non essere accurato.

Qualcomm ha svelato due nuove schede acceleratrici, denominate AI200 e AI250, progettate specificamente per gestire carichi di lavoro di inferenza AI, accompagnate da sistemi rack completi per ospitarle. L'azienda così torna nel settore dei data center dopo precedenti tentativi poco fortunati focalizzati sulle CPU tradizionali.

Questa volta Qualcomm si concentra su tre criticità che attanagliano gli operatori del settore: il consumo energetico esorbitante necessario per alimentare le applicazioni di intelligenza artificiale, la conseguente generazione di calore che richiede infrastrutture di raffreddamento costose ed energivore, e infine la quantità di memoria disponibile negli acceleratori, fattore determinante per stabilire quali modelli possono essere eseguiti e quanti contemporaneamente su una singola unità.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Sul fronte delle specifiche tecniche, Qualcomm ha mantenuto un profilo prudente rivelando dettagli limitati. La scheda AI200 supporta 768 GB di memoria LPDDR per unità, una capacità superiore rispetto ai chip flagship proposti attualmente da Nvidia e AMD. La versione AI250, invece, promette prestazioni ancora più elevate grazie a un'architettura di memoria innovativa basata sul near-memory computing, che secondo l'azienda dovrebbe garantire una larghezza di banda effettiva dieci volte superiore e un consumo energetico notevolmente ridotto rispetto alle soluzioni esistenti.

Un salto generazionale nell'efficienza dei carichi di inferenza AI

I sistemi rack che ospiteranno queste schede acceleratrici saranno preconfigurati e integreranno raffreddamento a liquido diretto, connettività PCIe per lo scale-up, Ethernet per lo scale-out e tecnologie per garantire la sicurezza dei carichi di lavoro AI. Il consumo energetico a livello di rack è stimato in 160 kW, una cifra che Qualcomm posiziona come competitiva nel panorama attuale.

L'annuncio non fa menzione di CPU, nonostante il CEO Cristiano Amon avesse dichiarato lo scorso maggio che l'azienda avrebbe sfruttato la propria esperienza nella costruzione di processori per "pensare a cluster di inferenza caratterizzati da alte prestazioni con consumi energetici molto bassi". Invece, l'approccio sembra basarsi sulla leadership già acquisita nelle NPU (Neural Processing Unit) di Qualcomm, probabilmente un riferimento diretto alle unità di elaborazione neurale marchiate Hexagon integrate nei processori per laptop e dispositivi mobili.

La tecnologia Hexagon più recente, incorporata nel SoC Snapdragon 8 Elite, include 12 acceleratori scalari e otto acceleratori vettoriali, supportando precisioni INT2, INT4, INT8, INT16, FP8 e FP16. Questa expertise nel settore mobile sembra costituire la base per l'incursione nel mercato enterprise, con un focus particolare sul rapporto tra prestazioni, costo ed efficienza energetica.

Humain, un'azienda saudita specializzata in intelligenza artificiale, ha dichiarato di puntare a implementare 200 megawatt di soluzioni rack AI200 e AI250 a partire dal 2026 per fornire servizi di inferenza AI ad alte prestazioni sia nel Regno dell'Arabia Saudita che a livello globale. Tuttavia, permangono incongruenze temporali considerando che Qualcomm stessa prevede la disponibilità dell'AI250 solo nel 2027.

La comunicazione dell'azienda enfatizza le prestazioni a livello di rack e la capacità di memoria superiore per un'inferenza AI generativa rapida, con un eccellente rapporto prestazioni per dollaro per watt e un basso costo totale di proprietà. Tuttavia, restano numerosi interrogativi senza risposta: non è chiaro se i grandi hyperscaler abbiano manifestato interesse per queste soluzioni, né se saranno adatte per implementazioni on-premise.

Gli investitori sembrano comunque apprezzare questa nuova direzione strategica: il titolo Qualcomm ha registrato un balzo dell'11% in borsa lunedì scorso. Resta da vedere se l'azienda riuscirà dove aveva fallito in passato nel mercato dei data center, questa volta cavalcando l'onda dell'intelligenza artificiale con prodotti che promettono di massimizzare l'efficienza delle operazioni di inferenza, un segmento destinato a espandersi esponenzialmente nei prossimi anni.

Fonte dell'articolo: www.theregister.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Tornano le ricariche gratis per chi compra Tesla
  • #2
    Luminosità e contrasto: la "terza via" per un televisore ideale
  • #3
    In calo da ottobre, ora questo SSD a 35€ è più interessante che mai
  • #4
    ASUS ROG NUC 2025, potenza desktop in formato mini | Test & Recensione
  • #5
    Huawei lancia nuovi PC con CPU e OS cinesi proprietari
  • #6
    Scoperto il trucco mentale per recuperare i ricordi
Articolo 1 di 5
Perché l'AGI potrebbe essere impossibile da raggiungere
No, non è quello che pensi e, soprattutto è un vettore, non una variabile booleana
Immagine di Perché l'AGI potrebbe essere impossibile da raggiungere
12
Leggi questo articolo
Articolo 2 di 5
Non puoi parlare se non sei competente, la Cina blocca gli influencer
La Cina impone agli influencer che trattano temi sensibili (salute, diritto, finanza, educazione) la competenza certificata e la trasparenza sui contenuti AI, esercitando un controllo politico.
Immagine di Non puoi parlare se non sei competente, la Cina blocca gli influencer
18
Leggi questo articolo
Articolo 3 di 5
QNAP lancia il NAS ZFS TS-h2477AXU-RP: 24 bay e PCIe Gen 5
QNAP ha presentato il TS-h2477AXU-RP, un NAS enterprise ZFS a 24 bay con CPU AMD Ryzen 7000 e slot M.2 PCIe Gen 5.
Immagine di QNAP lancia il NAS ZFS TS-h2477AXU-RP: 24 bay e PCIe Gen 5
1
Leggi questo articolo
Articolo 4 di 5
C'è un forte segnale alle big tech nel team del nuovo sindaco di New York City
Lina Khan, ex capo della Federal Trade Commission, guiderà la transizione economica di Mamdani a New York, sfidando Wall Street e Big Tech con politiche antitrust e tasse sui redditi oltre 1 milione di dollari
Immagine di C'è un forte segnale alle big tech nel team del nuovo sindaco di New York City
1
Leggi questo articolo
Articolo 5 di 5
Google presenta Ironwood: supercalcolo AI senza compromessi
Google Cloud lancia Ironwood, TPU di settima generazione con prestazioni 4x superiori, e nuove istanze Axion per inferenza AI e carichi di lavoro agentici.
Immagine di Google presenta Ironwood: supercalcolo AI senza compromessi
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.