Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Editor's Choice
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Qualcomm, nuovi chip dedicati ai data center AI
Business
Immagine di GPT-5.4 è qui: l'AI che usa il PC meglio di te GPT-5.4 è qui: l'AI che usa il PC meglio di te...
Immagine di Hanno bucato la mia azienda, ora che faccio? Hanno bucato la mia azienda, ora che faccio?...

Qualcomm, nuovi chip dedicati ai data center AI

Kit per inferenza efficiente basato su Snapdragon, con promesse di prestazioni ottimali ma pochi dettagli tecnici al momento

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 28/10/2025 alle 12:26

La notizia in un minuto

  • Qualcomm entra nel mercato dei data center AI con le schede acceleratrici AI200 e AI250, sfidando Nvidia e AMD con un focus su efficienza energetica e capacità di memoria superiore
  • L'AI250 promette un salto prestazionale grazie al near-memory computing, con larghezza di banda dieci volte superiore e consumi ridotti rispetto alle soluzioni attuali
  • La strategia si basa sull'esperienza delle NPU Hexagon sviluppate per il mobile, con Humain come primo cliente significativo che prevede 200 megawatt di implementazioni dal 2026

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Qualcomm ha svelato due nuove schede acceleratrici, denominate AI200 e AI250, progettate specificamente per gestire carichi di lavoro di inferenza AI, accompagnate da sistemi rack completi per ospitarle. L'azienda così torna nel settore dei data center dopo precedenti tentativi poco fortunati focalizzati sulle CPU tradizionali.

Questa volta Qualcomm si concentra su tre criticità che attanagliano gli operatori del settore: il consumo energetico esorbitante necessario per alimentare le applicazioni di intelligenza artificiale, la conseguente generazione di calore che richiede infrastrutture di raffreddamento costose ed energivore, e infine la quantità di memoria disponibile negli acceleratori, fattore determinante per stabilire quali modelli possono essere eseguiti e quanti contemporaneamente su una singola unità.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Sul fronte delle specifiche tecniche, Qualcomm ha mantenuto un profilo prudente rivelando dettagli limitati. La scheda AI200 supporta 768 GB di memoria LPDDR per unità, una capacità superiore rispetto ai chip flagship proposti attualmente da Nvidia e AMD. La versione AI250, invece, promette prestazioni ancora più elevate grazie a un'architettura di memoria innovativa basata sul near-memory computing, che secondo l'azienda dovrebbe garantire una larghezza di banda effettiva dieci volte superiore e un consumo energetico notevolmente ridotto rispetto alle soluzioni esistenti.

Un salto generazionale nell'efficienza dei carichi di inferenza AI

I sistemi rack che ospiteranno queste schede acceleratrici saranno preconfigurati e integreranno raffreddamento a liquido diretto, connettività PCIe per lo scale-up, Ethernet per lo scale-out e tecnologie per garantire la sicurezza dei carichi di lavoro AI. Il consumo energetico a livello di rack è stimato in 160 kW, una cifra che Qualcomm posiziona come competitiva nel panorama attuale.

L'annuncio non fa menzione di CPU, nonostante il CEO Cristiano Amon avesse dichiarato lo scorso maggio che l'azienda avrebbe sfruttato la propria esperienza nella costruzione di processori per "pensare a cluster di inferenza caratterizzati da alte prestazioni con consumi energetici molto bassi". Invece, l'approccio sembra basarsi sulla leadership già acquisita nelle NPU (Neural Processing Unit) di Qualcomm, probabilmente un riferimento diretto alle unità di elaborazione neurale marchiate Hexagon integrate nei processori per laptop e dispositivi mobili.

La tecnologia Hexagon più recente, incorporata nel SoC Snapdragon 8 Elite, include 12 acceleratori scalari e otto acceleratori vettoriali, supportando precisioni INT2, INT4, INT8, INT16, FP8 e FP16. Questa expertise nel settore mobile sembra costituire la base per l'incursione nel mercato enterprise, con un focus particolare sul rapporto tra prestazioni, costo ed efficienza energetica.

Humain, un'azienda saudita specializzata in intelligenza artificiale, ha dichiarato di puntare a implementare 200 megawatt di soluzioni rack AI200 e AI250 a partire dal 2026 per fornire servizi di inferenza AI ad alte prestazioni sia nel Regno dell'Arabia Saudita che a livello globale. Tuttavia, permangono incongruenze temporali considerando che Qualcomm stessa prevede la disponibilità dell'AI250 solo nel 2027.

La comunicazione dell'azienda enfatizza le prestazioni a livello di rack e la capacità di memoria superiore per un'inferenza AI generativa rapida, con un eccellente rapporto prestazioni per dollaro per watt e un basso costo totale di proprietà. Tuttavia, restano numerosi interrogativi senza risposta: non è chiaro se i grandi hyperscaler abbiano manifestato interesse per queste soluzioni, né se saranno adatte per implementazioni on-premise.

Gli investitori sembrano comunque apprezzare questa nuova direzione strategica: il titolo Qualcomm ha registrato un balzo dell'11% in borsa lunedì scorso. Resta da vedere se l'azienda riuscirà dove aveva fallito in passato nel mercato dei data center, questa volta cavalcando l'onda dell'intelligenza artificiale con prodotti che promettono di massimizzare l'efficienza delle operazioni di inferenza, un segmento destinato a espandersi esponenzialmente nei prossimi anni.

Fonte dell'articolo: www.theregister.com

Le notizie più lette

#1
Surfshark VPN - Recensione
2

Hardware

Surfshark VPN - Recensione

#2
CyberGhost VPN - Recensione
4

Hardware

CyberGhost VPN - Recensione

#3
WhatsApp, 7 cose da fare subito per non farti fregare
6

Smartphone

WhatsApp, 7 cose da fare subito per non farti fregare

#4
Windows 11, 9 novità nell'update di marzo 2026
2

Hardware

Windows 11, 9 novità nell'update di marzo 2026

#5
Project Helix vs Steam Machine sarà la "console war" del futuro

Editoriale

Project Helix vs Steam Machine sarà la "console war" del futuro

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Hanno bucato la mia azienda, ora che faccio?
1

Business

Hanno bucato la mia azienda, ora che faccio?

Di Antonino Caffo
GPT-5.4 è qui: l'AI che usa il PC meglio di te
1

Business

GPT-5.4 è qui: l'AI che usa il PC meglio di te

Di Roberto Buonanno
Mandare una mail con altri in CC ti può mettere nei guai
2

Business

Mandare una mail con altri in CC ti può mettere nei guai

Di Avv. Giuseppe Croari
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.