Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Maia 200, l'acceleratore Microsoft a 3nm è realtà
Business
Immagine di Il segreto per valorizzare l'IA? La strategia Il segreto per valorizzare l'IA? La strategia...
Immagine di PA digitale, il nodo resta la fiducia nell’IA PA digitale, il nodo resta la fiducia nell’IA...

Maia 200, l'acceleratore Microsoft a 3nm è realtà

Microsoft presenta Maia 200, acceleratore per inferenza AI prodotto processo TSMC 3nm ed equipaggiato con 216GB di memoria HBM3e.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale @Tom's Hardware Italia

Pubblicato il 26/01/2026 alle 17:00

La notizia in un minuto

  • Maia 200 è il nuovo acceleratore AI di Microsoft con efficienza superiore del 30% rispetto ai sistemi precedenti e prestazioni triple rispetto al Trainium di Amazon, grazie a 216GB di memoria HBM3e e oltre 100 miliardi di transistor
  • L'innovativa metodologia di sviluppo basata su emulazione su larga scala ha permesso di dimezzare i tempi di deployment, rendendo i modelli AI operativi entro pochi giorni dalla ricezione dei chip fisici
  • Il chip sarà utilizzato inizialmente per progetti interni come Microsoft Foundry e Copilot, con SDK in anteprima per sviluppatori e futura disponibilità per clienti esterni

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Microsoft ha svelato oggi Maia 200, il suo nuovo acceleratore per l'intelligenza artificiale progettato specificamente per l'inferenza su larga scala. L'azienda di Redmond punta a rivoluzionare l'economia dell'AI con un chip che promette prestazioni superiori rispetto ai principali concorrenti del settore, dal Trainium di Amazon ai TPU di Google. Il sistema è già operativo in alcuni datacenter americani ed è pronto per debuttare nel resto del mondo.

Il vero punto di forza di questa soluzione risiede nel rapporto prezzo-prestazioni, un fattore decisivo quando si tratta di elaborare modelli linguistici di enormi dimensioni. Secondo i dati forniti da Microsoft, Maia 200 offre un'efficienza superiore del 30% rispetto ai sistemi precedentemente utilizzati dall'azienda, posizionandosi come il sistema di inferenza più efficiente mai implementato nei suoi datacenter. Le prestazioni dichiarate parlano di oltre 10 petaFLOPS in FP4 e circa 5 petaFLOPS in FP8, per una capacità tre volte superiore rispetto al Trainium di terza generazione di Amazon.

Immagine id 82078

La strategia di sviluppo adottata dal team di ingegneri Microsoft rappresenta forse l'aspetto più interessante dell'intero progetto. Anziché attendere la disponibilità del silicio finale per testare il sistema, l'azienda ha creato uno dei più grandi modelli di emulazione dell'industria, permettendo di validare kernel e tipi di dati a bassa precisione ben prima dell'arrivo dei chip fisici. Questa metodologia ha permesso ai modelli AI di funzionare su Maia 200 entro pochi giorni dalla ricezione dei primi chip assemblati, riducendo a meno della metà il tempo normalmente necessario per portare un'infrastruttura AI dal laboratorio al datacenter.

L'architettura hardware del chip si basa sul processo produttivo a 3 nanometri di TSMC e integra oltre 100 miliardi di transistor. Ma la vera innovazione non sta solo nella potenza di calcolo grezza: il sottosistema di memoria è stato completamente riprogettato per affrontare uno dei principali colli di bottiglia nell'elaborazione dell'AI. Con 216GB di memoria HBM3e capace di trasferire 7 terabyte al secondo, più 272MB di SRAM integrata nel chip ed engine dedicati al movimento dei dati, Maia 200 può mantenere localmente una porzione maggiore dei pesi del modello, riducendo il numero di dispositivi necessari per eseguire i modelli più grandi.

Il tempo dal primo chip al primo rack installato è stato dimezzato rispetto ai programmi AI comparabili

Sul fronte della connettività, Microsoft ha introdotto un'architettura a due livelli basata su Ethernet standard, una scelta che contrasta con le soluzioni proprietarie adottate da alcuni concorrenti. Ogni acceleratore dispone di 1,4 terabyte al secondo di banda dedicata attraverso 28 connessioni da 400 gigabit Ethernet, permettendo operazioni collettive ad alte prestazioni su cluster fino a 6.144 acceleratori. All'interno di ogni vassoio, quattro acceleratori Maia sono completamente interconnessi con collegamenti diretti non commutati, mantenendo le comunicazioni ad alta banda locale per un'efficienza ottimale.

Il sistema di raffreddamento rappresenta un altro elemento distintivo: Microsoft ha sviluppato una seconda generazione di unità di scambio termico a liquido a circuito chiuso, validata anticipatamente insieme agli elementi di rete backend. L'integrazione nativa con il piano di controllo di Azure fornisce capacità di sicurezza, telemetria, diagnostica e gestione sia a livello di chip che di rack, massimizzando l'affidabilità per i carichi di lavoro AI critici in produzione.

Immagine id 82079

I primi utilizzatori di Maia 200 saranno interni a Microsoft: il team Superintelligence sfrutterà gli acceleratori per la generazione di dati sintetici e l'apprendimento per rinforzo destinati a migliorare i modelli di nuova generazione sviluppati internamente. In questi scenari, il design particolare di Maia 200 accelera la velocità con cui è possibile generare e filtrare dati di alta qualità specifici per dominio, come testo, istruzioni o codice, alimentando l'addestramento successivo con segnali più freschi e mirati.

L'utilizzo si estenderà poi a Microsoft Foundry e Microsoft 365 Copilot, integrandosi nell'infrastruttura AI eterogenea distribuita sulla piattaforma cloud globale dell'azienda. In futuro è prevista anche una disponibilità più ampia per i clienti esterni. Per facilitare l'adozione, Microsoft ha annunciato l'apertura dell'anteprima dell'SDK di Maia, invitando accademici, sviluppatori, laboratori di AI all'avanguardia e contributori di progetti open-source a esplorare l'ottimizzazione di modelli e carichi di lavoro.

Il kit di sviluppo include un compilatore Triton, supporto per PyTorch, programmazione a basso livello in NPL e un simulatore Maia con calcolatore dei costi per ottimizzare l'efficienza nelle fasi iniziali del ciclo di vita del codice. Lo stack software integrato verticalmente e il modello di programmazione spaziale offrono agli utenti esperti un controllo granulare quando necessario, pur mantenendo la portabilità del codice su un insieme eterogeneo di acceleratori hardware.

Mentre Microsoft finalizza il dispiegamento di Maia 200 attraverso l'infrastruttura globale, i team di progettazione stanno già lavorando sulle generazioni future, con l'obiettivo che ciascuna stabilisca nuovi parametri di riferimento e offra prestazioni ed efficienza sempre migliori per i carichi di lavoro AI più importanti, in un settore dove l'innovazione procede a ritmi serrati e dove il controllo diretto dell'hardware diventa sempre più strategico per i grandi fornitori di servizi cloud.

Le notizie più lette

#1
Aggiornamento di emergenza per Chrome: installatelo subito
5

Hardware

Aggiornamento di emergenza per Chrome: installatelo subito

#2
La dieta nordica riduce la mortalità del 23%
4

Scienze

La dieta nordica riduce la mortalità del 23%

#3
Smettere di mangiare 3 ore prima migliora il cuore

Scienze

Smettere di mangiare 3 ore prima migliora il cuore

#4
Brutte notizie per PS6 e Nintendo Switch 2
5

Videogioco

Brutte notizie per PS6 e Nintendo Switch 2

#5
Micron 9650 diventa il primo SSD PCIe 6.0 prodotto in massa
5

Hardware

Micron 9650 diventa il primo SSD PCIe 6.0 prodotto in massa

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

PA digitale, il nodo resta la fiducia nell’IA
1

Business

PA digitale, il nodo resta la fiducia nell’IA

Di Antonello Buzzi
Il segreto per valorizzare l'IA? La strategia
1

Business

Il segreto per valorizzare l'IA? La strategia

Di Antonino Caffo
"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

Business

"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

Di Antonino Caffo
Moltbot, il creatore entra nel team OpenAI
1

Business

Moltbot, il creatore entra nel team OpenAI

Di Antonello Buzzi
AI in azienda, protezione dei dati e sovranità: scegliere un LLM senza farsi scegliere

Business

AI in azienda, protezione dei dati e sovranità: scegliere un LLM senza farsi scegliere

Di Antonio Ieranò
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.