Amazon Web Services ha svelato martedì una nuova soluzione denominata "AI Factories", progettata per permettere a grandi aziende e governi di ospitare sistemi di intelligenza artificiale direttamente nei propri data center. L'iniziativa, sviluppata in collaborazione con NVIDIA, rappresenta un'inversione di tendenza significativa nell'architettura cloud: invece di migrare i carichi di lavoro verso l'infrastruttura AWS, è Amazon a portare la propria tecnologia AI nelle infrastrutture dei clienti. Il modello è chiaro: il cliente fornisce l'energia elettrica e lo spazio fisico del data center, mentre AWS installa, gestisce e integra il sistema AI con gli altri servizi cloud dell'azienda di Seattle.
La mossa risponde a una crescente preoccupazione nel panorama enterprise: la sovranità dei dati. Multinazionali e istituzioni governative necessitano di controllo assoluto sulle proprie informazioni sensibili, evitando che queste possano finire su server condivisi, nelle mani di concorrenti o, peggio ancora, di potenze straniere avverse. Una AI Factory on-premise garantisce che i dati non lascino mai il perimetro aziendale, eliminando anche la condivisione dell'hardware sottostante con altri tenant cloud.
Il termine "AI Factory" non è casuale né originale. NVIDIA utilizza già questa denominazione per i propri sistemi hardware completi, che includono tutto il necessario per eseguire carichi di lavoro AI: dalle GPU ai componenti di networking specializzati. La collaborazione tra AWS e il colosso di Santa Clara si concretizza proprio in questa offerta congiunta, dove le aziende possono scegliere tra le ultime GPU Blackwell di NVIDIA o i chip proprietari Trainium3 di Amazon. L'ecosistema si completa con tecnologie di networking, storage, database e sicurezza sviluppate internamente da AWS, oltre all'integrazione con Amazon Bedrock (il servizio per la selezione e gestione di modelli AI) e AWS SageMaker AI (la piattaforma per la costruzione e l'addestramento dei modelli).
Il panorama competitivo rivela dinamiche analoghe. A ottobre, Microsoft ha presentato le proprie AI Factory destinate ai data center globali per gestire i carichi di lavoro OpenAI. Redmond non ha inizialmente comunicato la disponibilità di queste macchine estreme per cloud privati, concentrandosi invece sulla costruzione di "AI Superfactories" – data center all'avanguardia in fase di realizzazione in Wisconsin e Georgia, fortemente basati sull'ecosistema tecnologico NVIDIA. Il mese scorso, Microsoft ha inoltre delineato data center e servizi cloud localizzati in singoli paesi per affrontare proprio la questione della sovranità dei dati, includendo Azure Local, la soluzione hardware gestita installabile presso le sedi dei clienti.
L'aspetto paradossale dell'intera situazione non sfugge agli osservatori del settore. L'intelligenza artificiale, tecnologia considerata simbolo del cloud computing distribuito, sta spingendo i maggiori fornitori cloud a investire massicciamente in data center privati aziendali e architetture ibride. Un ritorno al passato che ricorda le strategie del 2009, quando l'industria si divideva tra infrastrutture on-premise e le prime soluzioni cloud emergenti. La differenza sostanziale risiede nelle motivazioni: non più semplici resistenze culturali alla migrazione cloud, ma necessità concrete legate alla compliance normativa, alla sicurezza nazionale e al controllo strategico sui dati più sensibili.