Nutanix ha presentato durante la conferenza .NEXT una nuova infrastruttura pensata per supportare agenti di intelligenza artificiale e applicazioni cloud-native, con due novità principali: un’estensione della piattaforma Nutanix Enterprise AI e l’introduzione di Cloud Native AOS, soluzione che integra servizi dati avanzati direttamente in ambienti Kubernetes.
Il cuore della questione è semplice e concreto: le aziende che sviluppano agenti intelligenti – in grado di operare autonomamente su input complessi – hanno bisogno di ambienti di esecuzione persistenti, scalabili e sicuri. Le soluzioni software non bastano se non vengono accompagnate da una struttura fisica adeguata, capace di gestire carichi variabili, garantire la continuità operativa e rendere sostenibile l’uso di modelli di grandi dimensioni. La “corporeità” dell’agente AI, quindi, si manifesta in forma di infrastruttura.
La piattaforma Cloud Native AOS consente di distribuire e gestire lo storage direttamente su cluster Kubernetes, anche in ambienti bare-metal, eliminando la dipendenza da un hypervisor. Allo stesso tempo, l’ultima versione della piattaforma Enterprise AI di Nutanix integra in profondità i microservizi NVIDIA per abilitare flussi di lavoro agentici.
Cloud Native AOS si rivolge a un’esigenza diffusa: mantenere il controllo dei dati distribuiti tra più ambienti, dalle sedi periferiche ai data center, fino agli hyperscaler. Grazie alla gestione unificata dei volumi di storage e alla protezione nativa dei dati, le imprese possono orchestrare applicazioni containerizzate senza dover replicare configurazioni per ogni ambiente. Questo è particolarmente importante per chi adotta Kubernetes non solo come orchestratore di container, ma come livello operativo centrale della propria infrastruttura IT.
Inoltre, la resilienza integrata nella soluzione consente di costruire strategie di disaster recovery nativamente distribuite: il sistema gestisce in automatico la replica e il ripristino dei dati tra zone di disponibilità differenti. Un vantaggio rilevante per tutti i casi in cui l’interruzione di servizio può generare danni economici o legali.
La piattaforma è progettata per funzionare anche in assenza di ambienti virtualizzati, sfruttando direttamente server bare-metal. Questa scelta tecnica risponde alla necessità di ridurre i livelli di astrazione per ottenere prestazioni più elevate, semplificando al tempo stesso le operazioni day-two, cioè quelle che seguono la messa in produzione di un’applicazione.
Il secondo annuncio riguarda invece Enterprise AI, la piattaforma di Nutanix per la gestione e la distribuzione di carichi di lavoro legati all’AI generativa e agentica. L’integrazione con NVIDIA AI Enterprise – in particolare con i framework NeMo e i microservizi NIM – punta a semplificare lo sviluppo di agenti AI modulari, riutilizzabili e integrabili su più applicazioni tramite endpoint condivisi. I modelli possono essere utilizzati come servizi comuni da più team e linee di business, riducendo il consumo di GPU, memoria e risorse Kubernetes.
Tra le funzionalità chiave figura l’accesso ai cosiddetti NVIDIA Blueprints, flussi di lavoro preconfigurati che permettono di costruire applicazioni agentiche partendo da modelli già ottimizzati per compiti specifici. NeMo Guardrails, invece, offre una serie di filtri intelligenti per monitorare l’output degli LLM, prevenendo contenuti inappropriati e migliorando la coerenza delle risposte.
Questi strumenti sono fondamentali per garantire sicurezza e governance nelle implementazioni aziendali. Il rischio di “allucinazioni” nei modelli, o l’esposizione involontaria a contenuti sensibili, può essere mitigato solo tramite meccanismi di controllo a livello di infrastruttura. In questo senso, Nutanix integra anche funzionalità di accesso sicuro ai dati strutturati e non strutturati, offrendo compatibilità con standard come NVIDIA GPUDirect Storage.
L’adozione di queste tecnologie è facilitata dalla possibilità di eseguire deployment flessibili: on-premises, in cloud pubblici o in ambienti ibridi, a seconda delle esigenze operative. La componente Kubernetes Platform di Nutanix consente la gestione unificata di flussi applicativi containerizzati, offrendo agli sviluppatori e agli amministratori strumenti coerenti per l’intero ciclo di vita.
A completare il quadro vi è la partnership strategica con Pure Storage, che integra i sistemi all-flash FlashArray con la virtualizzazione Nutanix AHV e le funzionalità di sicurezza della rete Flow. Questa soluzione congiunta è pensata per ambienti mission-critical ad alta intensità di dati, compresi quelli che ospitano modelli AI complessi. La sinergia tra le due aziende ha già portato alla definizione di un’infrastruttura scalabile supportata dai principali vendor hardware, inclusi Cisco, Dell, HPE, Lenovo e Supermicro.
Anche Cisco espande la sua integrazione attraverso il programma FlashStack, che ora include design validati per ambienti Nutanix. Questo consente una visibilità unificata e il supporto congiunto tra più componenti dell’infrastruttura, un aspetto critico per le imprese che devono rispondere rapidamente a incidenti o necessità di scalabilità.
Il messaggio che emerge dalle novità annunciate è chiaro: l’intelligenza artificiale non è solo software, ma richiede ambienti di esecuzione adattivi, verificabili e intelligenti. Senza una piattaforma solida a supporto, gli agenti rischiano di essere fragili, costosi e difficili da manutenere. La direzione intrapresa da Nutanix – al pari di quella seguita da altri attori come Red Hat, VMware Tanzu o Google Anthos – evidenzia la tendenza a fondere AI e infrastruttura in una logica unica e coerente.
Per chi lavora nello sviluppo di prodotti basati su AI, questi annunci rappresentano una spinta ulteriore verso la standardizzazione dell’agentività come paradigma applicativo. Ma standardizzare significa anche dotarsi di strumenti di governo, osservabilità e automazione. E ciò non può che passare attraverso un’infrastruttura che non sia solo tecnicamente capace, ma anche operativamente sostenibile.