NVIDIA accelera sulla strategia dell'intelligenza artificiale aperta con una mossa a doppio binario che ridefinisce il suo posizionamento nel settore: l'acquisizione di SchedMD, azienda dietro al sistema di gestione del carico di lavoro Slurm, e il lancio di una nuova famiglia di modelli AI open source denominata Nemotron 3. Le due iniziative, annunciate simultaneamente lunedì, rivelano l'ambizione del colosso dei semiconduttori di consolidare l'intera infrastruttura necessaria allo sviluppo dell'AI di prossima generazione, dall'hardware fino agli strumenti software fondamentali.
L'acquisizione di SchedMD rappresenta un tassello strategico nell'ecosistema del calcolo ad alte prestazioni. Slurm, lanciato originariamente nel 2002, è diventato lo standard de facto per la gestione dei carichi di lavoro nei cluster HPC e nelle infrastrutture AI, orchestrando la distribuzione delle risorse computazionali in migliaia di data center in tutto il mondo. Il software open source gestisce l'allocazione dinamica delle risorse, la schedulazione dei job e il monitoraggio delle prestazioni, elementi critici quando si tratta di addestrare modelli di linguaggio di grandi dimensioni o eseguire simulazioni complesse.
SchedMD è stata fondata nel 2010 dai principali sviluppatori di Slurm, Morris Jette e Danny Auble, quest'ultimo attualmente CEO dell'azienda. NVIDIA ha mantenuto il riserbo sui termini finanziari dell'operazione, limitandosi a confermare che Slurm continuerà a essere sviluppato come progetto open source vendor-neutral. La collaborazione tra le due realtà risale a oltre un decennio fa, periodo durante il quale Slurm è diventato componente essenziale per l'orchestrazione dei sistemi GPU-accelerati di NVIDIA.
L'acquisizione arriva in un momento in cui l'infrastruttura per l'AI generativa sta diventando sempre più complessa e stratificata. NVIDIA ha dichiarato nel suo blog post che Slurm costituisce un'infrastruttura critica per l'AI generativa e che l'azienda intende investire ulteriormente nella tecnologia per "accelerare" il suo accesso a sistemi diversificati. Una mossa che consolida il controllo dell'azienda non solo sull'hardware GPU ma anche sugli strumenti che permettono di sfruttarlo al massimo delle sue potenzialità.
Parallelamente all'acquisizione, NVIDIA ha rilasciato Nemotron 3, presentata come la famiglia di modelli aperti più efficiente per la costruzione di agenti AI accurati. L'architettura modulare prevede tre varianti ottimizzate per casi d'uso differenti: Nemotron 3 Nano, un modello compatto progettato per operazioni specifiche e deployment su dispositivi con risorse limitate; Nemotron 3 Super, ottimizzato per applicazioni che richiedono l'orchestrazione di sistemi multi-agente; e Nemotron 3 Ultra, destinato a scenari computazionalmente più impegnativi che richiedono capacità di ragionamento avanzate.
"L'innovazione aperta è il fondamento del progresso nell'AI", ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. "Con Nemotron, stiamo trasformando l'AI avanzata in una piattaforma aperta che offre agli sviluppatori la trasparenza e l'efficienza necessarie per costruire sistemi agentici su larga scala". Una dichiarazione che sottolinea lo shift strategico di un'azienda tradizionalmente associata a ecosistemi proprietari verso un approccio più collaborativo.
Negli ultimi mesi NVIDIA ha intensificato gli sforzi nel campo dell'open source AI. La scorsa settimana l'azienda ha annunciato Alpamayo-R1, un modello di visione e linguaggio con capacità di ragionamento dedicato alla ricerca sulla guida autonoma. Contestualmente, ha ampliato la documentazione e i workflow relativi ai modelli Cosmos, rilasciati con licenza permissiva, che permettono di simulare ambienti fisici per l'addestramento di sistemi robotici e veicoli autonomi.
Questa attività frenetica riflette la scommessa di NVIDIA secondo cui l'AI fisica rappresenterà la prossima frontiera per le sue GPU. L'obiettivo dichiarato è posizionarsi come fornitore di riferimento per le numerose aziende di robotica e guida autonoma che necessitano di hardware e software per sviluppare i "cervelli" dietro queste tecnologie. Un mercato potenzialmente vasto che potrebbe replicare, se non superare, il boom dell'AI generativa degli ultimi due anni, ma con requisiti computazionali ancora più elevati e la necessità di inferenza in tempo reale in ambienti non strutturati.