La simulazione dell'intera Via Lattea, stella per stella, rappresenta da decenni una delle sfide più ambiziose dell'astrofisica computazionale. Ora, un gruppo di ricercatori guidato da Keiya Hirashima del RIKEN Center for Interdisciplinary Theoretical and Mathematical Sciences in Giappone, in collaborazione con l'Università di Tokyo e l'Universitat de Barcelona, ha sviluppato il primo modello capace di seguire l'evoluzione di oltre 100 miliardi di stelle individuali attraverso 10.000 anni di storia galattica. Il risultato, presentato alla conferenza internazionale di supercalcolo SC '25, è stato ottenuto combinando intelligenza artificiale e tecniche avanzate di simulazione numerica, segnando un punto di svolta non solo per l'astronomia ma anche per il calcolo ad alte prestazioni e la modellazione scientifica assistita da AI.
Il principale ostacolo alla simulazione stellare della Via Lattea risiede nella complessità dei fenomeni fisici coinvolti e nelle loro scale temporali estremamente diverse. Per costruire un modello accurato è necessario calcolare simultaneamente l'interazione gravitazionale tra miliardi di oggetti, il comportamento fluidodinamico del gas interstellare, la nucleosintesi degli elementi chimici e l'impatto delle esplosioni di supernova. Questi processi si dispiegano su intervalli che spaziano da pochi anni a miliardi di anni, con eventi rapidi come le supernove che richiedono incrementi temporali di calcolo estremamente ridotti. Prima di questo lavoro, le simulazioni più sofisticate potevano rappresentare sistemi con una massa equivalente a circa un miliardo di soli, ben lontani dai 100 miliardi di stelle della nostra galassia.
Il limite tecnico non è solo concettuale ma profondamente pratico. Nelle simulazioni tradizionali, la "particella" più piccola rappresenta tipicamente un gruppo di circa 100 stelle, una semplificazione che elimina i comportamenti individuali e riduce l'accuratezza dei processi su piccola scala. Con i modelli fisici convenzionali più avanzati, simulare la Via Lattea stella per stella richiederebbe circa 315 ore di calcolo per ogni milione di anni di evoluzione galattica. Tradotto in termini pratici, modellare un miliardo di anni di attività richiederebbe oltre 36 anni di tempo reale, un costo computazionale semplicemente insostenibile anche con i supercomputer più potenti attualmente disponibili.
La soluzione proposta dal team di Hirashima si basa su un approccio ibrido che fonde un modello surrogate basato su deep learning con le simulazioni fisiche standard. Il componente di intelligenza artificiale è stato addestrato utilizzando simulazioni ad alta risoluzione di esplosioni stellari, apprendendo a prevedere la dispersione del gas nei 100.000 anni successivi a una supernova senza richiedere risorse computazionali aggiuntive dalla simulazione principale. Questo ha permesso di catturare sia il comportamento complessivo della galassia sia i dettagli degli eventi su piccola scala, incluse le caratteristiche individuali delle singole supernove. Il metodo è stato validato confrontando i risultati con esecuzioni su larga scala condotte sul supercomputer Fugaku del RIKEN e sul Miyabi Supercomputer System dell'Università di Tokyo.
I risultati dimostrano un salto prestazionale senza precedenti: la simulazione è 100 volte più rapida rispetto ai metodi precedenti e include 100 volte più stelle delle simulazioni più sofisticate sviluppate finora. Simulare un milione di anni di evoluzione ha richiesto appena 2,78 ore, rendendo possibile completare un miliardo di anni in circa 115 giorni anziché 36 anni. Questo livello di efficienza apre prospettive completamente nuove per lo studio della formazione stellare, dell'evoluzione chimica galattica e della distribuzione della materia nella Via Lattea, permettendo confronti diretti tra previsioni teoriche e dati osservativi con una precisione prima impossibile.
Le implicazioni di questa metodologia si estendono ben oltre l'astrofisica galattica. Molti altri campi della scienza computazionale affrontano sfide analoghe nel collegare fisica su piccola scala con comportamenti su larga scala: climatologia, oceanografia, meteorologia e modellistica dei sistemi terrestri potrebbero tutti beneficiare di strumenti capaci di accelerare simulazioni complesse multi-scala. Come sottolinea Hirashima, "Integrare l'intelligenza artificiale con il calcolo ad alte prestazioni segna un cambiamento fondamentale nel modo in cui affrontiamo problemi multi-scala e multi-fisica nelle scienze computazionali". Il ricercatore evidenzia inoltre che questa realizzazione dimostra come le simulazioni accelerate dall'AI possano andare oltre il semplice riconoscimento di pattern per diventare un autentico strumento di scoperta scientifica.
Le prospettive future sono particolarmente promettenti per la comprensione dell'origine degli elementi chimici che hanno reso possibile la vita. Tracciare con precisione come carbonio, ossigeno, ferro e altri elementi essenziali si sono formati e dispersi attraverso generazioni successive di stelle richiede esattamente il tipo di simulazione ad alta risoluzione che questa tecnologia rende ora possibile. I prossimi passi includeranno l'estensione temporale delle simulazioni a miliardi di anni di evoluzione galattica e l'integrazione di fenomeni fisici aggiuntivi come la radiazione stellare e i campi magnetici, con l'obiettivo di costruire modelli sempre più fedeli alla complessa realtà della nostra galassia e, potenzialmente, di altre strutture cosmiche simili.