Nella ricerca sull'intelligenza artificiale applicata alla scienza, un gruppo di ricercatori della Duke University ha sviluppato un sistema che potrebbe rivoluzionare il modo in cui gli scienziati analizzano i fenomeni naturali complessi. Il framework, descritto sulla rivista npj Complexity il 17 dicembre, si ispira al lavoro dei grandi "dinamicisti" della storia – quegli scienziati che studiano sistemi in evoluzione nel tempo – per estrarre equazioni semplici e interpretabili da dati apparentemente caotici. L'obiettivo è colmare un divario sempre più evidente: mentre la quantità di dati disponibili cresce esponenzialmente, mancano strumenti efficaci per tradurre queste informazioni in regole scientifiche comprensibili e utilizzabili.
La sfida affrontata dal team guidato da Boyuan Chen, direttore del General Robotics Lab e professore associato di ingegneria meccanica e scienza dei materiali alla Duke, riguarda sistemi definiti "non lineari" – quelli in cui piccole variazioni nelle condizioni iniziali possono produrre effetti sproporzionati. Circuiti elettrici, pattern meteorologici, segnali biologici e dispositivi meccanici appartengono a questa categoria. La scoperta scientifica ha sempre dipeso dalla capacità di trovare rappresentazioni semplificate di processi complicati, ha spiegato Chen, che ha anche incarichi nei dipartimenti di ingegneria elettrica, informatica e computer science. Il problema è che spesso questi sistemi coinvolgono centinaia o migliaia di variabili interconnesse, rendendo praticamente impossibile per i ricercatori umani identificare manualmente le relazioni fondamentali.
Il framework sviluppato a Duke si basa su un'intuizione matematica formulata negli anni '30 da Bernard Koopman, che dimostrò come sistemi non lineari complessi possano essere rappresentati attraverso modelli lineari. La linearità è cruciale perché rende i sistemi matematicamente trattabili e interpretabili, consentendo l'utilizzo di metodi analitici consolidati. Tuttavia, applicare il principio di Koopman a sistemi reali presenta un ostacolo: la rappresentazione lineare richiede spesso la costruzione di centinaia di equazioni, ciascuna legata a una variabile diversa. Qui l'intelligenza artificiale diventa determinante, potendo gestire livelli di complessità ben oltre le capacità umane.
Dal punto di vista metodologico, il sistema analizza dati di serie temporali provenienti da esperimenti e identifica i pattern più significativi nell'evoluzione del sistema. Combinando deep learning con vincoli ispirati alla fisica, l'algoritmo riduce progressivamente il numero di variabili necessarie, mantenendo però la fedeltà al comportamento reale del sistema. Il risultato è un modello compatto che si comporta matematicamente come un sistema lineare pur rimanendo accurato nella descrizione di fenomeni complessi. Nei test condotti, questa riduzione ha portato a modelli più di dieci volte più piccoli rispetto a quelli prodotti da precedenti metodi di machine learning, conservando comunque capacità predittive affidabili a lungo termine.
I ricercatori hanno testato l'approccio su una varietà di sistemi: dal moto oscillatorio di un pendolo al comportamento non lineare di circuiti elettrici, fino a modelli utilizzati nelle scienze climatiche e nello studio dei circuiti neurali. Nonostante le profonde differenze tra questi fenomeni, l'intelligenza artificiale ha consistentemente individuato un numero ridotto di variabili nascoste che ne governano il comportamento. Sam Moore, primo autore dello studio e dottorando nel laboratorio di Chen, ha sottolineato che ciò che distingue questo metodo non è solo la precisione, ma l'interpretabilità: per un dinamicista, trovare queste strutture è come trovare i punti di riferimento di un nuovo paesaggio.
Un aspetto particolarmente rilevante del framework riguarda la sua capacità di identificare gli "attrattori" – stati stabili verso cui un sistema tende naturalmente nel tempo. Riconoscere questi stati è fondamentale per determinare se un sistema sta operando normalmente, se si sta allontanando gradualmente dalla stabilità o se si sta avvicinando a una transizione critica. Questa funzionalità risulta preziosa in applicazioni che spaziano dal monitoraggio di infrastrutture critiche alla comprensione di transizioni di fase in sistemi biologici. Il metodo si rivela particolarmente utile quando le equazioni tradizionali sono indisponibili, incomplete o troppo complesse da derivare analiticamente.
Chen e il suo team tengono a precisare che l'obiettivo non è sostituire la fisica o la modellazione tradizionale, ma estendere la capacità di ragionamento scientifico utilizzando dati quando la fisica sottostante è sconosciuta, nascosta o troppo complessa da formalizzare. Il sistema rappresenta quindi uno strumento complementare che potrebbe accelerare significativamente il processo di scoperta scientifica in domini dove la raccolta di dati abbondanti precede la comprensione teorica completa – una situazione sempre più comune nell'era dei big data.
Le prospettive future del progetto includono l'applicazione del framework a forme più ricche di dati, come video, audio e segnali provenienti da sistemi biologici complessi. Il team sta inoltre esplorando come il sistema potrebbe guidare attivamente la progettazione sperimentale, suggerendo quali dati raccogliere per rivelare più efficientemente la struttura di un sistema.