Dopo 21 anni di elaborazione distribuita attraverso milioni di computer domestici in tutto il mondo, il progetto SETI@home dell'Università di Berkeley ha finalmente completato l'analisi dei dati raccolti dall'osservatorio di Arecibo, pubblicando risultati che ridefiniscono gli standard della ricerca di civiltà extraterrestri. L'iniziativa, che tra il 1999 e il 2020 ha rappresentato uno dei pilastri del calcolo distribuito volontario, ha processato 12 miliardi di rilevamenti radio riducendoli a circa 100 segnali candidati degni di ulteriore investigazione. Sebbene nessuna prova definitiva di intelligenza extraterrestre sia emersa, le conclusioni metodologiche pubblicate su The Astronomical Journal offrono insegnamenti cruciali per le future ricerche di tecnofirme cosmiche.
Il progetto nacque dalla visione del informatico David Anderson, che a metà degli anni '90 studiava il calcolo distribuito come alternativa ai supercomputer per problemi computazionali complessi. Collaborando con l'astronomo Eric Korpela e l'ingegnere elettronico Dan Werthimer, Anderson trasformò questa tecnologia in uno strumento per analizzare i dati radio del telescopio di Arecibo, all'epoca il più grande radiotelescopio al mondo con i suoi 300 metri di diametro. L'approccio "commensale" prevedeva la registrazione passiva dei segnali mentre altri astronomi utilizzavano l'antenna per le proprie ricerche, coprendo così un terzo dell'intera volta celeste con osservazioni multiple.
La risposta del pubblico superò ogni previsione. Anderson ricorda che i calcoli iniziali si basavano su 50.000 volontari, ma nel giro di pochi giorni dal lancio nel 1999 si registrarono 200.000 download del software, che raggiunsero i 2 milioni di utenti entro un anno. Al picco dell'attività, oltre un milione di persone in più di 100 paesi contribuiva con la potenza di calcolo dei propri PC durante i periodi di inattività, permettendo un'analisi impossibile con le risorse computazionali tradizionali dell'epoca.
Il software sviluppato da Korpela eseguiva trasformate discrete di Fourier sui dati radio di Arecibo, scomponendo le frequenze in bin elementari e analizzando gli spostamenti Doppler che indicano il movimento relativo tra sorgente e ricevitore. La sfida computazionale era enorme: per coprire tutte le possibili variazioni di frequenza dovute al moto, l'algoritmo doveva considerare decine di migliaia di tassi di deriva, moltiplicando per 10.000 il carico computazionale. Nessun altro progetto SETI aveva mai raggiunto questa sensibilità nell'analisi a banda stretta del cielo.
La fase finale dell'analisi richiedeva però risorse ben diverse dai PC domestici. Dal 2016, utilizzando un cluster di calcolo fornito dal Max Planck Institute for Gravitational Physics di Hannover, il team ha filtrato i 12 miliardi di rilevamenti iniziali eliminando le interferenze radio (RFI) provenienti da satelliti, trasmissioni terrestri e persino forni a microonde. Il processo ha ridotto i candidati a circa un milione, poi ulteriormente selezionati attraverso revisione manuale fino ai 100 segnali più promettenti.
Per validare la metodologia, Anderson e Korpela hanno inserito circa 3.000 segnali falsi nel pipeline di analisi, mascherandone la natura per calcolare oggettivamente la sensibilità di rilevamento basandosi sulla potenza dei "birdies" artificiali effettivamente individuati. Questo approccio ha rivelato una criticità fondamentale che riguarda tutte le ricerche SETI attuali: l'impossibilità di determinare con certezza se gli algoritmi di filtraggio stiano eliminando potenziali segnali autentici insieme al rumore.
Dal luglio scorso, il radiotelescopio cinese FAST (Five-hundred-meter Aperture Spherical Telescope) sta puntando verso questi 100 obiettivi con osservazioni di circa 15 minuti ciascuno. Con un'area di raccolta otto volte superiore ad Arecibo, FAST rappresenta lo strumento ideale per confermare o escludere definitivamente questi candidati. I dati raccolti sono ancora in fase di analisi, e Anderson ammette candidamente di non aspettarsi la scoperta di un segnale extraterrestre, ma l'obiettivo principale è stato raggiunto: stabilire un nuovo livello di sensibilità di riferimento per le ricerche future.
Le conclusioni metodologiche pubblicate nei due articoli scientifici evidenziano diverse criticità. Korpela sottolinea che la maggior parte delle ricerche SETI, incluso il progetto decennale Breakthrough Listen, assume che una civiltà avanzata trasmetta un potente segnale a banda stretta come faro di rilevamento, attorno alla frequenza di 21 centimetri utilizzata per mappare l'idrogeno galattico, seguito da informazioni su bande più ampie. Tuttavia, questa assunzione potrebbe essere limitante, e gli algoritmi di filtraggio potrebbero escludere segnali con caratteristiche diverse.
Il contrasto tra le ricerche all-sky come SETI@home e le attuali ricerche mirate verso stelle specifiche o sistemi planetari noti resta un dibattito aperto. I telescopi come il Greenbank in West Virginia o l'array MeerKAT in Sudafrica offrono maggiore controllo e tempi di osservazione dedicati, ma coprono porzioni limitate del cielo e possono rilevare trasmettitori potenti solo a distanze galatticamente vicine. SETI@home ha invece scandagliato miliardi di stelle della Via Lattea, compensando con la vastità dell'indagine la minore controllabilità del telescopio.
Korpela ritiene ancora possibile un progetto simile oggi, sfruttando la piattaforma BOINC (Berkeley Open Infrastructure for Network Computing) creata da Anderson e tuttora utilizzata da progetti come Rosetta@home, Einstein@home e LHC@home. Computer domestici più potenti e connessioni internet a banda larga permetterebbero l'elaborazione di volumi di dati maggiori rispetto all'era dei modem dial-up. Il telescopio FAST sta già conducendo osservazioni commensali che potrebbero alimentare una nuova iniziativa di citizen science, ma il principale ostacolo resta il finanziamento del personale necessario per coordinare l'operazione.
Con Korpela come unico membro stipendiato del team originale, ora semi-pensionato, la prospettiva di rianalizzare l'intero dataset di SETI@home con metodologie corrette resta un'aspirazione non finanziata. "In un mondo dove avessi i fondi, lo rianalizzerei nel modo giusto, correggendo gli errori che abbiamo fatto", afferma Korpela, riferendosi a scelte consapevoli imposte dai limiti computazionali del 1999. La possibilità che un segnale extraterrestre si nasconda nei dati esistenti, mancato per un soffio a causa di questi compromessi, rimane tecnicamente aperta. L'eredità scientifica di SETI@home non è tanto nella risposta alla domanda "siamo soli?", quanto nella dimostrazione che il calcolo distribuito volontario può raggiungere livelli di sensibilità irraggiungibili con approcci tradizionali, ridefinendo gli standard metodologici per un campo di ricerca che continua a catturare l'immaginazione di milioni di persone.