Avatar di Antonio D'Isanto

a cura di Antonio D'Isanto

L'astronomia è una scienza indubbiamente affascinante, e seppure la nostra conoscenza dell'Universo sia cresciuta in maniera esponenziale negli ultimi 100 anni, rimangono innumerevoli misteri ancora da svelare. Alcuni di questi sono - in particolare per un addetto ai lavori - incredibilmente strani e curiosi, quelle cose da non dormirci la notte. Un caso emblematico è quello della famosa costante di Hubble, da qualcuno definita anche come "la costante meno costante dell'Universo".

Scoperta dall'astronomo americano Edwin Hubble negli anni '20 del secolo scorso, questa costante mette in relazione la velocità di recessione delle galassie con la loro distanza. In pratica, più una galassia è distante e più si allontanerà rapidamente, a causa dell'espansione dell'Universo, con la costante di Hubble (detta anche costante H) come fattore di proporzionalità. Questa relazione è nota come legge di Hubble, ed è una delle leggi fondamentali sulle quali si basa la nostra conoscenza attuale dell'Universo e il modello cosmologico standard.

costante di hubble

Costante di Hubble

La misura che Hubble effettuò della sua costante forniva un valore di circa 500 km/s/Mpc (Megaparsec). Un valore che, si sarebbe poi scoperto, era completamente sballato per via di una non corretta calibrazione delle distanze. Ciò avrebbe anche generato un'erronea stima della quantità di materia oscura da parte di Fritz Zwicky, alcuni anni dopo, in quanto l'astronomo svizzero utilizzò il valore della costante proposto da Hubble per i propri calcoli. Ma questa è un'altra storia.

Fatto sta che il valore della costante di Hubble è cambiato più volte fino ai giorni nostri. In particolare, nel secondo dopoguerra si assistette al confronto tra due scuole di pensiero, capeggiate da due tra i più grandi astronomi dell'epoca: Gerard de Vaucouleurs e Allan Sandage. Il primo proponeva un valore della costante prossimo ai 100 km/s/Mpc, mentre il secondo, peraltro allievo di Hubble, suggeriva invece un valore più basso, di circa 50 km/s/Mpc.

1 13379 6f7f3956cc7b8c79453b72428b237f266

Oggigiorno la costante di Hubble si è "stabilizzata" su valori compresi tra i 67 e i 72 km/s/Mpc. Mi rendo conto che, a prima vista, una discussione del genere possa apparire sterile, ma dovete capire che questa quantità è alla base di tutti i modelli cosmologici, in quanto parametro fondamentale per la struttura e storia evolutiva dell'Universo. In altre parole, se cambia il valore di H, cambia la velocità di espansione dello spazio, e quindi anche le stime sulla quantità di materia, luminosa e oscura, di energia oscura, l'età dell'Universo, finanche alle previsioni sul destino ultimo del Cosmo. Per queste ragione, la conoscenza esatta di H è fondamentale.

Purtroppo, pur avendo ridotto di molto l'intervallo di errore, rimane incertezza sul suo valore esatto. In particolare, per ottenere il valore di H si parte dall'analisi delle distanze di galassie nell'Universo "vicino", utilizzando il metodo delle stelle Cefeidi. A questo punto si risale lungo la cosiddetta scala delle distanze cosmiche, ovvero un sistema basato su una serie di oggetti o fenomeni posti a distanze crescenti e per i quali si conosce molto bene il tipo di emissione luminosa. In questo modo è possibile risalire alla loro distanza, utilizzando ogni step per calibrare il successivo, e si ottiene così per H un valore più elevato, attorno ai 72 km/s/Mpc.

Cefeidi

Cefeidi

Un altro tipo di misura di H è quello effettuato per mezzo della radiazione di fondo cosmico, ovvero la radiazione a 3 Kelvin che permea tutto l'Universo, e che costituisce una sorta di "eco" del Big Bang. Il valore della costante di Hubble, ottenuto dalle più recenti misure effettuate tramite il satellite Planck, è di circa 67 km/s/Mpc, quindi decisamente in disaccordo con quello ricavato dal metodo esposto in precedenza, anche tenendo conto dell'errore di misura risultante.

Mappa del fondo cosmico di Microonde realizzata dalla missione PLANCK (2013)

Mappa del fondo cosmico di Microonde realizzata dalla missione PLANCK (2013)

Questa discordanza genera grandi discussioni nella comunità scientifica. Vi è infatti chi sostiene che la ragione sia da ricercarsi in errori di misura che possono essere essenzialmente di due tipi: errori strumentali, dovuti appunto agli strumenti utilizzati per raccogliere i dati, e che possono quindi in qualche modo essere tenuti sotto controllo; ed errori sistematici, dovuti a imperfezioni o veri e propri errori nei modelli fisici e nel modo in cui i dati vengono misurati e analizzati. Per questi ultimi è molto difficile fornire una stima o anche solo comprendere se e quando si verifichino. Ad ogni modo, entrambi i tipi di errore tendono a propagarsi nei vari step che costituiscono la scala delle distanze, aumentando sempre più il loro effetto man mano che ci si allontana.

Leggi anche: L'espansione dell'Universo ci porterà a una nuova Fisica?

L'altra ipotesi invece mette in dubbio la stessa valenza delle leggi fisiche alla base della costante di Hubble e del modello cosmologico standard. Essenzialmente, i sostenitori di questa teoria affermano che il disaccordo tra le varie misure di H sia dovuto all'intervento di un nuovo tipo di fisica, o comunque di leggi e relazioni fisiche al momento ignote, alla luce delle quali il valore della costante tende a modificarsi. Una teoria del genere, per quanto affascinante, rischierebbe però di scardinare tutto il modello cosmologico standard sul quale si fondano le nostre conoscenze dell'Universo su larga scala. Va detto tuttavia che tenendo conto di quante cose ci risultano ancora ignote del Cosmo, tra materia oscura, energia oscura e altro ancora, l'ipotesi non è comunque da scartare.

Tutto questo lunghissimo preambolo era necessario per inquadrare il problema, e per comprendere il senso del lavoro di cui invece vorrei parlarvi oggi. Un lavoro potenzialmente rivoluzionario, pubblicato al momento su ArXiv, e che porta la firma del cosmologo John Peacock e del collega Josè Bernal. Nel loro lavoro, i due studiosi appoggiano essenzialmente la prima ipotesi, proponendo però un approccio nuovo nel trattare gli effetti dei potenziali errori introdotti nel corso della misura della costante di Hubble. Senza voler scendere troppo nei dettagli tecnici del complicato metodo matematico utilizzato nell'articolo, i due autori hanno fatto ricorso a quello che viene chiamato Teorema di Bayes. Grazie ad esso hanno potuto separare in classi i vari step della scala delle distanze, trattandoli in maniera indipendente, e formalizzare ogni passaggio con tutti i relativi errori, potenziali e non, in termini probabilistici. In altre parole, sono riusciti a introdurre nei loro calcoli l'effetto potenziale di errori sistematici ignoti attraverso una descrizione matematico-probabilistica, e in questo modo, quasi per magia, il risultato della costante di Hubble da essi trovato, risulta non essere più in disaccordo con la misura di Planck.  

bayes sheldon

Ovviamente questi risultati andranno analizzati e verificati in dettaglio, anche perché chi mastica un po' di teoria probabilistica e di statistica saprà che il Teorema di Bayes, pur essendo un strumento potentissimo, ha un grosso punto debole: si basa sulla scelta di alcuni parametri detti "priors" (probabilità condizionata o marginale del verificarsi di un certo evento). Questi parametri sono di solito ignoti e la loro scelta è essenzialmente arbitraria. In effetti il cuore del lavoro di Peacock e Bernal si basa proprio sulla scelta più opportuna dei priors. Capirete che questo può essere un punto di forza, ma anche una grande debolezza, perché fatta una certa scelta, questa va poi opportunamente interpretata.

In ogni caso, l'ipotesi alla base sembra tutto sommato ragionevole, e volendo utilizzare le parole dello stesso Peacock: "È un po' l'opposto del normale processo giudiziario: tutte le misurazioni sono colpevoli fino a prova contraria". Tenendo quindi conto delle incognite sconosciute e degli errori presenti essenzialmente in tutte le misure, la discrepanza sulla constante di Hubble svanisce.

In conclusione, non si tratta di una soluzione definitiva, ma di qualcosa che sembrerebbe andare nella giusta direzione per risolvere uno dei grandi misteri dell'astrofisica moderna. Inoltre parte da una presa di coscienza del fatto che a volte, quando qualcosa non quadra, la causa sia da ricercarsi semplicemente in errori e imprecisioni causati dalla nostra imperizia e in palesi limiti tecnologici, piuttosto che in astruse teorie pseudo-scientifiche.

Infine, il metodo di Peacock e Bernal è piuttosto generale, e nel lavoro pubblicato è soltanto applicato al caso della costante di Hubble. Teoricamente, potrebbe essere utilizzato per affrontare altri problemi, e magari fornire nuove, sorprendenti risposte. C'è da restare sintonizzati insomma!

Antonio D'Isanto è dottorando in astronomia presso l'Heidelberg Institute for Theoretical Studies in Germania. La sua attività di ricerca si basa sulla cosiddetta astroinformatica, ovvero l'applicazione di tecnologie e metodologie informatiche per la risoluzione di problemi complessi nel campo della ricerca astrofisica. Si occupa inoltre di reti neurali, deep learning e tecnologie di intelligenza artificiale ed ha un forte interesse per la divulgazione scientifica. Da sempre appassionato di sport, è cintura nera 2°dan di Taekwondo, oltre che di lettura, cinema e tecnologia. Collabora con Tom's Hardware per la produzione di contenuti scientifici.


Tom's Consiglia

Gli argomenti trattati in questa notizia hanno retroscena molto complessi dal punto di vista tecnici. Chi ha dimestichezza con la Fisica può approfondirli e capirli meglio leggendo La strada che porta alla realtà; se le vostre conoscenze di base sono poche o nulle e vi basta un'infarinatura generale meglio puntare su Sei pezzi facili, un sempreverde opera del grande Richard Feynman.