L’espansione cosmica è universale

Secondo uno studio guidato da un gruppo di ricercatori dello University College di Londra (UCL), l’Universo si espande in maniera uniforme: lo spazio non si dilata in una direzione privilegiata né ruota attorno a un ipotetico asse. Gli autori, guidati da Daniela Saadeh della UCL, hanno analizzato la radiazione cosmica di fondo, la luce più antica che siamo in grado di osservare, che mostra come l’Universo si espande allo stesso modo in tutte le direzioni, un fatto che va a favore del modello standard della cosmologia. I risultati sono pubblicati su Physical Review Letters. Per anni, gli scienziati hanno sostenuto che l’Universo può essere o omogeneo e isotropo, cioè apparire mediamente uguale in tutte le direzioni, o anisotropo, cioè mostrarsi ancora uniforme ma nascondendo nella sua trama cosmica una sorta di direzione “privilegiata”. Per capire il concetto di anisotropia, possiamo prendere come esempio un cristallo di diamante. Quest’ultimo possiede una densità uniforme ma i suoi atomi sono tutti allineati in determinate direzioni. Pensiamo ora a un pezzo di legno: al di là delle sue increspature superficiali, si tratta di una singola sostanza, cioè un blocco uniforme. Il legno, come tutti i materiali fibrosi, è fortemente anisotropo. In altre parole, diciamo che un materiale è anisotropo se le proprietà fisiche differiscono quando vengono misurate lungo diversi assi di riferimento. L’idea che l’Universo sia anisotropo venne avanzata in risposta ad alcune evidenze che erano in disaccordo con le proprietà di omogeneità e isotropia, così come erano state assunte dalle osservazioni. Ma ora sembra che l’ipotesi dell’Universo anisotropo abbia problemi ben più grandi di cui preoccuparsi. Nel 1543, Copernico affermò che la Terra non si trova al centro dell’Universo e mise in evidenza il fatto che il nostro pianeta orbita attorno al Sole e non viceversa. Ciò causò la nascita del principio Copernicano secondo cui non esiste una posizione speciale nel nostro Universo. Nel 20° secolo, con l’avvento della relatività generale e la scoperta dell’espansione dell’Universo in tutte le direzioni, quell’idea si sviluppò in quello che oggi chiamiamo principio cosmologico secondo cui l’Universo appare uguale in tutte le direzioni. Si tratta di una ipotesi solida e da allora abbiamo basato ogni modello cosmologico, che tenta di spiegare l’origine e l’espansione dell’Universo, assumendo che l’Universo sia davvero isotropo. Ma negli ultimi dieci anni, alcuni fatti hanno messo in dubbio questa idea. Quando si considerano scale molto piccole, si trova che la materia non è distribuita in modo uniforme. Ad esempio, i sistemi stellari, le galassie e gli ammassi di galassie sono sparsi nello spazio cosmico formando agglomerati di materia che, secondo alcuni scienziati, potrebbe essere l’indicazione della presenza di qualche tipo di forza che abbia “spinto”, per così dire, queste strutture in determinate posizioni. Ma ciò deriva dal fatto che l’Universo si originò dal Big Bang come una sorta di “zuppa omogenea” di particelle subatomiche. Una volta che l’Universo subì una rapida espansione esponenziale, chiamata inflazione, minuscole fluttuazioni quantistiche presenti nella “zuppa cosmica primordiale” si amplificarono, raggiungendo dimensioni gigantesche e causando variazioni di densità che avrebbero dato luogo successivamente alla formazione di quei siti cosmici da cui sarebbero emerse le strutture cosmiche (stelle, galassie, ammassi di galassie). Ora, il modello standard della cosmologia si basa sull’assunzione che queste variazioni di densità sono significative su scale molto piccole, mentre si possono considerare trascurabili su scale più grandi. Ma che succede se l’Universo ha la struttura di un cristallo di diamante e presenti una direzione privilegiata, intrinseca alla sua intera struttura, indipendentemente da quanto siamo in grado di zoomare? Qui è dove entra in gioco l’ipotesi dell’anisotropa, che divenne sempre più forte agli inizi degli anni 2000 quando il satellite della NASA WMAP rivelò strane anomalie (dette bump) nella radiazione cosmica di fondo che poi nessuno è stato in grado di spiegare. Infatti, esiste una regione nel nostro Universo che sta creando qualche problema agli scienziati al punto che è stata letteralmente definita “asse del diavolo”, anche se molti la considerano una pura fluttuazione statistica. Dunque, per scoprire una volta per tutte quale scenario descriva meglio la realtà, un gruppo di cosmologi della University College di Londra ha deciso di analizzare la luce più antica che siamo in grado di osservare: stiamo parlando della radiazione cosmica di fondo, la “eco” del Big Bang. Anzichè cercare delle anomalie nella radiazione cosmica, come appunto l’asse del diavolo, i ricercatori hanno tentato di trovare eventuali tracce della presenza di una direzione privilegiata dell’espansione cosmica. «Abbiamo analizzato la temperatura e la polarizzazione della radiazione cosmica sfruttando i dati di Planck», spiega Daniela Saadeh della UCL e autrice principale dello studio. Gli autori, coadiuvati dai colleghi dell’Imperial College di Londra, hanno utilizzato i dati della radiazione cosmica ricavati dal satellite Planck dell’ESA tra il 2009 e il 2013. Inoltre, grazie alla recente pubblicazione da parte del team di Planck dei dati relativi alla polarizzazione della radiazione cosmica, è stato possibile ottenere, per la prima volta, una visione complementare dello stato fisico dell’Universo primordiale che gli stessi autori del presente studio sono stati in grado di elaborare. «Abbiamo confrontato i dati reali relativi alla radiazione cosmica con le nostre predizioni per un modello di Universo anisotropo», continua Saadeh. Gli astronomi hanno quindi costruito una serie di modelli che riproducono diversi scenari di espansione e rotazione dello spazio, includendo anche l’informazione relativa alla polarizzazione. Successivamente, questi modelli sono stati messi a confronto con i dati reali della mappa del cielo ottenuta da Planck, in modo da vedere se si manifestano in essa segnali peculiari riconducibili a scenari cosmologici diversi da quello standard. «Abbiamo simulato vari segnali che si sarebbero manifestati nella radiazione cosmica di fondo nel caso in cui lo spazio avesse proprietà diverse in direzioni differenti», fa notare Saadeh. «Per segnali intendiamo l’eventuale presenza di ‘macchie’ calde e fredde che si protendono lungo un particolare asse oppure possibili distorsioni a forma di spirale. Abbiamo concluso che non esiste alcuna evidenza di particolari segnali riconducibili a questa ipotesi di anisotropia e che quindi riteniamo alquanto buona l’assunzione secondo cui l’Universo risulta isotropo su larga scala. Quindi, il nostro lavoro rappresenta, finora, la migliore evidenza a favore dell’ipotesi che l’Universo sia uniforme in tutte le direzioni». Alcuni lavori precedenti lavori si sono basati su modelli di anisotropie rappresentate da una rotazione (in gergo vector mode anisotropy). Gli autori del presente studio hanno invece seguito un approccio più generale che include modelli anisotropi basati su uno spettro più ampio di geometrie che può assumere lo spazio (scalari, vettori e tensori). I ricercatori hanno così provato a variare i parametri di questo modello più generico confrontandolo con i dati forniti dal satellite Planck, le cui misure di polarizzazione sono estremamente sensibili ai modelli anisotropi. «La nostra attuale comprensione dell’Universo si basa sull’assunzione che non esista una direzione privilegiata, anche se c’è un elevato numero di modi permessi dalla relatività di Einstein che rendono possibile l’esistenza di Universi che ruotano e si dilatano», dice Saadeh. I risultati delle simulazioni mostrano che questi modelli (anisotropi) sono inconsistenti con le osservazioni. «Non si può mai escluderlo completamente, ma ora possiamo dire che la probabilità che l’Universo preferisca espandersi in una certa direzione rispetto a un’altra è pari a 1 su 121 mila», dice Saadeh. «Perciò è importante che abbiamo dimostrato che il nostro Universo si espande in tutte le direzioni». In un certo senso, si tratta di una piccola delusione perché un universo non omogeneo e isotropo supporterebbe le uniche reali soluzioni delle equazioni di campo di Einstein, quell’insieme di 10 equazioni della relatività generale che descrivono l’interazione fondamentale della gravità come risultato della curvatura dello spazio causata dalla presenza di materia ed energia. Queste soluzioni, proposte dal matematico di origine italiana Luigi Bianchi verso la fine del 19esimo secolo, consentono l’esistenza di un Universo anisotropo, ma se questa assunzione non è vera, come sembra, allora gli scienziati dovranno scoprire un modo tutto nuovo per spiegare i risultati delle equazioni di campo di Einstein. «L’interessante lavoro di Daniela Saadeh e collaboratori affronta una delle tematiche fondamentali della cosmologia», spiega a Media INAF Carlo Burigana, ricercatore dell’INAF presso l’Istituto di Astrofisica Spaziale e Fisica Cosmica (IASF) di Bologna. «Gli autori estendono le analisi della Collaborazione Planck, con cui sono consistenti, migliorando i vincoli esistenti per i modelli di Bianchi e mostrando come l’analisi accurata delle anisotropie di polarizzazione del fondo cosmico, oltre alla possibilità di sondare la fisica dello stato primordiale dell’Universo, permette di comprendere la geometria dell’Universo. Viene dimostrato ancora una volta la grande legacy scientifica del satellite Planck dell’ESA e la rilevanza della radiazione cosmica di fondo nel dare risposte a quesiti cruciali». Insomma, gli attuali modelli cosmologici assumono l’ipotesi che l’Universo si comporti in maniera identica in ogni direzione. Se questa ipotesi non fosse vera, dovremmo certamente considerare in modo differente molte cose. «Se l’Universo fosse anisotropo, dovremmo rivedere molti calcoli sulla sua storia e contenuto. Tuttavia, l’elevata qualità dei dati forniti da Planck è stata un’occasione d’oro perché ha permesso di verificare il modello standard della cosmologia. Siamo molto contenti che il nostro lavoro vendichi in qualche modo ciò che i cosmologi hanno ipotizzato finora. Per ora», conclude Saadeh, «la cosmologia é al sicuro».

Autovelox per universi in espansione

Del fatto che l’universo s’espandesse, che lo spazio fra una galassia e l’altra andasse aumentando con il tempo, se n’era già accorto Edwin Hubble sul finire degli anni Venti. Ma non si limita a espandersi, l’Universo: lo fa accelerando. Questo significa che, più è grande la distanza fra una galassia e una qualsiasi altra, maggiore sarà la velocità alla quale le due continueranno ad allontanarsi. Quanto maggiore? Il valore, uno fra i pochi parametri fondamentali della cosmologia contemporanea, è noto come “costante di Hubble”, anche se non è certissimo che sia proprio costante. E quanto vale? Per stabilirlo, gli astrofisici hanno utilizzato essenzialmente due tipi di approcci: da una parte sono partiti misurando i parametri fondamentali dell’universo all’epoca del Big Bang con sonde cosmologiche, come WMAP della NASA e Planck dell’ESA. Ma c’è almeno un altro approccio per calcolare la costante di Hubble, ed è quello (vedi schema qui sotto) che fa uso di due particolari tipi di stelle di riferimento: le supernove di tipo Ia, stelle che esplodono emettendo una quantità di luce costante, e le cefeidi, stelle che invece pulsano con una frequenza correlata con la loro vera luminosità. Caratteristiche, queste, che consentono agli astronomi di calcolare in modo preciso la distanza di queste stelle da noi, e dunque la distanza reciproca delle galassie che le ospitano. Dato fondamentale, è facile intuirlo, per derivare poi la costante di Hubble. La cosa impagabile di questi due approcci è che sono alquanto indipendenti l’uno dall’altro. Perfetti, perciò, per confermarsi a vicenda: se tutto va come ci si attende, messi in conto gli inevitabili errori nella stima, i due valori dovrebbero essere sovrapponibili. Ma uno studio in uscita su The Astrophysical Journal, basato su dati raccolti dal telescopio spaziale Hubble – che ha osservato 300 supernove di tipo Ia e 2400 cefeidi, studio guidato fra l’altro da Adam Riess, premio Nobel per la Fisica nel 2011 proprio per aver confermato che l’espansione dell’universo sta accelerando – trova un valore per la costante di Hubble significativamente più elevato rispetto a quello derivato dalle misure cosmologiche. E ciò che è peggio è che, anche considerando i margini d’errore – ridottissimi per quest’ultima misura – i due risultati non si sovrappongono più. È un po’ come costruire un tunnel cominciando a scavare dalle due estremità, e ritrovarsi a metà strada con le due gallerie che non s’incontrano… Ora si tratta di capire perché. Ci stanno provando, fra gli altri, Eleonora Di Valentino e Alessandro Melchiorri, ricercatrice postdocin Francia la prima, presso l’Institut Astrophysique di Parigi, e professore alla Sapienza, nonché associato INAF, il secondo. Insieme a Joseph Silk, di Oxford, hanno appena messo in rete un preprint(un articolo ancora in attesa di peer review) che affronta proprio questa discrepanza. Media INAF li ha intervistati.

Partiamo dall’oggetto del contendere: la costante di Hubble. Vale a dire, il tasso d’accelerazione dell’espansione dell’universo. Qual è il valore oggi comunemente accettato? E quanto il team di Riess suggerisce invece che sia, in base ai dati Hubble?

«Il punto è che non c’è al momento un valore comunemente accettato. È possibile misurare la costante di Hubble (H0) in maniera diretta», spiega Di Valentino, «come fanno Riess e colleghi, o in maniera indiretta (vale a dire assumendo un modello cosmologico), come si fa con la radiazione di fondo cosmico (CMB). Già la CMB pre-Planck preferiva un valore minore rispetto a quello misurato in modo diretto dallo Hubble Space Telescope (HST). Questa tensione, che era a livello di 2 deviazioni standard appena quando i nuovi dati di Planck sono stati rilasciati, si è adesso inasprita a 3.3 deviazioni standard con la nuova analisi di Riess et al. Questo sta a indicare che maggiore è la precisione con cui H0 viene misurata, maggiore diventa la tensione tra le due misure. Riess e il suo team ottengono così un valore pari a 73.2 km al secondo per megaparsec [ndr: che corrisponde suppergiù a 263 mila km/h in più ogni 3.26 milioni di anni luce di distanza], con un intervallo d’errore di più o meno 1.75 km/s/Mpc, mentre i dati di Planck, assumendo il modello cosmologico standard, forniscono 66.93 più o meno 0.62 km/s/Mpc».

Quali possono essere le ragioni di questa discrepanza? Sbaglia Planck? Sbaglia Hubble? O c’è qualche altra possibilità?

«La discrepanza può essere dovuta a sistematiche in uno dei due esperimenti», dice Melchiorri, «ma dopo cinque anni di analisi dati comincia a essere difficile che vi siano grandi errori. La possibilità più interessante è che entrambi abbiano ragione e che vi sia una nuova fisica a spiegare la discrepanza. Nel nostro articolo mostriamo che la via migliore consiste nel cambiare l’equazione di stato dell’energia oscura. Una cosa abbastanza ragionevole, visto che di questa componente non sappiamo nulla».

In tutto ciò cosa c’entrano i neutrini? Vedo che nel vostro articolo vi fate riferimento…

«Riess e colleghi hanno proposto delle specie di neutrini “extra”, per esempio i neutrini sterili, per risolvere la tensione. Nel nostro articolo facciamo però vedere», osserva Melchiorri, «che questa non è la via migliore, dato che il fit [ndr: la corrispondenza] con i dati peggiora».

Dunque quali alternative proponete, nel vostro articolo?

«Come prima cosa presentiamo un’analisi considerando allo stesso tempo tutte le possibili soluzioni note. In pratica estendiamo l’analisi dai 6 parametri usuali a 12. In secondo luogo», continua Di Valentino, «mostriamo che la soluzione migliore consiste nel considerare modelli di energia oscura con equazione di stato negativa (w < -1). Questo si può ottenere in molti modi diversi, ma il punto importante è che la costante cosmologica non sarebbe più sufficiente».

Ha forse qualcosa a che fare con quello che chiamate “phantom-like dark energy component”? Di che si tratta?

«L’origine del nome “phantom” deriva da un articolo di Robert Caldwell che si rifaceva al primo film della seconda trilogia di Lucas, Phantom menace: La minaccia fantasma. Infatti in questo modello l’energia oscura è una “minaccia oscura” che produrrebbe la distruzione dell’universo tra una cinquantina di miliardi di anni», nota Melchiorri. «C’è da dire che il modello proposto non è teoricamente molto più bello del film mediocre di Lucas, ma è una possibilità».

Ma oltre alla distruzione dell’universo, che già non mi pare poco, quali conseguenze avrebbe, per l’astrofisica e per la cosmologia, una variazione così significativa della costante di Hubble?

«I dati pre-Planck potevano conciliare le misure di CMB e di HST in due modi: con una dark radiation, e quindi un numero di specie di neutrini relativistici maggiore di 3, o con una dark energy diversa dalla costante cosmologica, cioè w diverso da -1. Oggi, con Planck, la possibilità di un numero di specie di neutrini maggiore di 3 non è più praticabile. Se entrambi i risultati fossero confermati, una possibilità per metterli d’accordo è l’abbandono della costante cosmologica, difficile da spiegare dal punto di vista fisico, in favore di un fluido di dark energy con equazione di stato w < -1. Un modello phantom, appunto», conclude Di Valentino.
di Marco Malaspina (INAF)

Come evolve l’universo? Chiedi alle simulazioni

L’Universo, si sa, è in continua espansione. Esso muta, creando nuove strutture che poi si aggregano nel corso del tempo. La domanda è: come fa ad evolvere? Oggi, alcuni fisici dell’Università di Ginevra (UNIGE), in Svizzera, hanno sviluppato una simulazione numerica che offre preziosi indizi sul complicato processo di formazione delle strutture cosmiche. Partendo dalle equazioni di Einstein, gli scienziati sono stati in grado di integrare nei loro calcoli la rotazione dello spazio-tempo e di misurare l’ampiezza delle onde gravitazionali, la cui esistenza è stata annunciata per la prima volta lo scorso 11 Febbraio. I risultati di questo studio sono pubblicati su Nature Physics. Fino ad oggi, i ricercatori hanno simulato la formazione delle strutture cosmiche su larga scala basandosi sulla gravitazione newtoniana. Questi codici postulano che lo spazio non cambia, cioè rimane statico, mentre evolve solo il tempo. Le simulazioni risultano molto precise se la materia presente nell’Universo si muove lentamente, ossia con una velocità di circa 300 Km/sec. Tuttavia, quando le particelle si muovono in un regime di velocità relativistiche, il codice fornisce solamente calcoli approssimati. Inoltre, esso non permette di descrivere le fluttuazioni dovute all’energia oscura, che con il suo contributo pari al 70 percento del contenuto materia-energia presente nell’Universo è responsabile dell’espansione cosmica accelerata. Dunque, da qui la necessità di trovare un nuovo modo per simulare la formazione delle strutture cosmiche allo scopo di studiare questi fenomeni. Il team di ricercatori guidato da Ruth Durrer del Dipartimento di Fisica Teorica presso la Facoltà di Scienze della UNIGE ha creato un nuovo codice, chiamato gevolution, che si basa sulle equazioni di Einstein. La teoria della relatività generale considera lo spazio-tempo come un’entità dinamica, il che vuol dire che sia lo spazio che il tempo cambiano continuamente, a differenza del concetto di spazio che Newton considerava statico nella sua teoria. Lo scopo di questo studio è quello di predire l’ampiezza e gli effetti associati alla generazione delle onde gravitazionali e la rotazione dello spazio-tempo, tecnicamente nota come frame-dragging, indotti dalla formazione delle strutture cosmiche. Per far questo, i fisici della UNIGE hanno analizzato una porzione cubica di spazio che consiste di 60 miliardi di zone ognuna delle quali contiene una particella (un po’ come dire una porzione di una galassia), per studiare il modo con cui esse si muovono rispetto alle particelle circostanti. Grazie alla libreria LATfield2, sviluppata da David Daverio della UNIGE, che permette di risolvere equazioni differenziali parziali non-lineari, e al supercomputer dello Swiss Supercomputer Center di Lugano, i ricercatori sono stati in grado di tracciare il moto delle particelle e calcolare la metrica (ossia la misura della distanza e del tempo tra due galassie) facendo uso delle equazioni della relatività. I risultati di questi calcoli permettono di quantificare le differenze tra i dati ottenuti dalla simulazione gevolution e quelli ricavati mediante i codici newtoniani. Ciò permette inoltre di misurare l’effetto della rotazione dello spazio-tempo e delle onde gravitazionali causati, come si diceva prima, dalla formazione delle strutture cosmiche. In realtà, la rotazione dello spazio-tempo e l’effetto dovuto alla presenza delle onde gravitazionali non è mai stato preso in considerazione prima della formulazione del codice gevolution. Questo approccio apre così un nuovo modo di confrontare i risultati forniti dalla simulazione con le osservazioni. Insomma, grazie a questo nuovo codice numerico, i fisici dell’UNIGE potranno ora disporre di un ulteriore strumento d’indagine in grado di testare la relatività generale su una scala di distanze molto più grande rispetto a quanto sia stato fatto in precedenza. Infine, il gruppo di Durrer renderà pubblico il codice gevolution in modo da favorire quanto più possibile la ricerca in questo campo. L’obiettivo finale è quello, almeno così si spera, di far luce sui misteri dell’energia oscura.
di Corrado Ruscica (INAF)

Costante cosmologica, quel lambda che ci salva

Era il cruccio di Einstein, quella dannata lettera lambda. S’era visto costretto a infilarla controvoglia nelle sue equazioni di campo della relatività generale per evitare che tutti gli oggetti presenti nell’universo finissero per ammassarsi l’uno sull’altro e scivolare inesorabilmente in un pozzo senza fondo dello spazio-tempo. Salvo poi rimangiarsi l’intuizione non appena Hubble offrì al mondo, con la scoperta dell’espansione dell’universo, una via di scampo alternativa. Fu allora che Einstein definì quel termine lambda, in apparenza ormai superfluo, «la più grande cantonata della mia vita». In realtà, mai cantonata fu più felice: negli ultimi decenni, quella lettera lambda prematuramente rinnegata è stata non solo riesumata e riabilitata, ma è diventata la protagonista irrinunciabile del modello standard della cosmologia, il modello Lambda-CDM, appunto. È lei la famosa costante cosmologica – identificata a volte, un po’ impropriamente, con l’energia oscura – alla quale dobbiamo l’accelerazione dell’espansione dell’universo. E se pensate che nulla vi possa riguardare di meno, sbagliate di grosso. Il perché lo spiega uno studio appena uscito su Physical Review Letters: se l’universo non si espandesse seguendo il ritmo imposto dalla costante cosmologica, i micidiali lampi di raggi gamma (GRB, dalle iniziali di gamma-ray burst), che spazzano l’intero cosmo con la potenza di fuoco di migliaia di supernove, avrebbero reso pressoché impossibile lo sviluppo di forme di vita complesse. Fra i cinque autori dello studio, guidato da Tsvi Piran del Racah Institute of Physics di Gerusalemme, c’è anche la cosmologa italiana Licia Verde, professoressa di fisica e astronomia alle università di Oslo e di Barcellona. Media INAF l’ha intervistata.
Professoressa Verde, il vostro studio propone uno scenario con una potenziale vittima, la vita, e due attori protagonisti: la costante cosmologica e i GRB. Chi è il buono, chi il cattivo? E perché?
«Entrambi gli attori recitano un ruolo sia buono che cattivo. Proprio come nella vita fuori da Hollywood, o come in un documentario sugli animali stile David Attenborough. I GRB provengono da esplosioni di stelle massive. Queste esplosioni, se avvengono troppo vicino a casa, rilasciano radiazione fatale per la vita “avanzata” – ovvero, una vita tale da produrre un osservatore. Non dimentichiamo però che sono proprio le esplosioni di stelle massive ad arricchire il mezzo interstellare di elementi “pesanti” (ferro, ossigeno…), indispensabili per formare i pianeti e  la vita.
Quanto alla costante cosmologica, è da anni che si sa che se è troppo grande risulta “cattiva”, perché impedisce alla gravità di far bene il suo lavoro: formare strutture come le galassie, le stelle, i pianeti, eccetera. Però dal nostro studio risulta che nemmeno una costante cosmologica troppo piccola aiuta: le galassie rimangono troppo vicine l’una all’altra, cosicché la radiazione di un “GRB killer” può raggiungere facilmente pianeti che ospitano la vita, con conseguenze negative per la vita stessa».
Proviamo a tracciare l’identikit d’un “GRB killer”: per esempio, a che distanza dovrebbe trovarsi, per ucciderci?
«È difficile dare una risposta esatta, è una di quelle domande a cui è più facile rispondere con la statistica – cioè calcolando la probabilità per tutti i possibili pianeti simili alla Terra mai esistiti nell’universo – che non per il caso specifico. Però i numeri non mentono, quindi vediamo alcuni numeri. Un “long duration GRB” fra quelli più energetici (il 10 percento dei più energetici), a una distanza di 50 Kpc – vale a dire, attorno ai 150 mila anni luce, grosso modo la distanza che ci separa dalla Large Magellanic Cloud – distruggerebbe il 90 percento dello strato di ozono.
Lo strato d’ozono è il nostro scudo contro la radiazione ultravioletta, che – oltre alle scottature solari – provoca danni e mutazioni al DNA e rompe le proteine. Quindi non solo provoca il cancro: il danno maggiore che può essere prodotto dalla radiazione ultravioletta è che distrugge la fotosintesi. Di conseguenza, tutto quello che dipende dalla fotosintesi (alghe, plancton…) muore, e così s’interrompe la catena alimentare. È vero che la vita sotto marina è automaticamente protetta dalla radiazione ultravioletta anche senza lo strato di ozono, ma il plancton – che è alla base di tutta la catena alimentare – verrebbe comunque distrutto».
In base alle vostre valutazioni statistiche, quale probabilità abbiamo, noi come specie umana, di venire investiti da un fascio di raggi gamma tale da estinguerci? Nel giro del prossimo milione di anni, diciamo?
«La frequenza, per noi sulla Terra, è stimata attorno a un evento ogni miliardo di anni. Quindi la probabilità, in un milione di anni, è dello 0.1 percento. Ovviamente, niente ci impedisce di pensare di mettere da parte abbastanza ozono “in bombolette” per rilasciarlo nell’atmosfera nel caso improbabile e sfortunato che un simile evento si verifichi…».
E in passato, in base ai vostri calcoli, quanto è probabile che i GRB abbiano avuto un ruolo nelle grandi estinzioni avvenute sulla Terra?
«Non sono i nostri calcoli a dirlo: è risaputo che l’estinzione Ordoviciana (responsabile della scomparsa dell’85% di tutte le specie esistenti al momento sulla Terra) fu dovuta, molto probabilmente, a uno di questi eventi. Nonostante ciò, la vita intelligente s’è sviluppata lo stesso, certo, ma se fosse accaduto più tardi…».
Torniamo alla costante cosmologica: dalle vostre conclusioni, pare di capire che viviamo nel migliore degli universi possibili, o quasi. È così?
«Sì, ma non è così sorprendente. Non vediamo una costante cosmologica troppo grande, perché se fosse troppo grande non ci sarebbero state galassie, stelle e pianeti per sviluppare una vita abbastanza complessa da puntare un telescopio al cielo e dire “oibò vedo una costante cosmologica!”. E non vediamo una costante cosmologica troppo piccola perché, se fosse troppo piccola, sarebbe stato più probabile ritrovarsi fritti per colpa di qualche GRB… Se un’estinzione tipo quella Ordoviciana fosse avvenuta all’epoca, per esempio, degli antichi greci o degli egizi, certamente non avremmo avuto un Galileo a puntare il telescopio al cielo».
Visto che viviamo in un universo in continuo mutamento, quale periodo della sua storia sarebbe il più favorevole allo sviluppo della vita?
«È un calcolo che nel nostro studio non facciamo, ci limitiamo a considerare diversi valori della costante cosmologica. Però si può tentare una “traduzione” qualitativa in termini di periodi della storia dell’universo. Facendo questa traduzione – approssimata – possiamo dire che, in un certo senso, sì: troppo nel futuro, e si saranno spente le stelle capaci di sostenere pianeti simili alla Terra; troppo nel passato, e ci sono troppi GRB pericolosamente vicini… Ma non è una sorpresa, anzi: ci aspettiamo di trovarci in un periodo particolarmente favorevole a noi, altrimenti, statisticamente parlando, non saremmo qui».
Dunque siete d’accordo con i sostenitori del principio antropico? È un universo a nostra misura, quello in cui ci troviamo?
«Quello che diciamo è che vediamo un processo di selezione. Se vediamo un universo “a nostra misura” è perché, se non lo fosse, molto probabilmente non saremmo qui a osservarlo».
di Marco Malaspina (INAF)

Speciale onde gravitazionali

Dopo giorni, anzi diciamo settimane, di rumors, voci di corridoio, gossip, mail rubate e tanta attesa, la notizia è arrivata: le onde gravitazionali predette da Albert Einstein 100 anni fa sono state “viste”. Insomma è stata confermata l’esistenza di quelle increspature nel tessuto spazio-temporale provocate da eventi di dimensioni catastrofiche, come per esempio il merging (la fusione) di due buchi neri supermassici (nel caso di questa scoperta si tratta di buchi neri con una massa rispettivamente di 36 e 29 volte quella del Sole), ma anche come l’esplosione di una supernova, la stessa formazione di buchi neri, o il residuo dell’esplosione del Big Bang. Fino a qui, potreste dire, cosa c’è di “complicato”? Insomma perché finora non sono state individuate dai potentissimi strumenti a nostra disposizione? Ebbene, è proprio qui il problema: le onde gravitazionali sono difficilissime da individuare proprio perché il loro passaggio ha effetti quasi invisibili, si parla di milionesimi delle dimensioni di un atomo.

La scoperta deve tutto a LIGO, cioè il Laser Interferometer Gravitational-Wave Observatory (per noi italiani, osservatorio interferometrico laser per le onde gravitazionali), costruito negli Stati Uniti e voluto dal California Institute of Technology (Caltech) e dal Massachusetts Institute of Technology (MIT), sponsorizzato dalla National Science Foundation (NSF). LIGO sfrutta raggi laser – appunto – per individuare il transito di onde gravitazionali. Pensate che solo la fase di costruzione (terminata nel 1999) è costata 365 milioni di dollari ed è ancora il più grande e più ambizioso progetto mai finanziato dalla NSF. Dal 2002 al 2010 LIGO non ha rilevato alcuna onda gravitazionale, per questo gli strumenti sono stati “spenti” per 5 anni durante i quali i rivelatori sono stati sostituiti e migliorati. L’operazione di revisione (costata in tutto 200 milioni di dollari) ha portato ad Advanced LIGO, cioè un osservatorio che sarà fino a dieci volte più sensibile a questi segnali. Il 18 settembre 2015, Advanced Ligo ha iniziato le sue prime osservazioni scientifiche a circa quattro volte la sensibilità iniziale degli interferometri LIGO e la sensibilità sarà ulteriormente rafforzata fino a raggiungere il massimo intorno al 2021.

LIGO, gli Stati Uniti collegati da nord a sud

Come detto, LIGO si trova negli Stati Uniti e si compone di due impianti gemelli ma separati, gestiti come un singolo e grande osservatorio, a cui può accedere la comunità scientifica mondiale. Le due stazioni si trovano a Livingston, in Louisiana, e a Hanford, nello stato di Washington. A separare i due rilevatori ci sono oltre tremila chilometri: più grande è il rivelatore e più è sensibile (così come accade per grandi network simili). Ed è essenziale la presenza di due o più rilevatori, perché in uno dei siti potrebbero verificarsi micro-terremoti, potrebbe esserci eccessivo rumore acustico, o fluttuazioni del laser e ciò porterebbe a disturbi che, simulando l’onda gravitazionale, renderebbero il risultato fallace. È improbabile, però, che allo stesso momento si verifichino gli stessi disturbi in due luoghi così distanti, da qui l’interazione di più rilevatori.

Osservatori a forma di “L”

Ogni interferometro è lungo 4 chilometri e presenta una forma a “L” (i due bracci sono disposti ad angolo retto). I laser viaggiano avanti e indietro all’interno di tubi a vuoto spinto (diametro 1,2 metri) che permettono di misurare con una precisione elevatissima la distanza degli eventi tra i due specchi di super precisione su cui si riflettono questi raggi. La tecnica utilizzata è quella dell’interferometria: lo specchio semitrasparente suddivide il fascio laser in due parti, poi inviate nei due bracci a “L” dell’interferometro fino a incontrare altri due specchi che rimbalzano il laser. E proprio questi specchi sono i veri sensori: passando attraverso i rilevatori, le onde gravitazionali disturbano, anche se di pochissimo, il viaggio dei fasci laser e questo lieve disturbo è stato finalmente registrato. Questi cambiamenti sono piccoli, anzi piccolissimi: la centomilionesima parte del diametro di un atomo di idrogeno, impercettibili increspature che possono essere rilevate solo isolando le masse di prova da tutti i disturbi provenienti dall’esterno, come appunto le vibrazioni sismiche della terra o le molecole di gas presenti nell’aria (all’interno dei due tunnel, interamente schermati con il cemento, c’è un vuoto ultra-spinto). Le lievi variazioni nelle distanze delle masse sono la prova del passaggio dell’onda gravitazionale.

Triangolazione e collaborazione internazionale

Una volta “catturata” l’onda gravitazionale,per risalire anche all’evento che l’ha generata bisogna capire da dove proviene. E per determinare l’esatta posizione celeste (triangolazione) saranno fondamentali dati provenienti da più strumenti localizzati in diverse parti del mondo. Per questo la “caccia” alle onde gravitazionali impegna ricercatori di diverse istituzioni. Lo stesso LIGO fa parte di un network internazionale di osservatori: ricordiamo anche GEO 600 (vicino ad Hannover, in Germania), TAMA (Tokyo, Giappone) e Virgo (vicino a Pisa, qui in Italia).

Il ruolo di Virgo e dell’Italia

Proprio al software italiano e alla collaborazione LIGO/Virgo dobbiamo l’analisi dei dati che ha portato alla scoperta. A questo proposito, abbiamo chiesto un commento a Valeria Ferrari, professoressa di Relatività generale al dipartimento di Fisica dell’università La Sapienza di Roma, ricercatrice dell’Istituto Nazionale di Fisica Nucleare (INFN), nonché studiosa da anni delle sorgenti di onde gravitazionali. «Sebbene attualmente Virgo non sia ancora in funzione, c’è un accordo tra gli scienziati di Virgo e di LIGO per effettuare insieme l’analisi dei dati e ci sono protocolli severissimi di validazione dei risultati sottoscritti da entrambi. Quindi anche se i dati attualmente sono presi solo dall’esperimento americano, o in futuro potrebbe accadere l’opposto, questi vengono analizzati dalla collaborazione e sono patrimonio comune». A Ferrari abbiamo domandato cosa cambierà quando Virgo entrerà in funzione: «La rete di rivelatori sarà più potente perché con opportune tecniche di analisi dei dati delle tre antenne sarà possibile ridurre il rumore ed estrarre i segnali con maggiore affidabilità. Inoltre attualmente non è possibile localizzare la posizione di una sorgente, perché i due rivelatori americani non sono sufficienti. Con l’entrata di Virgo le sorgenti potranno essere localizzate in una regione di cielo sufficientemente piccola; questo permetterà di cercare con i telescopi o i satelliti che osservano il cielo nella banda elettromagnetica, le controparti elettromagnetiche delle sorgenti gravitazionali e quindi di avere maggiori informazioni sulle sorgenti e sui processi fisici in gioco. Per esempio, se si osserverà il segnale gravitazionale emesso durante la coalescenza di due stelle di neutroni in coincidenza con un gamma ray burst, potremo stabilire  l’origine di questi “lampi” di emissione gamma di grandissima energia, che al momento è ancora sconosciuta». Ferrari ci ha spiegato, inoltre, che «le onde gravitazionali, a differenza di quelle elettromagnetiche, interagiscono molto poco con la materia. Quindi se una sorgente molto lontana emette onde dei due tipi, mentre le elettromagnetiche arrivano ai nostri rivelatori ormai modificate dalle molte interazioni con la materia che incontrano lungo il cammino, quelle  gravitazionali arrivano praticamente inalterate; quindi conservano le informazioni sulla sorgente che le ha emesse. Con le onde gravitazionali potremo studiare, e scoprire, sorgenti molto lontane e magari mai viste prima e questo allargherà moltissimo il nostro orizzonte scientifico. I rivelatori gravitazionali aprono una nuova finestra di osservazione sull’universo». E infine, qual è il ruolo dell’Italia in questo imponente progetto? «L’Italia è impegnata nella ricerca delle onde gravitazionali dagli anni ’60 del secolo scorso, quando il gruppo diretto dal professor Amaldi costruì le prime antenne che, a quei tempi erano dei cilindri di alluminio di più di 2000 kg», spiega Ferrari. «Negli anni 70 cominciò la costruzione dei rivelatori interferometrici che ha portato all’antenna Virgo di seconda generazione che sta per entrare in funzione. Fin dall’inizio l’INFN ha avuto un ruolo fondamentale, non solo perché ha cofinanziato i vari progetti, ma anche perché ha fornito strutture e personale che ha validamente affiancato il personale universitario. In tutti questi anni l’Italia è stata in prima linea, sia nella realizzazione di tecnologie avanzate (adottate anche dagli americani) che hanno permesso di raggiungere le attuali sensibilità dei rivelatori, sia nello studio teorico e fenomenologico delle sorgenti e dei segnali attesi. Negli ultimi anni, l’interazione tra Virgo e LIGO si è rafforzata attraverso la sottoscrizione di accordi per l’analisi dei dati e di protocolli per la validazione e la comunicazione dei risultati. Si può dire quindi che Italia e Stati Uniti corrono insieme in questa fantastica avventura».

Per saperne di più:

Storia dell’universo in 11 equazioni

Descrivere l’evoluzione dell’universo mettendo d’accordo le leggi della relatività di Einstein del 1915 con la scoperta dell’espansione accelerata dei vincitori del Nobel della Fisica 2011 (Perlmutter, Riess e Schmidt) e con le teorie di Yang-Mills e Higgs. È l’operazione di sintesi compiuta da Massimiliano Rinaldi, assegnista di ricerca del Dipartimento di Fisica dell’Università di Trento (gruppo teorico computazionale, sezione di Gravitazione relativistica e cosmologia) e associato al TIFPA-INFN di Trento. Rinaldi illustra i risultati della sua ricerca nell’articolo “Dark energy as a fixed point of the Einstein Yang-Mills Higgs equations“, pubblicato sull’ultimo numero delJournal of Cosmology and Astroparticle Physics, e li presenterà al pubblico nell’ambito del 28th Texas Symposium on Relativistic Astrophysics, in programma a Ginevra dal 13 al 18 dicembre 2015. «L’idea innovativa del mio lavoro», spiega Rinaldi, «è l’implementazione della relatività generale di Einstein con le equazioni di Yang-Mills in ambito cosmologico. Ho proposto una soluzione che non richiede né l’introduzione di forme di materia “esotiche” né la modifica della relatività generale». «Nel mio modello servono ben 11 equazioni per descrivere l’evoluzione nel tempo dell’universo a grande scala e della materia che contiene. Questo sistema», osserva Rinaldi, «è impossibile da risolvere in modo esatto data la sua complessità. Tuttavia, con degli avanzati metodi matematici, è stato possibile estrapolare il comportamento nel tempo delle grandezze fisiche d’interesse, come le densità di materia e di radiazione elettromagnetica nell’universo e l’evoluzione temporale del tasso di espansione. Ho così dimostrato che questo modello riproduce fedelmente l’evoluzione dell’universo a partire dall’epoca successiva al big bang fino a oggi in linea con i dati sperimentali ottenuti dalle osservazioni astronomiche. L’aspetto più attraente è il fatto che non sia necessario introdurre forme di materia “ad hoc” o modificare la relatività così come formulata da Einstein. Infatti l’esistenza del campo di Higgs è stata dimostrata al CERN nel luglio 2012 e i campi di Yang-Mills sono gli stessi che descrivono le forze tra le particelle elementari. Gli “ingredienti” necessari sono quindi già tutti presenti in natura e con questo lavoro si avvicina forse un po’ il sogno di una teoria unificata di tutte le forze». Una storia affascinante l’evoluzione dell’universo. «Fin dalla scoperta di Hubble nel 1929», racconta Rinaldi, «si sa che l’universo è in espansione e che, nel passato, era molto più piccolo, caldo e denso di quanto lo sia oggi. Fino a qualche anno fa era anche dato per scontato che l’accelerazione fosse in realtà una decelerazione perché l’intero contenuto di materia ed energia dell’universo agisce con una forza gravitazionale attrattiva frenante, secondo le leggi della relatività generale presentate esattamente un secolo fa da Einstein, nel novembre 1915. Nel 1998 due team indipendenti (premiati con il Nobel nel 2011) scoprirono, studiando il rapporto tra luminosità e distanza di certe supernove, che in realtà l’espansione dell’universo è accelerata. Questo significa che alle più grandi scale la gravità si comporta come se fosse repulsiva o come se l’universo fosse permeato da un’entità, chiamata energia oscura, che esercita una pressione negativa e che costituisce ben il 68% dell’intera energia presente. A rendere le cose ancora più intriganti c’è il fatto che l’accelerazione è un fenomeno relativamente recente nella storia cosmica, essendo iniziata circa 5 miliardi di anni fa (l’età dell’universo stimata è di 13.8 miliardi di anni)». «Dal punto di vista sperimentale, l’Agenzia Spaziale Europea sta mettendo a punto il satellite Euclid (lancio previsto nel 2020) che avrà anche il compito di misurare con grande accuratezza l’evoluzione recente delle strutture a grande scala (come gli ammassi di galassie) e questo permetterà una misura precisa e, si spera, decisiva, dell’energia oscura, la cui natura è oggetto di speculazione da quasi due decenni. Gli aspetti teorici di questa missione sono curati dallo Euclid Theory Science Working Group del quale sono membro fondatore», conclude Rinaldi.
Elisabetta Andreina Brunella (INAF)

Il lento spegnersi dell’Universo

Grazie ad uno studio di più di 200 mila galassie, un gruppo internazionale di astronomi ha misurato con grande precisione l’energia generata all’interno di un volume di spazio grande ma definito. Si tratta della stima più complessiva del bilancio energetico dell’Universo locale attraverso la quale è stato possibile confermare come l’energia prodotta oggi in una certa zona dello spazio risulti circa la metà di quella prodotta due miliardi di anni fa e questa diminuzione avviene a tutte le lunghezze d’onda, dall’ultravioletto al lontano infrarosso. I risultati, che sono stati presentati alla XXIX Assemblea Generale dell’Unione Astronomica Internazionale che si sta svolgendo in questi giorni ad Honolulu, nelle Hawaii, e che sono stati inviati per la pubblicazione su Monthly Notices of the Royal Astronomical Society, suggeriscono che l’Universo sta spegnendosi lentamente. Lo studio fa parte di un programma di ricerca denominato GAMA (Galaxy and Mass Assembly), la più grande survey multifrequenza mai realizzata. Gli scienziati hanno utilizzato i più potenti telescopi del mondo, tra cui i telescopi dell’ESO VISTA e VST all’Osservatorio del Paranal, in Cile, quest’ultimo ideato e realizzato dall’INAF – Osservatorio Astronomico di Capodimonte, a Napoli. Ulteriori osservazioni di supporto sono state realizzate con GALEX e WISE, due telescopi spaziali gestiti dalla NASA, e con il telescopio spaziale dell’ESA Herschel. «Abbiamo usato tutti i telescopi da terra e dallo spazio su cui abbiamo potuto mettere mano per misurare la produzione energetica di più di 200 mila galassie in un intervallo di lunghezze d’onde il più ampio possibile», spiega Simon Driver, ICRAR, University of Western Australia, e a capo del gruppo scientifico del progetto GAMA. I dati della survey, resi disponibili agli astronomi di tutto il mondo, comprendono misure della produzione energetica di ciascuna galassia a 21 diverse lunghezze d’onda, dall’ultravioletto al lontano infrarosso. Questo insieme di dati aiuterà gli scienziati a capire meglio come si sono formate ed evolute le diverse classi di galassie. Tutta l’energia nell’Universo è stata creata nel Big Bang, con una parte che si trova presente sotto forma di massa, convertita dalle stelle come descritto dalla famosa equazione di Einstein E=mc2. Il progetto GAMA si propone di mappare e descrivere tutta l’energia generata oggi all’interno di un grande volume di spazio e a diverse epoche nel passato. «Mentre la maggior parte dell’energia presente nell’Universo è stata prodotta a seguito del Big Bang, nuova energia viene costantemente prodotta dalle stelle fondendo insieme elementi come idrogeno e elio», aggiunge Simon Driver. «Questa nuova energia viene assorbita dalla polvere durante mentre si distribuisce all’interno della galassia ospite o sfugge nello spazio intergalattico propagandosi finché non trova un ostacolo, come ad esempio una stella, un pianeta o, per caso, lo specchio di un telescopio». «E’ il frutto di uno sforzo ciclopico» spiega Massimo Della Valle, direttore dell’Osservatorio di Capodimonte dell’Istituto Nazionale di Astrofisica . «Hanno infatti misurato la quantità di energia  emessa da circa 200.000 galassie, contenute in una sezione di universo, negli ultimi 2 miliardi di anni». Un enorme sforzo fatto unendo i dati forniti da telescopi spaziali come Herschel dell’Agenzia Spaziale Europea, Wise della NASA e i ‘tradizionali’ telescopi terrestri come quelli dell’Osservatorio Europeo Meridionale posizionati in Cile. «Sono così riusciti a misurare il tasso di diminuzione della densità di radiazione su un ampio spettro – ha aggiunto Della Valle – in pratica una conferma che l’universo si sta spegnendo e in quale modo». Che l’universo si stesse ‘spegnendo’, a causa della sua espansione, non è infatti una novità. La minore densità delle galassie causata dall’aumento delle distanze prodotto dall’espansione riduce l’emissione di energia nel punto osservato. Ma quello che è importante è che lo studio fornisce nuovi preziosi dati per comprendere meglio l’evoluzione dell’universo e il suo destino finale. I ricercatori sperano ora di espandere il loro lavoro in modo da produrre le mappe del bilancio energetico che riguarda tutta la storia dell’Universo, usando un insieme di nuove strutture osservative, tra cui il più grande radio telescopio al mondo, lo SKA (Square Kilometre Array), che verrà costruito in Australia e Sud Africa nel prossimo decennio.
di Corrado Ruscica (INAF)

Voci precedenti più vecchie