100 anni di Lambda

Celebrità il mondo anniversario della costante cosmologica, introdotta nel 1917 da Albert Einstein che la identificò con la lettera greca Lambda (Λ). Per l’occasione, due articoli pubblicati su  The European Physical Journal H, evidenziano il suo ruolo nella fisica e nella cosmologia negli ultimi 100 anni. È stato detto che per la prima volta quando è stato pensato che l’universo è statico, oggi la costante è considerata la principale considerazione per l’essenza fisica ritenuta responsabile dell’espansione accelerata del nostro universo. La verità è stata accettata, la costante cosmologica è stata per ogni argomento sulla sua vera necessità, sul suo valore e sulla sua natura. Nonostante il lungo dibattito e le ricerche teoriche e sperimentali, ancora oggi sono problemi irrisolti nella comprensione della natura Nel suo articolo,  Bohdan Novosyadlyj , associato alla Università Nazionale di Lviv , in Ucraina, spiega Albert Einstein nel 1917, elaborando il primo modello cosmologico moderno, introducendo la costante cosmologica: allora è necessaria una soluzione statica delle equazioni Einstein, allora ritenuta come la più ragionevole dalla maggior parte degli esperti. Il suo profondo significato fisico, tuttavia, sfuggì ad Einstein. Dopo la scoperta delle prove che hanno avvalorato un universo non statico nel 1929, Einstein si pentì di aver adottato questa considerazione nelle equazioni della Relatività generale. Nel frattempo, altri studi hanno cercato per comprendere il suo pensiero fisico e rendono la sua grandezza. Furono infine modelli alternativi a Lambda che  Michael Turner nel 1998, chiamò genericamente energia oscura  (energia oscura). In un altro articolo,  Cormac O’Raifeartaigh  del  Waterford Institute of Technology, in Irlanda, insieme ai suoi colleghi, ha presentato un’analisi dettagliata della storia dei 100 anni della costante cosmologica. A partire da un’idea statica universale, l’articolo spiega l’idea della costante cosmologica sia stata accantonata in seguito alle osservazioni di Hubble che implicano un’espansione dell’universo. È stato riconsiderato per efficacia l’attuale accelerata dell’universo, misurata per la prima volta con le osservazioni delle Supernove di tipo Ia, nel 1998. Recentemente, la costante ha acquisito un grande significato fisico, poiché ha contribuito a combinare recenti osservazione con la teoria. Nello specifico, è stato d’aiuto per riconciliare la teoria con il fenomeno osservato di recente energia oscura, Media Inaf  ha  conseguito Alessandro Gruppuso , ricercatore dell’Inaf di Bologna, che si occupa da tanti anni di cosmologia teorica ed osservativa, sulla costante cosmologica e sulla sempre affascinante energia oscura.

Perché Albert Einstein ad un certo punto definì l’introduzione della costante cosmologica il suo più grande errore?

Ci sono due motivazioni, una teoria ed una osservativa. Quella teoria è l’insieme della soluzione statica, in cui la teoria di Fisicamente non è accettabile, poiché è la norma di stabilità. Quella osservativa riguarda la scoperta da parte di Hubble dell’espansione dell’universo.

Perché la costante cosmologica rappresenta un problema teorico?

Il termine di costante cosmologica è matematicamente uguale ad un termine di energia di vuoto. Come riportato in uno di questi articoli, è  Lemaitre  ad accorgersi di questa equivalenza. Successivamente  Zel’dovic  mise in Relazione racconto Termine con il vuoto quantistico. Questo è un modo elegante di mantenere la cosmologia in termini di effetti quantistici di vuoto. Purtroppo, calcolando da principi il valore numerico di cui si parla di energia di vuoto, si scopre, con grande imbarazzo, che differisce anche di 120 ordini di grandezza rispetto a quanto ottenuto dalle osservazioni. Si tratta, come diceva  Hawking , del più grosso fallimento di una teoria fisica.

A che punto siamo con la determinazione di questo numero?

Dal punto di vista osservativo, Lambda ha un valore ben misurato e concorde tra vari esperimenti. Essa rappresenta, nel modello cosmologico standard, circa il 70% del budget di energia-materia contenuto nell’universo, come ad esempio misurato dal satellite Planck dell’Esa, per cui lavoro dal 2005. I problemi concettuali associati a una storia costante hanno portato diversi teorici a temi modelli a Lambda, noti come modelli di  energia oscura . Questi modelli, che riproducono alla nostra epoca cosmologica in modo dinamico, sono simili a un Lambda, si differenziano da essa tramite la loro evoluzione temporale. Uno degli obiettivi fondamentali della cosmologia osservativa moderna è proprio quello di testare l’eventuale sviluppo temporale della componente di  energia oscura .

Annunci

L’eredità di Planck

Era il 21 marzo 2013 . Scienziati e giornalisti scientifici da tutto il mondo si erano riuniti nella sede dell’Agenzia spaziale europea (Esa) – o si erano collegati  online  – per partecipare al momento in cui la  missione è  stata svelata la sua “immagine” del cosmo . Un’immagine impossibile con la luce visibile ma con le microonde. La luce della luna è inferiore al millesimo di millimetro, la radiazione che sta rilevando misurava onde più lunghe, da pochi decimi di millimetro a pochi millimetri. Ed era una radiazione emessa quando l’universo ebbe inizio.
L’espressione che si usa per indicare questa radiazione nel suo complesso è  fondo cosmico a microonde, o Cmb (dall’inglese  fondo cosmico a microonde ). Misurando le differenze quasi impercettibili che questa radiazione presenta da una regione all’altra del cielo, era possibile leggere nell’immagine determinata da Planck l’età, l’espansione, la storia e il contenuto dell’universo. Niente di meno che il progetto del cosmo
Le attese degli astronomi erano ben note. Già dovute missioni della NASA, Cobe nei primi anni Novanta e Wmap nel decennio successivo, hanno lavorato analoghe ricognizioni del cielo, ottenendo come risultato immagini simili. Immagini, però, che non hanno la precisione e la nitidezza di quelle prodotte da Planck. Grazie per la tua visione avremmo potuto cogliere l’impronta universale primordiale a un livello di dettaglio mai prima prima.
Tutto dipende da quello. Se il nostro modello dell’universo è corretto, Planck lo ha dichiarato con un’accuratezza senza precedenti. Se invece fosse risultato sbagliato, gli scienziati sarebbero stati ripartire da zero.

Un universo quasi perfetto: le  release  del 2013 e del 2015

Quando l’immagine venne rivelata, i dati confermarono il modello. Combaciavano così bene con le nostre attese da non lasciarci che una sola conclusione possibile: quello che è stato puntato sull’epoca “un universo quasi perfetto”. Perché  quasi  perfetto? Perché rimanevano comunque alcune anomalie, sulle quali si sarebbero concentrate le ricerche successive.
Trascorsi cinque anni, il consorzio di Planck ha oggi reso pubblica la cosiddetta  release di dati legacy : l’ultima – definitiva – versione dei dati. Il messaggio rimane lo stesso di allora, ed è ancora più forte.
“È questo il principale lascito di Planck”, dice  Jan Tauber , scienziato del progetto Planck  dell’Esa. “Il modello standard della cosmologia ha superato, un oggi, tutti i test. E le misurazioni che lo dimostrano le haute planck “.
Alla base di tutti i miei modelli cosmologici c’è la teoria della relatività generale di Albert Einstein. Per riconciliare le equazioni relativistiche generali con il raggio gamma di osservazioni, il modello standard della cosmologia include l’intervento di due componenti sconosciute. Primo, Una materia Che attrae, nota vieni  materia oscura fredda  ( materia oscura fredda ): un Differenza della materia ordinaria, non interagisce con la luce. Secondo, Una forma di Energia Che respinge, nota vieni  Energia oscura  ( energia oscura): è la responsabile dell’espansione dell’accelerata dell’universo. Insieme alla materia ordinaria che conosciamo, queste due componenti sono risultate essenziali per spiegare il cosmo. Ma si tratta di componenti esotiche: ancora non so cosa sono veramente
Lanciato nel 2009, Planck ha raccolto dati fino al 2013. La sua prima  uscita  – quella all’origineigine dell’universo quasi – risale alla primavera di quell’anno. Si basava solo sulla temperatura della radiazione cosmica di fondo a microonde, e usava solo la prime due  survey  a tutto il cielo della missione. Erano Dati Che fornivano also un’ulteriore prova dell’ Inflazione, la primissima fase di espansione accelerata del cosmo, avvenuta nelle frazioni di secondo inizio della storia dell’universo, in corso le quali vennero sparsi i semi di tutte le future strutture cosmiche. Offrendo una misura quantitativa della distribuzione relativa alle fluttuazioni primordiali, Planck ha fornito la migliore conferma mai dallo scenario inflazionistico.
Oltre a produrre la mappa in temperatura del fondo cosmico a microonde con un’accuratezza senza precedenti, Planck ha misurato la polarizzazione di quella radiazione: una caratteristica che indica se le onde di luce vibrano in una direzione preferenziale. La polarizzazione del fondo cosmico a microonde contiene l’impronta dell’ultima azione avvenuta tra la radiazione e le particelle di materia presenti nell’universo primordiale: porta con sé informazioni aggiuntive e cruciali sulla storia del cosmo. Ma potrebbe anche contenere informazioni sui primissimi istanti del nostro universo, offrendoci dunque indizi per comprenderne la nascita.
La seconda  releaseprodotta nel 2015, raccoglieva tutti i dati raccolti durante l’intera durata della visita, dunque in totale otto  sondaggio tra  cielo. Oltre ai dati in temperatura, conteneva anche i dati in polarizzazione, ma erano accompagnati da un’avvertenza. «Sentivamo che la qualità di alcuni dati di polarizzazione non era buona al punto da poterli impiegare per la cosmologia», ricorda Tauber. Ovviamente ciò non è impedito di usarli anche per la cosmologia, aggiunge, ma alcune delle considerazioni sono tali da giungere all’epoca come richiesto correttamente, ed erano dunque da maneggiare con cautela.
Proprio in questo sta la grande novità della  release finale, questa del 2018. Ora che il consorzio di Planck è una nuova interpretazione dei dati, la maggior parte delle considerazioni è scomparsa: gli scienziati hanno ora la certezza che è la polarizzazione sono determinati in modo accurato. «Finalmente si può usare un modello cosmologico basato sulla temperatura o sulla polarizzazione. E tutti tre », afferma  Reno Mandolesi dell’Università di Ferrara e associato Inaf,  ricercatore principale  dello strumento Lfi (Low Frequency Instrument di Planck.
«Dal 2015 a oggi, altri esperimenti hanno raccolto dati astrofisici, e nuove analisi cosmologiche sono state condotte, combinando le osservazioni della Cmb una scala piccola con quelle di galassie, ammassi di galassie e supernove. Nella maggior parte dei casi hanno rafforzato il modello di Planck e il modello cosmologico sostenuto da Planck », spiega  Jean-Loup Puget, l’  Istituto astrofisico spaziale di Orsay (Francia),  ricercatore principale  dello strumento HFI di Planck.
«Si conclude una missione di grande successo, commenta  Barbara Negri, responsabile dell’Unità esplorazione e osservazione dell’universo dell’Asi. «L’Italia ha partecipato in modo significativo alla ricerca con il monitoraggio e la pre-amplificazione criogenica per il secondo argomento HFI. L’Asi ha fornito un importante supporto alla comunità scientifica coinvolta guidata dal  principale investigatore italiano dello strumento Lfi, Reno Mandolesi, e da Paolo de Bernardis per la partecipazione allo sviluppo HFI, e ha finanziato l’industria italiana per lo sviluppo della strumentazione scientifica » .

Un enigma irrisolto: il valore della costante di Hubble

È un risultato impressionante: significa che i cosmologi possono essere certi che la loro descrizione dell’universo come un luogo fatto di materia ordinaria, materia oscura fredda ed energia oscura, popolato da strutture il cui seme è stato gettato durante una fase iniziale d’espansione inflazionaria, è in gran parte corretta. Rimangono però alcune stranezze che risultano una spiegazione. Una in particolare è legato all’espansione dell’universo. Un’espansione il cui è il dato dalla definizione di  costante di Hubble .
Per calcolare la costante di Hubble, gli astronomi hanno tradizionalmente fatto affidamento a distanze calibrate presenti nel cosmo. È possibile che la stimolazione in modo indipendente sia stimata in modo indipendente. È una tecnica ben collaudata, sviluppata nel corso del secolo scorso dal lavoro pionieristico di Henrietta Leavitt e passati  applicati, alla fine degli anni Venti, da  Edwin Hubble  e dai suoi collaboratori, che si avvalgono di stelle variabili in galassie distanti e altre riprese riuscirono a dimostrare come l’universo si sta espandendo.
Hubble ha preso il nome, il telescopio spaziale Hubble della NASA e dell ‘ Esa – è  73,5 km / s / Mpc , con un’incertezza di appena il dovuto per cento. L’esoterica unità di misura è la velocità dell’espansione in km / s per ogni antico di parsec (Mpc) di separazione nello spazio, dove un parsec equivale a 3,26 anni luce.
Un secondo metodo per ottenere una stima della stabilità di Hubble si intuisce invece del modello cosmologico che meglio si adatta all’immagine del fondo cosmico a microonde cosmica – quindi a una rappresentazione dell’universo quand’era molto giovane – per fornire una previsione del valore che la costante di Hubble dovrebbe avere oggi. Ebbene, applicato ai dati di Planck questo metodo è un valore più basso:  67,4 km / s / Mpc. E con un margine d’incertezza assai ridotto, inferiore all’uno per cento. Ora, se da una parte è straordinario che ha radicalmente diverso per derivare la costante di Hubble – uno che si basa sull’universo locale e già maturo, l’altro sull’universo distante e ancora in fasce – arrivino i valori simili, considerazione d’altra parte che, in linea di principio, rappresenta l’insieme dei segni d’errore, corrispondente. Ma così non sembra essere. Da qui la ” tensione “, l’anomalia. E la domanda diventa: come conciliare questi due risultati?
Entrambe le parti in causa sono convinte che si tratti di errori nei confronti di metodi per misurare la discrepanza. È quindi possibile che ci sia qualcosa di un po ‘particolare nel nostro ambiente cosmico locale, qualcosa che renda la riflessione nell’ambiente vicino in qualche modo anomala? Per esempio, credo che la nostra galassia si trova in una regione universitaria per cui è molto meno sul media, e questo potrebbe avere qualche effetto sul locale della costante di Hubble. Ma sfortunatamente la maggior parte degli astronomi ritiene che simili peculiarità non siano grandi a sufficienza per risolvere il problema.
«Non esiste una soluzione astrofisica soddisfacente in grado di spiegare la discrepanza. Dunque è forse una nuova fisica ancora da scoprire », dice  Marco Bersanelli  dell’Università di Milano,  vice investigatore principale  dello strumento Lfi. Per “Nuova fisica” s’intende che particelle o forze esotiche possono influenzare i risultati.
Tuttavia, ciò che è successo di più, è una linea di pensiero, perché è adattano così bene alla maggior parte delle osservazioni. «È molto difficile includere una nuova fisica che allevi la tensione è, al tempo stesso, una preoccupazione la descrizione precisa offerta dal modello standard per tutto il resto, che già esistono», spiega François Bouchet  dell’Istituto di astrofisica spaziale di Orsay,  vice investigatore principale  dello strumento Hfi.
Di conseguenza, nessuno è in grado di misurarsi, e il punto interrogativo rimane.
«Meglio, per ora, non entusiasmarci troppo alla possibilità di nuova fisica: potrebbe benissimo essere che la discrepanza, piccola, possa essere spiegata da una combinazione di piccoli errori ed effetti locali. Dovrai comunque migliorare le nostre misurazioni e pensare a modi per spiegarla », conclude Tauber.
Questa è dunque l’eredità di Planck: con il suo universo quasi perfetto, la ricerca ha offerto ai ricercatori una conferma dei loro modelli, tutti i dettagli sono irrisolti sui quali cimentarsi. In altre parole: il meglio di entrambi i mondi.

 

L’espansione cosmica è universale

Secondo uno studio guidato da un gruppo di ricercatori dello University College di Londra (UCL), l’Universo si espande in maniera uniforme: lo spazio non si dilata in una direzione privilegiata né ruota attorno a un ipotetico asse. Gli autori, guidati da Daniela Saadeh della UCL, hanno analizzato la radiazione cosmica di fondo, la luce più antica che siamo in grado di osservare, che mostra come l’Universo si espande allo stesso modo in tutte le direzioni, un fatto che va a favore del modello standard della cosmologia. I risultati sono pubblicati su Physical Review Letters. Per anni, gli scienziati hanno sostenuto che l’Universo può essere o omogeneo e isotropo, cioè apparire mediamente uguale in tutte le direzioni, o anisotropo, cioè mostrarsi ancora uniforme ma nascondendo nella sua trama cosmica una sorta di direzione “privilegiata”. Per capire il concetto di anisotropia, possiamo prendere come esempio un cristallo di diamante. Quest’ultimo possiede una densità uniforme ma i suoi atomi sono tutti allineati in determinate direzioni. Pensiamo ora a un pezzo di legno: al di là delle sue increspature superficiali, si tratta di una singola sostanza, cioè un blocco uniforme. Il legno, come tutti i materiali fibrosi, è fortemente anisotropo. In altre parole, diciamo che un materiale è anisotropo se le proprietà fisiche differiscono quando vengono misurate lungo diversi assi di riferimento. L’idea che l’Universo sia anisotropo venne avanzata in risposta ad alcune evidenze che erano in disaccordo con le proprietà di omogeneità e isotropia, così come erano state assunte dalle osservazioni. Ma ora sembra che l’ipotesi dell’Universo anisotropo abbia problemi ben più grandi di cui preoccuparsi. Nel 1543, Copernico affermò che la Terra non si trova al centro dell’Universo e mise in evidenza il fatto che il nostro pianeta orbita attorno al Sole e non viceversa. Ciò causò la nascita del principio Copernicano secondo cui non esiste una posizione speciale nel nostro Universo. Nel 20° secolo, con l’avvento della relatività generale e la scoperta dell’espansione dell’Universo in tutte le direzioni, quell’idea si sviluppò in quello che oggi chiamiamo principio cosmologico secondo cui l’Universo appare uguale in tutte le direzioni. Si tratta di una ipotesi solida e da allora abbiamo basato ogni modello cosmologico, che tenta di spiegare l’origine e l’espansione dell’Universo, assumendo che l’Universo sia davvero isotropo. Ma negli ultimi dieci anni, alcuni fatti hanno messo in dubbio questa idea. Quando si considerano scale molto piccole, si trova che la materia non è distribuita in modo uniforme. Ad esempio, i sistemi stellari, le galassie e gli ammassi di galassie sono sparsi nello spazio cosmico formando agglomerati di materia che, secondo alcuni scienziati, potrebbe essere l’indicazione della presenza di qualche tipo di forza che abbia “spinto”, per così dire, queste strutture in determinate posizioni. Ma ciò deriva dal fatto che l’Universo si originò dal Big Bang come una sorta di “zuppa omogenea” di particelle subatomiche. Una volta che l’Universo subì una rapida espansione esponenziale, chiamata inflazione, minuscole fluttuazioni quantistiche presenti nella “zuppa cosmica primordiale” si amplificarono, raggiungendo dimensioni gigantesche e causando variazioni di densità che avrebbero dato luogo successivamente alla formazione di quei siti cosmici da cui sarebbero emerse le strutture cosmiche (stelle, galassie, ammassi di galassie). Ora, il modello standard della cosmologia si basa sull’assunzione che queste variazioni di densità sono significative su scale molto piccole, mentre si possono considerare trascurabili su scale più grandi. Ma che succede se l’Universo ha la struttura di un cristallo di diamante e presenti una direzione privilegiata, intrinseca alla sua intera struttura, indipendentemente da quanto siamo in grado di zoomare? Qui è dove entra in gioco l’ipotesi dell’anisotropa, che divenne sempre più forte agli inizi degli anni 2000 quando il satellite della NASA WMAP rivelò strane anomalie (dette bump) nella radiazione cosmica di fondo che poi nessuno è stato in grado di spiegare. Infatti, esiste una regione nel nostro Universo che sta creando qualche problema agli scienziati al punto che è stata letteralmente definita “asse del diavolo”, anche se molti la considerano una pura fluttuazione statistica. Dunque, per scoprire una volta per tutte quale scenario descriva meglio la realtà, un gruppo di cosmologi della University College di Londra ha deciso di analizzare la luce più antica che siamo in grado di osservare: stiamo parlando della radiazione cosmica di fondo, la “eco” del Big Bang. Anzichè cercare delle anomalie nella radiazione cosmica, come appunto l’asse del diavolo, i ricercatori hanno tentato di trovare eventuali tracce della presenza di una direzione privilegiata dell’espansione cosmica. «Abbiamo analizzato la temperatura e la polarizzazione della radiazione cosmica sfruttando i dati di Planck», spiega Daniela Saadeh della UCL e autrice principale dello studio. Gli autori, coadiuvati dai colleghi dell’Imperial College di Londra, hanno utilizzato i dati della radiazione cosmica ricavati dal satellite Planck dell’ESA tra il 2009 e il 2013. Inoltre, grazie alla recente pubblicazione da parte del team di Planck dei dati relativi alla polarizzazione della radiazione cosmica, è stato possibile ottenere, per la prima volta, una visione complementare dello stato fisico dell’Universo primordiale che gli stessi autori del presente studio sono stati in grado di elaborare. «Abbiamo confrontato i dati reali relativi alla radiazione cosmica con le nostre predizioni per un modello di Universo anisotropo», continua Saadeh. Gli astronomi hanno quindi costruito una serie di modelli che riproducono diversi scenari di espansione e rotazione dello spazio, includendo anche l’informazione relativa alla polarizzazione. Successivamente, questi modelli sono stati messi a confronto con i dati reali della mappa del cielo ottenuta da Planck, in modo da vedere se si manifestano in essa segnali peculiari riconducibili a scenari cosmologici diversi da quello standard. «Abbiamo simulato vari segnali che si sarebbero manifestati nella radiazione cosmica di fondo nel caso in cui lo spazio avesse proprietà diverse in direzioni differenti», fa notare Saadeh. «Per segnali intendiamo l’eventuale presenza di ‘macchie’ calde e fredde che si protendono lungo un particolare asse oppure possibili distorsioni a forma di spirale. Abbiamo concluso che non esiste alcuna evidenza di particolari segnali riconducibili a questa ipotesi di anisotropia e che quindi riteniamo alquanto buona l’assunzione secondo cui l’Universo risulta isotropo su larga scala. Quindi, il nostro lavoro rappresenta, finora, la migliore evidenza a favore dell’ipotesi che l’Universo sia uniforme in tutte le direzioni». Alcuni lavori precedenti lavori si sono basati su modelli di anisotropie rappresentate da una rotazione (in gergo vector mode anisotropy). Gli autori del presente studio hanno invece seguito un approccio più generale che include modelli anisotropi basati su uno spettro più ampio di geometrie che può assumere lo spazio (scalari, vettori e tensori). I ricercatori hanno così provato a variare i parametri di questo modello più generico confrontandolo con i dati forniti dal satellite Planck, le cui misure di polarizzazione sono estremamente sensibili ai modelli anisotropi. «La nostra attuale comprensione dell’Universo si basa sull’assunzione che non esista una direzione privilegiata, anche se c’è un elevato numero di modi permessi dalla relatività di Einstein che rendono possibile l’esistenza di Universi che ruotano e si dilatano», dice Saadeh. I risultati delle simulazioni mostrano che questi modelli (anisotropi) sono inconsistenti con le osservazioni. «Non si può mai escluderlo completamente, ma ora possiamo dire che la probabilità che l’Universo preferisca espandersi in una certa direzione rispetto a un’altra è pari a 1 su 121 mila», dice Saadeh. «Perciò è importante che abbiamo dimostrato che il nostro Universo si espande in tutte le direzioni». In un certo senso, si tratta di una piccola delusione perché un universo non omogeneo e isotropo supporterebbe le uniche reali soluzioni delle equazioni di campo di Einstein, quell’insieme di 10 equazioni della relatività generale che descrivono l’interazione fondamentale della gravità come risultato della curvatura dello spazio causata dalla presenza di materia ed energia. Queste soluzioni, proposte dal matematico di origine italiana Luigi Bianchi verso la fine del 19esimo secolo, consentono l’esistenza di un Universo anisotropo, ma se questa assunzione non è vera, come sembra, allora gli scienziati dovranno scoprire un modo tutto nuovo per spiegare i risultati delle equazioni di campo di Einstein. «L’interessante lavoro di Daniela Saadeh e collaboratori affronta una delle tematiche fondamentali della cosmologia», spiega a Media INAF Carlo Burigana, ricercatore dell’INAF presso l’Istituto di Astrofisica Spaziale e Fisica Cosmica (IASF) di Bologna. «Gli autori estendono le analisi della Collaborazione Planck, con cui sono consistenti, migliorando i vincoli esistenti per i modelli di Bianchi e mostrando come l’analisi accurata delle anisotropie di polarizzazione del fondo cosmico, oltre alla possibilità di sondare la fisica dello stato primordiale dell’Universo, permette di comprendere la geometria dell’Universo. Viene dimostrato ancora una volta la grande legacy scientifica del satellite Planck dell’ESA e la rilevanza della radiazione cosmica di fondo nel dare risposte a quesiti cruciali». Insomma, gli attuali modelli cosmologici assumono l’ipotesi che l’Universo si comporti in maniera identica in ogni direzione. Se questa ipotesi non fosse vera, dovremmo certamente considerare in modo differente molte cose. «Se l’Universo fosse anisotropo, dovremmo rivedere molti calcoli sulla sua storia e contenuto. Tuttavia, l’elevata qualità dei dati forniti da Planck è stata un’occasione d’oro perché ha permesso di verificare il modello standard della cosmologia. Siamo molto contenti che il nostro lavoro vendichi in qualche modo ciò che i cosmologi hanno ipotizzato finora. Per ora», conclude Saadeh, «la cosmologia é al sicuro».

Autovelox per universi in espansione

Del fatto che l’universo s’espandesse, che lo spazio fra una galassia e l’altra andasse aumentando con il tempo, se n’era già accorto Edwin Hubble sul finire degli anni Venti. Ma non si limita a espandersi, l’Universo: lo fa accelerando. Questo significa che, più è grande la distanza fra una galassia e una qualsiasi altra, maggiore sarà la velocità alla quale le due continueranno ad allontanarsi. Quanto maggiore? Il valore, uno fra i pochi parametri fondamentali della cosmologia contemporanea, è noto come “costante di Hubble”, anche se non è certissimo che sia proprio costante. E quanto vale? Per stabilirlo, gli astrofisici hanno utilizzato essenzialmente due tipi di approcci: da una parte sono partiti misurando i parametri fondamentali dell’universo all’epoca del Big Bang con sonde cosmologiche, come WMAP della NASA e Planck dell’ESA. Ma c’è almeno un altro approccio per calcolare la costante di Hubble, ed è quello (vedi schema qui sotto) che fa uso di due particolari tipi di stelle di riferimento: le supernove di tipo Ia, stelle che esplodono emettendo una quantità di luce costante, e le cefeidi, stelle che invece pulsano con una frequenza correlata con la loro vera luminosità. Caratteristiche, queste, che consentono agli astronomi di calcolare in modo preciso la distanza di queste stelle da noi, e dunque la distanza reciproca delle galassie che le ospitano. Dato fondamentale, è facile intuirlo, per derivare poi la costante di Hubble. La cosa impagabile di questi due approcci è che sono alquanto indipendenti l’uno dall’altro. Perfetti, perciò, per confermarsi a vicenda: se tutto va come ci si attende, messi in conto gli inevitabili errori nella stima, i due valori dovrebbero essere sovrapponibili. Ma uno studio in uscita su The Astrophysical Journal, basato su dati raccolti dal telescopio spaziale Hubble – che ha osservato 300 supernove di tipo Ia e 2400 cefeidi, studio guidato fra l’altro da Adam Riess, premio Nobel per la Fisica nel 2011 proprio per aver confermato che l’espansione dell’universo sta accelerando – trova un valore per la costante di Hubble significativamente più elevato rispetto a quello derivato dalle misure cosmologiche. E ciò che è peggio è che, anche considerando i margini d’errore – ridottissimi per quest’ultima misura – i due risultati non si sovrappongono più. È un po’ come costruire un tunnel cominciando a scavare dalle due estremità, e ritrovarsi a metà strada con le due gallerie che non s’incontrano… Ora si tratta di capire perché. Ci stanno provando, fra gli altri, Eleonora Di Valentino e Alessandro Melchiorri, ricercatrice postdocin Francia la prima, presso l’Institut Astrophysique di Parigi, e professore alla Sapienza, nonché associato INAF, il secondo. Insieme a Joseph Silk, di Oxford, hanno appena messo in rete un preprint(un articolo ancora in attesa di peer review) che affronta proprio questa discrepanza. Media INAF li ha intervistati.

Partiamo dall’oggetto del contendere: la costante di Hubble. Vale a dire, il tasso d’accelerazione dell’espansione dell’universo. Qual è il valore oggi comunemente accettato? E quanto il team di Riess suggerisce invece che sia, in base ai dati Hubble?

«Il punto è che non c’è al momento un valore comunemente accettato. È possibile misurare la costante di Hubble (H0) in maniera diretta», spiega Di Valentino, «come fanno Riess e colleghi, o in maniera indiretta (vale a dire assumendo un modello cosmologico), come si fa con la radiazione di fondo cosmico (CMB). Già la CMB pre-Planck preferiva un valore minore rispetto a quello misurato in modo diretto dallo Hubble Space Telescope (HST). Questa tensione, che era a livello di 2 deviazioni standard appena quando i nuovi dati di Planck sono stati rilasciati, si è adesso inasprita a 3.3 deviazioni standard con la nuova analisi di Riess et al. Questo sta a indicare che maggiore è la precisione con cui H0 viene misurata, maggiore diventa la tensione tra le due misure. Riess e il suo team ottengono così un valore pari a 73.2 km al secondo per megaparsec [ndr: che corrisponde suppergiù a 263 mila km/h in più ogni 3.26 milioni di anni luce di distanza], con un intervallo d’errore di più o meno 1.75 km/s/Mpc, mentre i dati di Planck, assumendo il modello cosmologico standard, forniscono 66.93 più o meno 0.62 km/s/Mpc».

Quali possono essere le ragioni di questa discrepanza? Sbaglia Planck? Sbaglia Hubble? O c’è qualche altra possibilità?

«La discrepanza può essere dovuta a sistematiche in uno dei due esperimenti», dice Melchiorri, «ma dopo cinque anni di analisi dati comincia a essere difficile che vi siano grandi errori. La possibilità più interessante è che entrambi abbiano ragione e che vi sia una nuova fisica a spiegare la discrepanza. Nel nostro articolo mostriamo che la via migliore consiste nel cambiare l’equazione di stato dell’energia oscura. Una cosa abbastanza ragionevole, visto che di questa componente non sappiamo nulla».

In tutto ciò cosa c’entrano i neutrini? Vedo che nel vostro articolo vi fate riferimento…

«Riess e colleghi hanno proposto delle specie di neutrini “extra”, per esempio i neutrini sterili, per risolvere la tensione. Nel nostro articolo facciamo però vedere», osserva Melchiorri, «che questa non è la via migliore, dato che il fit [ndr: la corrispondenza] con i dati peggiora».

Dunque quali alternative proponete, nel vostro articolo?

«Come prima cosa presentiamo un’analisi considerando allo stesso tempo tutte le possibili soluzioni note. In pratica estendiamo l’analisi dai 6 parametri usuali a 12. In secondo luogo», continua Di Valentino, «mostriamo che la soluzione migliore consiste nel considerare modelli di energia oscura con equazione di stato negativa (w < -1). Questo si può ottenere in molti modi diversi, ma il punto importante è che la costante cosmologica non sarebbe più sufficiente».

Ha forse qualcosa a che fare con quello che chiamate “phantom-like dark energy component”? Di che si tratta?

«L’origine del nome “phantom” deriva da un articolo di Robert Caldwell che si rifaceva al primo film della seconda trilogia di Lucas, Phantom menace: La minaccia fantasma. Infatti in questo modello l’energia oscura è una “minaccia oscura” che produrrebbe la distruzione dell’universo tra una cinquantina di miliardi di anni», nota Melchiorri. «C’è da dire che il modello proposto non è teoricamente molto più bello del film mediocre di Lucas, ma è una possibilità».

Ma oltre alla distruzione dell’universo, che già non mi pare poco, quali conseguenze avrebbe, per l’astrofisica e per la cosmologia, una variazione così significativa della costante di Hubble?

«I dati pre-Planck potevano conciliare le misure di CMB e di HST in due modi: con una dark radiation, e quindi un numero di specie di neutrini relativistici maggiore di 3, o con una dark energy diversa dalla costante cosmologica, cioè w diverso da -1. Oggi, con Planck, la possibilità di un numero di specie di neutrini maggiore di 3 non è più praticabile. Se entrambi i risultati fossero confermati, una possibilità per metterli d’accordo è l’abbandono della costante cosmologica, difficile da spiegare dal punto di vista fisico, in favore di un fluido di dark energy con equazione di stato w < -1. Un modello phantom, appunto», conclude Di Valentino.
di Marco Malaspina (INAF)

Come evolve l’universo? Chiedi alle simulazioni

L’Universo, si sa, è in continua espansione. Esso muta, creando nuove strutture che poi si aggregano nel corso del tempo. La domanda è: come fa ad evolvere? Oggi, alcuni fisici dell’Università di Ginevra (UNIGE), in Svizzera, hanno sviluppato una simulazione numerica che offre preziosi indizi sul complicato processo di formazione delle strutture cosmiche. Partendo dalle equazioni di Einstein, gli scienziati sono stati in grado di integrare nei loro calcoli la rotazione dello spazio-tempo e di misurare l’ampiezza delle onde gravitazionali, la cui esistenza è stata annunciata per la prima volta lo scorso 11 Febbraio. I risultati di questo studio sono pubblicati su Nature Physics. Fino ad oggi, i ricercatori hanno simulato la formazione delle strutture cosmiche su larga scala basandosi sulla gravitazione newtoniana. Questi codici postulano che lo spazio non cambia, cioè rimane statico, mentre evolve solo il tempo. Le simulazioni risultano molto precise se la materia presente nell’Universo si muove lentamente, ossia con una velocità di circa 300 Km/sec. Tuttavia, quando le particelle si muovono in un regime di velocità relativistiche, il codice fornisce solamente calcoli approssimati. Inoltre, esso non permette di descrivere le fluttuazioni dovute all’energia oscura, che con il suo contributo pari al 70 percento del contenuto materia-energia presente nell’Universo è responsabile dell’espansione cosmica accelerata. Dunque, da qui la necessità di trovare un nuovo modo per simulare la formazione delle strutture cosmiche allo scopo di studiare questi fenomeni. Il team di ricercatori guidato da Ruth Durrer del Dipartimento di Fisica Teorica presso la Facoltà di Scienze della UNIGE ha creato un nuovo codice, chiamato gevolution, che si basa sulle equazioni di Einstein. La teoria della relatività generale considera lo spazio-tempo come un’entità dinamica, il che vuol dire che sia lo spazio che il tempo cambiano continuamente, a differenza del concetto di spazio che Newton considerava statico nella sua teoria. Lo scopo di questo studio è quello di predire l’ampiezza e gli effetti associati alla generazione delle onde gravitazionali e la rotazione dello spazio-tempo, tecnicamente nota come frame-dragging, indotti dalla formazione delle strutture cosmiche. Per far questo, i fisici della UNIGE hanno analizzato una porzione cubica di spazio che consiste di 60 miliardi di zone ognuna delle quali contiene una particella (un po’ come dire una porzione di una galassia), per studiare il modo con cui esse si muovono rispetto alle particelle circostanti. Grazie alla libreria LATfield2, sviluppata da David Daverio della UNIGE, che permette di risolvere equazioni differenziali parziali non-lineari, e al supercomputer dello Swiss Supercomputer Center di Lugano, i ricercatori sono stati in grado di tracciare il moto delle particelle e calcolare la metrica (ossia la misura della distanza e del tempo tra due galassie) facendo uso delle equazioni della relatività. I risultati di questi calcoli permettono di quantificare le differenze tra i dati ottenuti dalla simulazione gevolution e quelli ricavati mediante i codici newtoniani. Ciò permette inoltre di misurare l’effetto della rotazione dello spazio-tempo e delle onde gravitazionali causati, come si diceva prima, dalla formazione delle strutture cosmiche. In realtà, la rotazione dello spazio-tempo e l’effetto dovuto alla presenza delle onde gravitazionali non è mai stato preso in considerazione prima della formulazione del codice gevolution. Questo approccio apre così un nuovo modo di confrontare i risultati forniti dalla simulazione con le osservazioni. Insomma, grazie a questo nuovo codice numerico, i fisici dell’UNIGE potranno ora disporre di un ulteriore strumento d’indagine in grado di testare la relatività generale su una scala di distanze molto più grande rispetto a quanto sia stato fatto in precedenza. Infine, il gruppo di Durrer renderà pubblico il codice gevolution in modo da favorire quanto più possibile la ricerca in questo campo. L’obiettivo finale è quello, almeno così si spera, di far luce sui misteri dell’energia oscura.
di Corrado Ruscica (INAF)

Costante cosmologica, quel lambda che ci salva

Era il cruccio di Einstein, quella dannata lettera lambda. S’era visto costretto a infilarla controvoglia nelle sue equazioni di campo della relatività generale per evitare che tutti gli oggetti presenti nell’universo finissero per ammassarsi l’uno sull’altro e scivolare inesorabilmente in un pozzo senza fondo dello spazio-tempo. Salvo poi rimangiarsi l’intuizione non appena Hubble offrì al mondo, con la scoperta dell’espansione dell’universo, una via di scampo alternativa. Fu allora che Einstein definì quel termine lambda, in apparenza ormai superfluo, «la più grande cantonata della mia vita». In realtà, mai cantonata fu più felice: negli ultimi decenni, quella lettera lambda prematuramente rinnegata è stata non solo riesumata e riabilitata, ma è diventata la protagonista irrinunciabile del modello standard della cosmologia, il modello Lambda-CDM, appunto. È lei la famosa costante cosmologica – identificata a volte, un po’ impropriamente, con l’energia oscura – alla quale dobbiamo l’accelerazione dell’espansione dell’universo. E se pensate che nulla vi possa riguardare di meno, sbagliate di grosso. Il perché lo spiega uno studio appena uscito su Physical Review Letters: se l’universo non si espandesse seguendo il ritmo imposto dalla costante cosmologica, i micidiali lampi di raggi gamma (GRB, dalle iniziali di gamma-ray burst), che spazzano l’intero cosmo con la potenza di fuoco di migliaia di supernove, avrebbero reso pressoché impossibile lo sviluppo di forme di vita complesse. Fra i cinque autori dello studio, guidato da Tsvi Piran del Racah Institute of Physics di Gerusalemme, c’è anche la cosmologa italiana Licia Verde, professoressa di fisica e astronomia alle università di Oslo e di Barcellona. Media INAF l’ha intervistata.
Professoressa Verde, il vostro studio propone uno scenario con una potenziale vittima, la vita, e due attori protagonisti: la costante cosmologica e i GRB. Chi è il buono, chi il cattivo? E perché?
«Entrambi gli attori recitano un ruolo sia buono che cattivo. Proprio come nella vita fuori da Hollywood, o come in un documentario sugli animali stile David Attenborough. I GRB provengono da esplosioni di stelle massive. Queste esplosioni, se avvengono troppo vicino a casa, rilasciano radiazione fatale per la vita “avanzata” – ovvero, una vita tale da produrre un osservatore. Non dimentichiamo però che sono proprio le esplosioni di stelle massive ad arricchire il mezzo interstellare di elementi “pesanti” (ferro, ossigeno…), indispensabili per formare i pianeti e  la vita.
Quanto alla costante cosmologica, è da anni che si sa che se è troppo grande risulta “cattiva”, perché impedisce alla gravità di far bene il suo lavoro: formare strutture come le galassie, le stelle, i pianeti, eccetera. Però dal nostro studio risulta che nemmeno una costante cosmologica troppo piccola aiuta: le galassie rimangono troppo vicine l’una all’altra, cosicché la radiazione di un “GRB killer” può raggiungere facilmente pianeti che ospitano la vita, con conseguenze negative per la vita stessa».
Proviamo a tracciare l’identikit d’un “GRB killer”: per esempio, a che distanza dovrebbe trovarsi, per ucciderci?
«È difficile dare una risposta esatta, è una di quelle domande a cui è più facile rispondere con la statistica – cioè calcolando la probabilità per tutti i possibili pianeti simili alla Terra mai esistiti nell’universo – che non per il caso specifico. Però i numeri non mentono, quindi vediamo alcuni numeri. Un “long duration GRB” fra quelli più energetici (il 10 percento dei più energetici), a una distanza di 50 Kpc – vale a dire, attorno ai 150 mila anni luce, grosso modo la distanza che ci separa dalla Large Magellanic Cloud – distruggerebbe il 90 percento dello strato di ozono.
Lo strato d’ozono è il nostro scudo contro la radiazione ultravioletta, che – oltre alle scottature solari – provoca danni e mutazioni al DNA e rompe le proteine. Quindi non solo provoca il cancro: il danno maggiore che può essere prodotto dalla radiazione ultravioletta è che distrugge la fotosintesi. Di conseguenza, tutto quello che dipende dalla fotosintesi (alghe, plancton…) muore, e così s’interrompe la catena alimentare. È vero che la vita sotto marina è automaticamente protetta dalla radiazione ultravioletta anche senza lo strato di ozono, ma il plancton – che è alla base di tutta la catena alimentare – verrebbe comunque distrutto».
In base alle vostre valutazioni statistiche, quale probabilità abbiamo, noi come specie umana, di venire investiti da un fascio di raggi gamma tale da estinguerci? Nel giro del prossimo milione di anni, diciamo?
«La frequenza, per noi sulla Terra, è stimata attorno a un evento ogni miliardo di anni. Quindi la probabilità, in un milione di anni, è dello 0.1 percento. Ovviamente, niente ci impedisce di pensare di mettere da parte abbastanza ozono “in bombolette” per rilasciarlo nell’atmosfera nel caso improbabile e sfortunato che un simile evento si verifichi…».
E in passato, in base ai vostri calcoli, quanto è probabile che i GRB abbiano avuto un ruolo nelle grandi estinzioni avvenute sulla Terra?
«Non sono i nostri calcoli a dirlo: è risaputo che l’estinzione Ordoviciana (responsabile della scomparsa dell’85% di tutte le specie esistenti al momento sulla Terra) fu dovuta, molto probabilmente, a uno di questi eventi. Nonostante ciò, la vita intelligente s’è sviluppata lo stesso, certo, ma se fosse accaduto più tardi…».
Torniamo alla costante cosmologica: dalle vostre conclusioni, pare di capire che viviamo nel migliore degli universi possibili, o quasi. È così?
«Sì, ma non è così sorprendente. Non vediamo una costante cosmologica troppo grande, perché se fosse troppo grande non ci sarebbero state galassie, stelle e pianeti per sviluppare una vita abbastanza complessa da puntare un telescopio al cielo e dire “oibò vedo una costante cosmologica!”. E non vediamo una costante cosmologica troppo piccola perché, se fosse troppo piccola, sarebbe stato più probabile ritrovarsi fritti per colpa di qualche GRB… Se un’estinzione tipo quella Ordoviciana fosse avvenuta all’epoca, per esempio, degli antichi greci o degli egizi, certamente non avremmo avuto un Galileo a puntare il telescopio al cielo».
Visto che viviamo in un universo in continuo mutamento, quale periodo della sua storia sarebbe il più favorevole allo sviluppo della vita?
«È un calcolo che nel nostro studio non facciamo, ci limitiamo a considerare diversi valori della costante cosmologica. Però si può tentare una “traduzione” qualitativa in termini di periodi della storia dell’universo. Facendo questa traduzione – approssimata – possiamo dire che, in un certo senso, sì: troppo nel futuro, e si saranno spente le stelle capaci di sostenere pianeti simili alla Terra; troppo nel passato, e ci sono troppi GRB pericolosamente vicini… Ma non è una sorpresa, anzi: ci aspettiamo di trovarci in un periodo particolarmente favorevole a noi, altrimenti, statisticamente parlando, non saremmo qui».
Dunque siete d’accordo con i sostenitori del principio antropico? È un universo a nostra misura, quello in cui ci troviamo?
«Quello che diciamo è che vediamo un processo di selezione. Se vediamo un universo “a nostra misura” è perché, se non lo fosse, molto probabilmente non saremmo qui a osservarlo».
di Marco Malaspina (INAF)

Speciale onde gravitazionali

Dopo giorni, anzi diciamo settimane, di rumors, voci di corridoio, gossip, mail rubate e tanta attesa, la notizia è arrivata: le onde gravitazionali predette da Albert Einstein 100 anni fa sono state “viste”. Insomma è stata confermata l’esistenza di quelle increspature nel tessuto spazio-temporale provocate da eventi di dimensioni catastrofiche, come per esempio il merging (la fusione) di due buchi neri supermassici (nel caso di questa scoperta si tratta di buchi neri con una massa rispettivamente di 36 e 29 volte quella del Sole), ma anche come l’esplosione di una supernova, la stessa formazione di buchi neri, o il residuo dell’esplosione del Big Bang. Fino a qui, potreste dire, cosa c’è di “complicato”? Insomma perché finora non sono state individuate dai potentissimi strumenti a nostra disposizione? Ebbene, è proprio qui il problema: le onde gravitazionali sono difficilissime da individuare proprio perché il loro passaggio ha effetti quasi invisibili, si parla di milionesimi delle dimensioni di un atomo.

La scoperta deve tutto a LIGO, cioè il Laser Interferometer Gravitational-Wave Observatory (per noi italiani, osservatorio interferometrico laser per le onde gravitazionali), costruito negli Stati Uniti e voluto dal California Institute of Technology (Caltech) e dal Massachusetts Institute of Technology (MIT), sponsorizzato dalla National Science Foundation (NSF). LIGO sfrutta raggi laser – appunto – per individuare il transito di onde gravitazionali. Pensate che solo la fase di costruzione (terminata nel 1999) è costata 365 milioni di dollari ed è ancora il più grande e più ambizioso progetto mai finanziato dalla NSF. Dal 2002 al 2010 LIGO non ha rilevato alcuna onda gravitazionale, per questo gli strumenti sono stati “spenti” per 5 anni durante i quali i rivelatori sono stati sostituiti e migliorati. L’operazione di revisione (costata in tutto 200 milioni di dollari) ha portato ad Advanced LIGO, cioè un osservatorio che sarà fino a dieci volte più sensibile a questi segnali. Il 18 settembre 2015, Advanced Ligo ha iniziato le sue prime osservazioni scientifiche a circa quattro volte la sensibilità iniziale degli interferometri LIGO e la sensibilità sarà ulteriormente rafforzata fino a raggiungere il massimo intorno al 2021.

LIGO, gli Stati Uniti collegati da nord a sud

Come detto, LIGO si trova negli Stati Uniti e si compone di due impianti gemelli ma separati, gestiti come un singolo e grande osservatorio, a cui può accedere la comunità scientifica mondiale. Le due stazioni si trovano a Livingston, in Louisiana, e a Hanford, nello stato di Washington. A separare i due rilevatori ci sono oltre tremila chilometri: più grande è il rivelatore e più è sensibile (così come accade per grandi network simili). Ed è essenziale la presenza di due o più rilevatori, perché in uno dei siti potrebbero verificarsi micro-terremoti, potrebbe esserci eccessivo rumore acustico, o fluttuazioni del laser e ciò porterebbe a disturbi che, simulando l’onda gravitazionale, renderebbero il risultato fallace. È improbabile, però, che allo stesso momento si verifichino gli stessi disturbi in due luoghi così distanti, da qui l’interazione di più rilevatori.

Osservatori a forma di “L”

Ogni interferometro è lungo 4 chilometri e presenta una forma a “L” (i due bracci sono disposti ad angolo retto). I laser viaggiano avanti e indietro all’interno di tubi a vuoto spinto (diametro 1,2 metri) che permettono di misurare con una precisione elevatissima la distanza degli eventi tra i due specchi di super precisione su cui si riflettono questi raggi. La tecnica utilizzata è quella dell’interferometria: lo specchio semitrasparente suddivide il fascio laser in due parti, poi inviate nei due bracci a “L” dell’interferometro fino a incontrare altri due specchi che rimbalzano il laser. E proprio questi specchi sono i veri sensori: passando attraverso i rilevatori, le onde gravitazionali disturbano, anche se di pochissimo, il viaggio dei fasci laser e questo lieve disturbo è stato finalmente registrato. Questi cambiamenti sono piccoli, anzi piccolissimi: la centomilionesima parte del diametro di un atomo di idrogeno, impercettibili increspature che possono essere rilevate solo isolando le masse di prova da tutti i disturbi provenienti dall’esterno, come appunto le vibrazioni sismiche della terra o le molecole di gas presenti nell’aria (all’interno dei due tunnel, interamente schermati con il cemento, c’è un vuoto ultra-spinto). Le lievi variazioni nelle distanze delle masse sono la prova del passaggio dell’onda gravitazionale.

Triangolazione e collaborazione internazionale

Una volta “catturata” l’onda gravitazionale,per risalire anche all’evento che l’ha generata bisogna capire da dove proviene. E per determinare l’esatta posizione celeste (triangolazione) saranno fondamentali dati provenienti da più strumenti localizzati in diverse parti del mondo. Per questo la “caccia” alle onde gravitazionali impegna ricercatori di diverse istituzioni. Lo stesso LIGO fa parte di un network internazionale di osservatori: ricordiamo anche GEO 600 (vicino ad Hannover, in Germania), TAMA (Tokyo, Giappone) e Virgo (vicino a Pisa, qui in Italia).

Il ruolo di Virgo e dell’Italia

Proprio al software italiano e alla collaborazione LIGO/Virgo dobbiamo l’analisi dei dati che ha portato alla scoperta. A questo proposito, abbiamo chiesto un commento a Valeria Ferrari, professoressa di Relatività generale al dipartimento di Fisica dell’università La Sapienza di Roma, ricercatrice dell’Istituto Nazionale di Fisica Nucleare (INFN), nonché studiosa da anni delle sorgenti di onde gravitazionali. «Sebbene attualmente Virgo non sia ancora in funzione, c’è un accordo tra gli scienziati di Virgo e di LIGO per effettuare insieme l’analisi dei dati e ci sono protocolli severissimi di validazione dei risultati sottoscritti da entrambi. Quindi anche se i dati attualmente sono presi solo dall’esperimento americano, o in futuro potrebbe accadere l’opposto, questi vengono analizzati dalla collaborazione e sono patrimonio comune». A Ferrari abbiamo domandato cosa cambierà quando Virgo entrerà in funzione: «La rete di rivelatori sarà più potente perché con opportune tecniche di analisi dei dati delle tre antenne sarà possibile ridurre il rumore ed estrarre i segnali con maggiore affidabilità. Inoltre attualmente non è possibile localizzare la posizione di una sorgente, perché i due rivelatori americani non sono sufficienti. Con l’entrata di Virgo le sorgenti potranno essere localizzate in una regione di cielo sufficientemente piccola; questo permetterà di cercare con i telescopi o i satelliti che osservano il cielo nella banda elettromagnetica, le controparti elettromagnetiche delle sorgenti gravitazionali e quindi di avere maggiori informazioni sulle sorgenti e sui processi fisici in gioco. Per esempio, se si osserverà il segnale gravitazionale emesso durante la coalescenza di due stelle di neutroni in coincidenza con un gamma ray burst, potremo stabilire  l’origine di questi “lampi” di emissione gamma di grandissima energia, che al momento è ancora sconosciuta». Ferrari ci ha spiegato, inoltre, che «le onde gravitazionali, a differenza di quelle elettromagnetiche, interagiscono molto poco con la materia. Quindi se una sorgente molto lontana emette onde dei due tipi, mentre le elettromagnetiche arrivano ai nostri rivelatori ormai modificate dalle molte interazioni con la materia che incontrano lungo il cammino, quelle  gravitazionali arrivano praticamente inalterate; quindi conservano le informazioni sulla sorgente che le ha emesse. Con le onde gravitazionali potremo studiare, e scoprire, sorgenti molto lontane e magari mai viste prima e questo allargherà moltissimo il nostro orizzonte scientifico. I rivelatori gravitazionali aprono una nuova finestra di osservazione sull’universo». E infine, qual è il ruolo dell’Italia in questo imponente progetto? «L’Italia è impegnata nella ricerca delle onde gravitazionali dagli anni ’60 del secolo scorso, quando il gruppo diretto dal professor Amaldi costruì le prime antenne che, a quei tempi erano dei cilindri di alluminio di più di 2000 kg», spiega Ferrari. «Negli anni 70 cominciò la costruzione dei rivelatori interferometrici che ha portato all’antenna Virgo di seconda generazione che sta per entrare in funzione. Fin dall’inizio l’INFN ha avuto un ruolo fondamentale, non solo perché ha cofinanziato i vari progetti, ma anche perché ha fornito strutture e personale che ha validamente affiancato il personale universitario. In tutti questi anni l’Italia è stata in prima linea, sia nella realizzazione di tecnologie avanzate (adottate anche dagli americani) che hanno permesso di raggiungere le attuali sensibilità dei rivelatori, sia nello studio teorico e fenomenologico delle sorgenti e dei segnali attesi. Negli ultimi anni, l’interazione tra Virgo e LIGO si è rafforzata attraverso la sottoscrizione di accordi per l’analisi dei dati e di protocolli per la validazione e la comunicazione dei risultati. Si può dire quindi che Italia e Stati Uniti corrono insieme in questa fantastica avventura».

Per saperne di più:

Voci precedenti più vecchie