Signori si cambia: “Hubble-Lemaître law”

L’equazione è di quelle brevissime, appena tre termini, come si addice alle più eleganti tra le rappresentazioni matematiche della Natura: v = HD. Ciò che descrive è uno fra i tratti caratteristici del nostro universo: la velocità della sua espansione. E ciò che implica – descrivendo, appunto, un universo in espansione – è nientemeno che il big bang. Un’equazione fondamentale, dunque, conosciuta fino a oggi come Legge di Hubble. Ma presto potrebbe cambiare nome. E diventare “Legge di Hubble-Lemaître”, in onore del fisico e astronomo belga che per primo la formulò: Georges Lemaître, prete diocesano.La proposta, da tempo nell’aria, è del comitato esecutivo della Iau, l’Unione astronomica internazionale. Gli stessi che hanno il potere di dare i nomi alle stelle, per dire. Gli stessi che, nel 2006, sancirono che Plutone non è più un pianeta. E proprio i malumori che fecero seguito a quella storica risoluzione li hanno ora indotti a procedere con cautela: la risoluzione sulla Legge di Hubble-Lemaître, pur approvata dai circa 3000 iscritti all’Iau presenti a Vienna la settimana scorsa in chiusura dell’Assemblea generale, per diventare effettiva dovrà superare il voto – questa volta elettronico – di tutti i circa diecimila membri dell’Unione. Insomma, per la decisione definitiva occorre aspettare ancora tre mesi. Nell’attesa, per comprendere le ragioni storiche e scientifiche di questa risoluzione, abbiamo chiesto aiuto – e un parere – all’astrofisico Massimo Della Valle, dirigente di ricerca all’Inaf di Napoli. «Nel 1927 Lemaître pubblica – in francese e su un giornale poco diffuso, gli Annales de la Société Scientifique de Bruxelles, l’articolo “Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques” (“Un Universo omogeneo  con massa costante e raggio crescente che spiega le velocità radiali delle nebulose extragalattiche”, come venivano chiamate allora le galassie esterne alla nostra). In quest’articolo Lemaître non si limita a scoprire le soluzioni dinamiche alle equazioni della relatività generale di Einstein (peraltro già trovate da Friedmann nel 1922), dalle quali deriva quella che oggi è conosciuta, appunto, come “legge di Hubble” – cioè che la velocità di recessione delle galassie è linearmente proporzionale alla distanza: Lemaître va oltre. Utilizzando le velocità di 42 galassie, misurate qualche anno prima da Vesto Slipher, e le loro luminosità, derivate nel 1926 da Hubble, determina il tasso di espansione dell’universo. Quindi è Lemaître a misurare, prima di Edwin Hubble, la costante H0 , successivamente chiamata costante di Hubble. Lemaître trova due valori», ricorda Della Valle, «575 km/s e 670 km/s per megaparsec, e assume un valore medio di 625 km/s per megaparsec. Due anni dopo, nel 1929 e poi nel 1931 con Humason, Edwin Hubble raffina la misura trovando Hpari a circa 500 km/s per megaparsec [ndr: oggi è stimata fra i 66 e i 75 km/s/megaparsec]». Come mai, allora, la relazione è stata invece attribuita all’astrofisico statunitense? «In molte storie importanti non mancano i colpi di scena. Questa non fa eccezione. Nel 1931», continua Della Valle, «l’editore di Monthly Notices of the Royal Astronomical Society suggerì a Lemaître di fornire una versione in inglese del suo lavoro del 1927, per poterla pubblicare sul suo giornale. Il lavoro viene pubblicato, ma ne manca un pezzo, come appurato successivamente da vari autori, fra i quali l’astrofisico Sidney van den Bergh, che nel 2011 scriveva: “sembra che il traduttore dell’articolo di Lemaître del 1927 abbia deliberatamente cancellato quelle parti del documento che si occupavano della determinazione di ciò che viene attualmente chiamato parametro di Hubble. La ragione di ciò rimane un mistero”».

Lost in translation

Insomma, è come se il contributo di Lemaître fosse andato “perduto” nel corso della traduzione. Chi ha “censurato” Lemaître quando ha tradotto l’articolo? «Il mistero è stato recentemente svelato da Mario Livio», spiega a Media Inaf Della Valle, «mentre era astronomo allo Space Telescope Institute di Baltimora. Rovistando tra la corrispondenza della Royal Astronomical Society e nell’archivio di Lemaître, Livio ha trovato una lettera autografa di Lemaître nella quale l’astrofisico belga chiarisce di essere stato lui stesso a tradurre il lavoro del 1927, e a censurarlo in alcuni suoi paragrafi che considerava importanti nel 1927 ma irrilevanti nel 1931, perché oramai superati dopo la pubblicazione nel 1929 dell’articolo di Hubble». La “colpa”, dunque, di altri non è se non dell’incredibile modestia di Lemaître stesso. Come del resto sottolinea la risoluzione della Iau, laddove nelle motivazioni, accanto al voler dare il giusto riconoscimento a entrambi gli scienziati, sottolinea la volontà di onorare l’integrità intellettuale di Georges Lemaître, che gli ha fatto anteporre il progresso della scienza alla visibilità personale. «Chiamare la legge di Hubble “legge di Hubble-Lemaître” mi pare doveroso», conclude Della Valle.
di Marco Malaspina (INAF)

Annunci

100 anni di Lambda

Celebrità il mondo anniversario della costante cosmologica, introdotta nel 1917 da Albert Einstein che la identificò con la lettera greca Lambda (Λ). Per l’occasione, due articoli pubblicati su  The European Physical Journal H, evidenziano il suo ruolo nella fisica e nella cosmologia negli ultimi 100 anni. È stato detto che per la prima volta quando è stato pensato che l’universo è statico, oggi la costante è considerata la principale considerazione per l’essenza fisica ritenuta responsabile dell’espansione accelerata del nostro universo. La verità è stata accettata, la costante cosmologica è stata per ogni argomento sulla sua vera necessità, sul suo valore e sulla sua natura. Nonostante il lungo dibattito e le ricerche teoriche e sperimentali, ancora oggi sono problemi irrisolti nella comprensione della natura Nel suo articolo,  Bohdan Novosyadlyj , associato alla Università Nazionale di Lviv , in Ucraina, spiega Albert Einstein nel 1917, elaborando il primo modello cosmologico moderno, introducendo la costante cosmologica: allora è necessaria una soluzione statica delle equazioni Einstein, allora ritenuta come la più ragionevole dalla maggior parte degli esperti. Il suo profondo significato fisico, tuttavia, sfuggì ad Einstein. Dopo la scoperta delle prove che hanno avvalorato un universo non statico nel 1929, Einstein si pentì di aver adottato questa considerazione nelle equazioni della Relatività generale. Nel frattempo, altri studi hanno cercato per comprendere il suo pensiero fisico e rendono la sua grandezza. Furono infine modelli alternativi a Lambda che  Michael Turner nel 1998, chiamò genericamente energia oscura  (energia oscura). In un altro articolo,  Cormac O’Raifeartaigh  del  Waterford Institute of Technology, in Irlanda, insieme ai suoi colleghi, ha presentato un’analisi dettagliata della storia dei 100 anni della costante cosmologica. A partire da un’idea statica universale, l’articolo spiega l’idea della costante cosmologica sia stata accantonata in seguito alle osservazioni di Hubble che implicano un’espansione dell’universo. È stato riconsiderato per efficacia l’attuale accelerata dell’universo, misurata per la prima volta con le osservazioni delle Supernove di tipo Ia, nel 1998. Recentemente, la costante ha acquisito un grande significato fisico, poiché ha contribuito a combinare recenti osservazione con la teoria. Nello specifico, è stato d’aiuto per riconciliare la teoria con il fenomeno osservato di recente energia oscura, Media Inaf  ha  conseguito Alessandro Gruppuso , ricercatore dell’Inaf di Bologna, che si occupa da tanti anni di cosmologia teorica ed osservativa, sulla costante cosmologica e sulla sempre affascinante energia oscura.

Perché Albert Einstein ad un certo punto definì l’introduzione della costante cosmologica il suo più grande errore?

Ci sono due motivazioni, una teoria ed una osservativa. Quella teoria è l’insieme della soluzione statica, in cui la teoria di Fisicamente non è accettabile, poiché è la norma di stabilità. Quella osservativa riguarda la scoperta da parte di Hubble dell’espansione dell’universo.

Perché la costante cosmologica rappresenta un problema teorico?

Il termine di costante cosmologica è matematicamente uguale ad un termine di energia di vuoto. Come riportato in uno di questi articoli, è  Lemaitre  ad accorgersi di questa equivalenza. Successivamente  Zel’dovic  mise in Relazione racconto Termine con il vuoto quantistico. Questo è un modo elegante di mantenere la cosmologia in termini di effetti quantistici di vuoto. Purtroppo, calcolando da principi il valore numerico di cui si parla di energia di vuoto, si scopre, con grande imbarazzo, che differisce anche di 120 ordini di grandezza rispetto a quanto ottenuto dalle osservazioni. Si tratta, come diceva  Hawking , del più grosso fallimento di una teoria fisica.

A che punto siamo con la determinazione di questo numero?

Dal punto di vista osservativo, Lambda ha un valore ben misurato e concorde tra vari esperimenti. Essa rappresenta, nel modello cosmologico standard, circa il 70% del budget di energia-materia contenuto nell’universo, come ad esempio misurato dal satellite Planck dell’Esa, per cui lavoro dal 2005. I problemi concettuali associati a una storia costante hanno portato diversi teorici a temi modelli a Lambda, noti come modelli di  energia oscura . Questi modelli, che riproducono alla nostra epoca cosmologica in modo dinamico, sono simili a un Lambda, si differenziano da essa tramite la loro evoluzione temporale. Uno degli obiettivi fondamentali della cosmologia osservativa moderna è proprio quello di testare l’eventuale sviluppo temporale della componente di  energia oscura .

L’eredità di Planck

Era il 21 marzo 2013 . Scienziati e giornalisti scientifici da tutto il mondo si erano riuniti nella sede dell’Agenzia spaziale europea (Esa) – o si erano collegati  online  – per partecipare al momento in cui la  missione è  stata svelata la sua “immagine” del cosmo . Un’immagine impossibile con la luce visibile ma con le microonde. La luce della luna è inferiore al millesimo di millimetro, la radiazione che sta rilevando misurava onde più lunghe, da pochi decimi di millimetro a pochi millimetri. Ed era una radiazione emessa quando l’universo ebbe inizio.
L’espressione che si usa per indicare questa radiazione nel suo complesso è  fondo cosmico a microonde, o Cmb (dall’inglese  fondo cosmico a microonde ). Misurando le differenze quasi impercettibili che questa radiazione presenta da una regione all’altra del cielo, era possibile leggere nell’immagine determinata da Planck l’età, l’espansione, la storia e il contenuto dell’universo. Niente di meno che il progetto del cosmo
Le attese degli astronomi erano ben note. Già dovute missioni della NASA, Cobe nei primi anni Novanta e Wmap nel decennio successivo, hanno lavorato analoghe ricognizioni del cielo, ottenendo come risultato immagini simili. Immagini, però, che non hanno la precisione e la nitidezza di quelle prodotte da Planck. Grazie per la tua visione avremmo potuto cogliere l’impronta universale primordiale a un livello di dettaglio mai prima prima.
Tutto dipende da quello. Se il nostro modello dell’universo è corretto, Planck lo ha dichiarato con un’accuratezza senza precedenti. Se invece fosse risultato sbagliato, gli scienziati sarebbero stati ripartire da zero.

Un universo quasi perfetto: le  release  del 2013 e del 2015

Quando l’immagine venne rivelata, i dati confermarono il modello. Combaciavano così bene con le nostre attese da non lasciarci che una sola conclusione possibile: quello che è stato puntato sull’epoca “un universo quasi perfetto”. Perché  quasi  perfetto? Perché rimanevano comunque alcune anomalie, sulle quali si sarebbero concentrate le ricerche successive.
Trascorsi cinque anni, il consorzio di Planck ha oggi reso pubblica la cosiddetta  release di dati legacy : l’ultima – definitiva – versione dei dati. Il messaggio rimane lo stesso di allora, ed è ancora più forte.
“È questo il principale lascito di Planck”, dice  Jan Tauber , scienziato del progetto Planck  dell’Esa. “Il modello standard della cosmologia ha superato, un oggi, tutti i test. E le misurazioni che lo dimostrano le haute planck “.
Alla base di tutti i miei modelli cosmologici c’è la teoria della relatività generale di Albert Einstein. Per riconciliare le equazioni relativistiche generali con il raggio gamma di osservazioni, il modello standard della cosmologia include l’intervento di due componenti sconosciute. Primo, Una materia Che attrae, nota vieni  materia oscura fredda  ( materia oscura fredda ): un Differenza della materia ordinaria, non interagisce con la luce. Secondo, Una forma di Energia Che respinge, nota vieni  Energia oscura  ( energia oscura): è la responsabile dell’espansione dell’accelerata dell’universo. Insieme alla materia ordinaria che conosciamo, queste due componenti sono risultate essenziali per spiegare il cosmo. Ma si tratta di componenti esotiche: ancora non so cosa sono veramente
Lanciato nel 2009, Planck ha raccolto dati fino al 2013. La sua prima  uscita  – quella all’origineigine dell’universo quasi – risale alla primavera di quell’anno. Si basava solo sulla temperatura della radiazione cosmica di fondo a microonde, e usava solo la prime due  survey  a tutto il cielo della missione. Erano Dati Che fornivano also un’ulteriore prova dell’ Inflazione, la primissima fase di espansione accelerata del cosmo, avvenuta nelle frazioni di secondo inizio della storia dell’universo, in corso le quali vennero sparsi i semi di tutte le future strutture cosmiche. Offrendo una misura quantitativa della distribuzione relativa alle fluttuazioni primordiali, Planck ha fornito la migliore conferma mai dallo scenario inflazionistico.
Oltre a produrre la mappa in temperatura del fondo cosmico a microonde con un’accuratezza senza precedenti, Planck ha misurato la polarizzazione di quella radiazione: una caratteristica che indica se le onde di luce vibrano in una direzione preferenziale. La polarizzazione del fondo cosmico a microonde contiene l’impronta dell’ultima azione avvenuta tra la radiazione e le particelle di materia presenti nell’universo primordiale: porta con sé informazioni aggiuntive e cruciali sulla storia del cosmo. Ma potrebbe anche contenere informazioni sui primissimi istanti del nostro universo, offrendoci dunque indizi per comprenderne la nascita.
La seconda  releaseprodotta nel 2015, raccoglieva tutti i dati raccolti durante l’intera durata della visita, dunque in totale otto  sondaggio tra  cielo. Oltre ai dati in temperatura, conteneva anche i dati in polarizzazione, ma erano accompagnati da un’avvertenza. «Sentivamo che la qualità di alcuni dati di polarizzazione non era buona al punto da poterli impiegare per la cosmologia», ricorda Tauber. Ovviamente ciò non è impedito di usarli anche per la cosmologia, aggiunge, ma alcune delle considerazioni sono tali da giungere all’epoca come richiesto correttamente, ed erano dunque da maneggiare con cautela.
Proprio in questo sta la grande novità della  release finale, questa del 2018. Ora che il consorzio di Planck è una nuova interpretazione dei dati, la maggior parte delle considerazioni è scomparsa: gli scienziati hanno ora la certezza che è la polarizzazione sono determinati in modo accurato. «Finalmente si può usare un modello cosmologico basato sulla temperatura o sulla polarizzazione. E tutti tre », afferma  Reno Mandolesi dell’Università di Ferrara e associato Inaf,  ricercatore principale  dello strumento Lfi (Low Frequency Instrument di Planck.
«Dal 2015 a oggi, altri esperimenti hanno raccolto dati astrofisici, e nuove analisi cosmologiche sono state condotte, combinando le osservazioni della Cmb una scala piccola con quelle di galassie, ammassi di galassie e supernove. Nella maggior parte dei casi hanno rafforzato il modello di Planck e il modello cosmologico sostenuto da Planck », spiega  Jean-Loup Puget, l’  Istituto astrofisico spaziale di Orsay (Francia),  ricercatore principale  dello strumento HFI di Planck.
«Si conclude una missione di grande successo, commenta  Barbara Negri, responsabile dell’Unità esplorazione e osservazione dell’universo dell’Asi. «L’Italia ha partecipato in modo significativo alla ricerca con il monitoraggio e la pre-amplificazione criogenica per il secondo argomento HFI. L’Asi ha fornito un importante supporto alla comunità scientifica coinvolta guidata dal  principale investigatore italiano dello strumento Lfi, Reno Mandolesi, e da Paolo de Bernardis per la partecipazione allo sviluppo HFI, e ha finanziato l’industria italiana per lo sviluppo della strumentazione scientifica » .

Un enigma irrisolto: il valore della costante di Hubble

È un risultato impressionante: significa che i cosmologi possono essere certi che la loro descrizione dell’universo come un luogo fatto di materia ordinaria, materia oscura fredda ed energia oscura, popolato da strutture il cui seme è stato gettato durante una fase iniziale d’espansione inflazionaria, è in gran parte corretta. Rimangono però alcune stranezze che risultano una spiegazione. Una in particolare è legato all’espansione dell’universo. Un’espansione il cui è il dato dalla definizione di  costante di Hubble .
Per calcolare la costante di Hubble, gli astronomi hanno tradizionalmente fatto affidamento a distanze calibrate presenti nel cosmo. È possibile che la stimolazione in modo indipendente sia stimata in modo indipendente. È una tecnica ben collaudata, sviluppata nel corso del secolo scorso dal lavoro pionieristico di Henrietta Leavitt e passati  applicati, alla fine degli anni Venti, da  Edwin Hubble  e dai suoi collaboratori, che si avvalgono di stelle variabili in galassie distanti e altre riprese riuscirono a dimostrare come l’universo si sta espandendo.
Hubble ha preso il nome, il telescopio spaziale Hubble della NASA e dell ‘ Esa – è  73,5 km / s / Mpc , con un’incertezza di appena il dovuto per cento. L’esoterica unità di misura è la velocità dell’espansione in km / s per ogni antico di parsec (Mpc) di separazione nello spazio, dove un parsec equivale a 3,26 anni luce.
Un secondo metodo per ottenere una stima della stabilità di Hubble si intuisce invece del modello cosmologico che meglio si adatta all’immagine del fondo cosmico a microonde cosmica – quindi a una rappresentazione dell’universo quand’era molto giovane – per fornire una previsione del valore che la costante di Hubble dovrebbe avere oggi. Ebbene, applicato ai dati di Planck questo metodo è un valore più basso:  67,4 km / s / Mpc. E con un margine d’incertezza assai ridotto, inferiore all’uno per cento. Ora, se da una parte è straordinario che ha radicalmente diverso per derivare la costante di Hubble – uno che si basa sull’universo locale e già maturo, l’altro sull’universo distante e ancora in fasce – arrivino i valori simili, considerazione d’altra parte che, in linea di principio, rappresenta l’insieme dei segni d’errore, corrispondente. Ma così non sembra essere. Da qui la ” tensione “, l’anomalia. E la domanda diventa: come conciliare questi due risultati?
Entrambe le parti in causa sono convinte che si tratti di errori nei confronti di metodi per misurare la discrepanza. È quindi possibile che ci sia qualcosa di un po ‘particolare nel nostro ambiente cosmico locale, qualcosa che renda la riflessione nell’ambiente vicino in qualche modo anomala? Per esempio, credo che la nostra galassia si trova in una regione universitaria per cui è molto meno sul media, e questo potrebbe avere qualche effetto sul locale della costante di Hubble. Ma sfortunatamente la maggior parte degli astronomi ritiene che simili peculiarità non siano grandi a sufficienza per risolvere il problema.
«Non esiste una soluzione astrofisica soddisfacente in grado di spiegare la discrepanza. Dunque è forse una nuova fisica ancora da scoprire », dice  Marco Bersanelli  dell’Università di Milano,  vice investigatore principale  dello strumento Lfi. Per “Nuova fisica” s’intende che particelle o forze esotiche possono influenzare i risultati.
Tuttavia, ciò che è successo di più, è una linea di pensiero, perché è adattano così bene alla maggior parte delle osservazioni. «È molto difficile includere una nuova fisica che allevi la tensione è, al tempo stesso, una preoccupazione la descrizione precisa offerta dal modello standard per tutto il resto, che già esistono», spiega François Bouchet  dell’Istituto di astrofisica spaziale di Orsay,  vice investigatore principale  dello strumento Hfi.
Di conseguenza, nessuno è in grado di misurarsi, e il punto interrogativo rimane.
«Meglio, per ora, non entusiasmarci troppo alla possibilità di nuova fisica: potrebbe benissimo essere che la discrepanza, piccola, possa essere spiegata da una combinazione di piccoli errori ed effetti locali. Dovrai comunque migliorare le nostre misurazioni e pensare a modi per spiegarla », conclude Tauber.
Questa è dunque l’eredità di Planck: con il suo universo quasi perfetto, la ricerca ha offerto ai ricercatori una conferma dei loro modelli, tutti i dettagli sono irrisolti sui quali cimentarsi. In altre parole: il meglio di entrambi i mondi.

 

L’espansione cosmica è universale

Secondo uno studio guidato da un gruppo di ricercatori dello University College di Londra (UCL), l’Universo si espande in maniera uniforme: lo spazio non si dilata in una direzione privilegiata né ruota attorno a un ipotetico asse. Gli autori, guidati da Daniela Saadeh della UCL, hanno analizzato la radiazione cosmica di fondo, la luce più antica che siamo in grado di osservare, che mostra come l’Universo si espande allo stesso modo in tutte le direzioni, un fatto che va a favore del modello standard della cosmologia. I risultati sono pubblicati su Physical Review Letters. Per anni, gli scienziati hanno sostenuto che l’Universo può essere o omogeneo e isotropo, cioè apparire mediamente uguale in tutte le direzioni, o anisotropo, cioè mostrarsi ancora uniforme ma nascondendo nella sua trama cosmica una sorta di direzione “privilegiata”. Per capire il concetto di anisotropia, possiamo prendere come esempio un cristallo di diamante. Quest’ultimo possiede una densità uniforme ma i suoi atomi sono tutti allineati in determinate direzioni. Pensiamo ora a un pezzo di legno: al di là delle sue increspature superficiali, si tratta di una singola sostanza, cioè un blocco uniforme. Il legno, come tutti i materiali fibrosi, è fortemente anisotropo. In altre parole, diciamo che un materiale è anisotropo se le proprietà fisiche differiscono quando vengono misurate lungo diversi assi di riferimento. L’idea che l’Universo sia anisotropo venne avanzata in risposta ad alcune evidenze che erano in disaccordo con le proprietà di omogeneità e isotropia, così come erano state assunte dalle osservazioni. Ma ora sembra che l’ipotesi dell’Universo anisotropo abbia problemi ben più grandi di cui preoccuparsi. Nel 1543, Copernico affermò che la Terra non si trova al centro dell’Universo e mise in evidenza il fatto che il nostro pianeta orbita attorno al Sole e non viceversa. Ciò causò la nascita del principio Copernicano secondo cui non esiste una posizione speciale nel nostro Universo. Nel 20° secolo, con l’avvento della relatività generale e la scoperta dell’espansione dell’Universo in tutte le direzioni, quell’idea si sviluppò in quello che oggi chiamiamo principio cosmologico secondo cui l’Universo appare uguale in tutte le direzioni. Si tratta di una ipotesi solida e da allora abbiamo basato ogni modello cosmologico, che tenta di spiegare l’origine e l’espansione dell’Universo, assumendo che l’Universo sia davvero isotropo. Ma negli ultimi dieci anni, alcuni fatti hanno messo in dubbio questa idea. Quando si considerano scale molto piccole, si trova che la materia non è distribuita in modo uniforme. Ad esempio, i sistemi stellari, le galassie e gli ammassi di galassie sono sparsi nello spazio cosmico formando agglomerati di materia che, secondo alcuni scienziati, potrebbe essere l’indicazione della presenza di qualche tipo di forza che abbia “spinto”, per così dire, queste strutture in determinate posizioni. Ma ciò deriva dal fatto che l’Universo si originò dal Big Bang come una sorta di “zuppa omogenea” di particelle subatomiche. Una volta che l’Universo subì una rapida espansione esponenziale, chiamata inflazione, minuscole fluttuazioni quantistiche presenti nella “zuppa cosmica primordiale” si amplificarono, raggiungendo dimensioni gigantesche e causando variazioni di densità che avrebbero dato luogo successivamente alla formazione di quei siti cosmici da cui sarebbero emerse le strutture cosmiche (stelle, galassie, ammassi di galassie). Ora, il modello standard della cosmologia si basa sull’assunzione che queste variazioni di densità sono significative su scale molto piccole, mentre si possono considerare trascurabili su scale più grandi. Ma che succede se l’Universo ha la struttura di un cristallo di diamante e presenti una direzione privilegiata, intrinseca alla sua intera struttura, indipendentemente da quanto siamo in grado di zoomare? Qui è dove entra in gioco l’ipotesi dell’anisotropa, che divenne sempre più forte agli inizi degli anni 2000 quando il satellite della NASA WMAP rivelò strane anomalie (dette bump) nella radiazione cosmica di fondo che poi nessuno è stato in grado di spiegare. Infatti, esiste una regione nel nostro Universo che sta creando qualche problema agli scienziati al punto che è stata letteralmente definita “asse del diavolo”, anche se molti la considerano una pura fluttuazione statistica. Dunque, per scoprire una volta per tutte quale scenario descriva meglio la realtà, un gruppo di cosmologi della University College di Londra ha deciso di analizzare la luce più antica che siamo in grado di osservare: stiamo parlando della radiazione cosmica di fondo, la “eco” del Big Bang. Anzichè cercare delle anomalie nella radiazione cosmica, come appunto l’asse del diavolo, i ricercatori hanno tentato di trovare eventuali tracce della presenza di una direzione privilegiata dell’espansione cosmica. «Abbiamo analizzato la temperatura e la polarizzazione della radiazione cosmica sfruttando i dati di Planck», spiega Daniela Saadeh della UCL e autrice principale dello studio. Gli autori, coadiuvati dai colleghi dell’Imperial College di Londra, hanno utilizzato i dati della radiazione cosmica ricavati dal satellite Planck dell’ESA tra il 2009 e il 2013. Inoltre, grazie alla recente pubblicazione da parte del team di Planck dei dati relativi alla polarizzazione della radiazione cosmica, è stato possibile ottenere, per la prima volta, una visione complementare dello stato fisico dell’Universo primordiale che gli stessi autori del presente studio sono stati in grado di elaborare. «Abbiamo confrontato i dati reali relativi alla radiazione cosmica con le nostre predizioni per un modello di Universo anisotropo», continua Saadeh. Gli astronomi hanno quindi costruito una serie di modelli che riproducono diversi scenari di espansione e rotazione dello spazio, includendo anche l’informazione relativa alla polarizzazione. Successivamente, questi modelli sono stati messi a confronto con i dati reali della mappa del cielo ottenuta da Planck, in modo da vedere se si manifestano in essa segnali peculiari riconducibili a scenari cosmologici diversi da quello standard. «Abbiamo simulato vari segnali che si sarebbero manifestati nella radiazione cosmica di fondo nel caso in cui lo spazio avesse proprietà diverse in direzioni differenti», fa notare Saadeh. «Per segnali intendiamo l’eventuale presenza di ‘macchie’ calde e fredde che si protendono lungo un particolare asse oppure possibili distorsioni a forma di spirale. Abbiamo concluso che non esiste alcuna evidenza di particolari segnali riconducibili a questa ipotesi di anisotropia e che quindi riteniamo alquanto buona l’assunzione secondo cui l’Universo risulta isotropo su larga scala. Quindi, il nostro lavoro rappresenta, finora, la migliore evidenza a favore dell’ipotesi che l’Universo sia uniforme in tutte le direzioni». Alcuni lavori precedenti lavori si sono basati su modelli di anisotropie rappresentate da una rotazione (in gergo vector mode anisotropy). Gli autori del presente studio hanno invece seguito un approccio più generale che include modelli anisotropi basati su uno spettro più ampio di geometrie che può assumere lo spazio (scalari, vettori e tensori). I ricercatori hanno così provato a variare i parametri di questo modello più generico confrontandolo con i dati forniti dal satellite Planck, le cui misure di polarizzazione sono estremamente sensibili ai modelli anisotropi. «La nostra attuale comprensione dell’Universo si basa sull’assunzione che non esista una direzione privilegiata, anche se c’è un elevato numero di modi permessi dalla relatività di Einstein che rendono possibile l’esistenza di Universi che ruotano e si dilatano», dice Saadeh. I risultati delle simulazioni mostrano che questi modelli (anisotropi) sono inconsistenti con le osservazioni. «Non si può mai escluderlo completamente, ma ora possiamo dire che la probabilità che l’Universo preferisca espandersi in una certa direzione rispetto a un’altra è pari a 1 su 121 mila», dice Saadeh. «Perciò è importante che abbiamo dimostrato che il nostro Universo si espande in tutte le direzioni». In un certo senso, si tratta di una piccola delusione perché un universo non omogeneo e isotropo supporterebbe le uniche reali soluzioni delle equazioni di campo di Einstein, quell’insieme di 10 equazioni della relatività generale che descrivono l’interazione fondamentale della gravità come risultato della curvatura dello spazio causata dalla presenza di materia ed energia. Queste soluzioni, proposte dal matematico di origine italiana Luigi Bianchi verso la fine del 19esimo secolo, consentono l’esistenza di un Universo anisotropo, ma se questa assunzione non è vera, come sembra, allora gli scienziati dovranno scoprire un modo tutto nuovo per spiegare i risultati delle equazioni di campo di Einstein. «L’interessante lavoro di Daniela Saadeh e collaboratori affronta una delle tematiche fondamentali della cosmologia», spiega a Media INAF Carlo Burigana, ricercatore dell’INAF presso l’Istituto di Astrofisica Spaziale e Fisica Cosmica (IASF) di Bologna. «Gli autori estendono le analisi della Collaborazione Planck, con cui sono consistenti, migliorando i vincoli esistenti per i modelli di Bianchi e mostrando come l’analisi accurata delle anisotropie di polarizzazione del fondo cosmico, oltre alla possibilità di sondare la fisica dello stato primordiale dell’Universo, permette di comprendere la geometria dell’Universo. Viene dimostrato ancora una volta la grande legacy scientifica del satellite Planck dell’ESA e la rilevanza della radiazione cosmica di fondo nel dare risposte a quesiti cruciali». Insomma, gli attuali modelli cosmologici assumono l’ipotesi che l’Universo si comporti in maniera identica in ogni direzione. Se questa ipotesi non fosse vera, dovremmo certamente considerare in modo differente molte cose. «Se l’Universo fosse anisotropo, dovremmo rivedere molti calcoli sulla sua storia e contenuto. Tuttavia, l’elevata qualità dei dati forniti da Planck è stata un’occasione d’oro perché ha permesso di verificare il modello standard della cosmologia. Siamo molto contenti che il nostro lavoro vendichi in qualche modo ciò che i cosmologi hanno ipotizzato finora. Per ora», conclude Saadeh, «la cosmologia é al sicuro».

Autovelox per universi in espansione

Del fatto che l’universo s’espandesse, che lo spazio fra una galassia e l’altra andasse aumentando con il tempo, se n’era già accorto Edwin Hubble sul finire degli anni Venti. Ma non si limita a espandersi, l’Universo: lo fa accelerando. Questo significa che, più è grande la distanza fra una galassia e una qualsiasi altra, maggiore sarà la velocità alla quale le due continueranno ad allontanarsi. Quanto maggiore? Il valore, uno fra i pochi parametri fondamentali della cosmologia contemporanea, è noto come “costante di Hubble”, anche se non è certissimo che sia proprio costante. E quanto vale? Per stabilirlo, gli astrofisici hanno utilizzato essenzialmente due tipi di approcci: da una parte sono partiti misurando i parametri fondamentali dell’universo all’epoca del Big Bang con sonde cosmologiche, come WMAP della NASA e Planck dell’ESA. Ma c’è almeno un altro approccio per calcolare la costante di Hubble, ed è quello (vedi schema qui sotto) che fa uso di due particolari tipi di stelle di riferimento: le supernove di tipo Ia, stelle che esplodono emettendo una quantità di luce costante, e le cefeidi, stelle che invece pulsano con una frequenza correlata con la loro vera luminosità. Caratteristiche, queste, che consentono agli astronomi di calcolare in modo preciso la distanza di queste stelle da noi, e dunque la distanza reciproca delle galassie che le ospitano. Dato fondamentale, è facile intuirlo, per derivare poi la costante di Hubble. La cosa impagabile di questi due approcci è che sono alquanto indipendenti l’uno dall’altro. Perfetti, perciò, per confermarsi a vicenda: se tutto va come ci si attende, messi in conto gli inevitabili errori nella stima, i due valori dovrebbero essere sovrapponibili. Ma uno studio in uscita su The Astrophysical Journal, basato su dati raccolti dal telescopio spaziale Hubble – che ha osservato 300 supernove di tipo Ia e 2400 cefeidi, studio guidato fra l’altro da Adam Riess, premio Nobel per la Fisica nel 2011 proprio per aver confermato che l’espansione dell’universo sta accelerando – trova un valore per la costante di Hubble significativamente più elevato rispetto a quello derivato dalle misure cosmologiche. E ciò che è peggio è che, anche considerando i margini d’errore – ridottissimi per quest’ultima misura – i due risultati non si sovrappongono più. È un po’ come costruire un tunnel cominciando a scavare dalle due estremità, e ritrovarsi a metà strada con le due gallerie che non s’incontrano… Ora si tratta di capire perché. Ci stanno provando, fra gli altri, Eleonora Di Valentino e Alessandro Melchiorri, ricercatrice postdocin Francia la prima, presso l’Institut Astrophysique di Parigi, e professore alla Sapienza, nonché associato INAF, il secondo. Insieme a Joseph Silk, di Oxford, hanno appena messo in rete un preprint(un articolo ancora in attesa di peer review) che affronta proprio questa discrepanza. Media INAF li ha intervistati.

Partiamo dall’oggetto del contendere: la costante di Hubble. Vale a dire, il tasso d’accelerazione dell’espansione dell’universo. Qual è il valore oggi comunemente accettato? E quanto il team di Riess suggerisce invece che sia, in base ai dati Hubble?

«Il punto è che non c’è al momento un valore comunemente accettato. È possibile misurare la costante di Hubble (H0) in maniera diretta», spiega Di Valentino, «come fanno Riess e colleghi, o in maniera indiretta (vale a dire assumendo un modello cosmologico), come si fa con la radiazione di fondo cosmico (CMB). Già la CMB pre-Planck preferiva un valore minore rispetto a quello misurato in modo diretto dallo Hubble Space Telescope (HST). Questa tensione, che era a livello di 2 deviazioni standard appena quando i nuovi dati di Planck sono stati rilasciati, si è adesso inasprita a 3.3 deviazioni standard con la nuova analisi di Riess et al. Questo sta a indicare che maggiore è la precisione con cui H0 viene misurata, maggiore diventa la tensione tra le due misure. Riess e il suo team ottengono così un valore pari a 73.2 km al secondo per megaparsec [ndr: che corrisponde suppergiù a 263 mila km/h in più ogni 3.26 milioni di anni luce di distanza], con un intervallo d’errore di più o meno 1.75 km/s/Mpc, mentre i dati di Planck, assumendo il modello cosmologico standard, forniscono 66.93 più o meno 0.62 km/s/Mpc».

Quali possono essere le ragioni di questa discrepanza? Sbaglia Planck? Sbaglia Hubble? O c’è qualche altra possibilità?

«La discrepanza può essere dovuta a sistematiche in uno dei due esperimenti», dice Melchiorri, «ma dopo cinque anni di analisi dati comincia a essere difficile che vi siano grandi errori. La possibilità più interessante è che entrambi abbiano ragione e che vi sia una nuova fisica a spiegare la discrepanza. Nel nostro articolo mostriamo che la via migliore consiste nel cambiare l’equazione di stato dell’energia oscura. Una cosa abbastanza ragionevole, visto che di questa componente non sappiamo nulla».

In tutto ciò cosa c’entrano i neutrini? Vedo che nel vostro articolo vi fate riferimento…

«Riess e colleghi hanno proposto delle specie di neutrini “extra”, per esempio i neutrini sterili, per risolvere la tensione. Nel nostro articolo facciamo però vedere», osserva Melchiorri, «che questa non è la via migliore, dato che il fit [ndr: la corrispondenza] con i dati peggiora».

Dunque quali alternative proponete, nel vostro articolo?

«Come prima cosa presentiamo un’analisi considerando allo stesso tempo tutte le possibili soluzioni note. In pratica estendiamo l’analisi dai 6 parametri usuali a 12. In secondo luogo», continua Di Valentino, «mostriamo che la soluzione migliore consiste nel considerare modelli di energia oscura con equazione di stato negativa (w < -1). Questo si può ottenere in molti modi diversi, ma il punto importante è che la costante cosmologica non sarebbe più sufficiente».

Ha forse qualcosa a che fare con quello che chiamate “phantom-like dark energy component”? Di che si tratta?

«L’origine del nome “phantom” deriva da un articolo di Robert Caldwell che si rifaceva al primo film della seconda trilogia di Lucas, Phantom menace: La minaccia fantasma. Infatti in questo modello l’energia oscura è una “minaccia oscura” che produrrebbe la distruzione dell’universo tra una cinquantina di miliardi di anni», nota Melchiorri. «C’è da dire che il modello proposto non è teoricamente molto più bello del film mediocre di Lucas, ma è una possibilità».

Ma oltre alla distruzione dell’universo, che già non mi pare poco, quali conseguenze avrebbe, per l’astrofisica e per la cosmologia, una variazione così significativa della costante di Hubble?

«I dati pre-Planck potevano conciliare le misure di CMB e di HST in due modi: con una dark radiation, e quindi un numero di specie di neutrini relativistici maggiore di 3, o con una dark energy diversa dalla costante cosmologica, cioè w diverso da -1. Oggi, con Planck, la possibilità di un numero di specie di neutrini maggiore di 3 non è più praticabile. Se entrambi i risultati fossero confermati, una possibilità per metterli d’accordo è l’abbandono della costante cosmologica, difficile da spiegare dal punto di vista fisico, in favore di un fluido di dark energy con equazione di stato w < -1. Un modello phantom, appunto», conclude Di Valentino.
di Marco Malaspina (INAF)

Come evolve l’universo? Chiedi alle simulazioni

L’Universo, si sa, è in continua espansione. Esso muta, creando nuove strutture che poi si aggregano nel corso del tempo. La domanda è: come fa ad evolvere? Oggi, alcuni fisici dell’Università di Ginevra (UNIGE), in Svizzera, hanno sviluppato una simulazione numerica che offre preziosi indizi sul complicato processo di formazione delle strutture cosmiche. Partendo dalle equazioni di Einstein, gli scienziati sono stati in grado di integrare nei loro calcoli la rotazione dello spazio-tempo e di misurare l’ampiezza delle onde gravitazionali, la cui esistenza è stata annunciata per la prima volta lo scorso 11 Febbraio. I risultati di questo studio sono pubblicati su Nature Physics. Fino ad oggi, i ricercatori hanno simulato la formazione delle strutture cosmiche su larga scala basandosi sulla gravitazione newtoniana. Questi codici postulano che lo spazio non cambia, cioè rimane statico, mentre evolve solo il tempo. Le simulazioni risultano molto precise se la materia presente nell’Universo si muove lentamente, ossia con una velocità di circa 300 Km/sec. Tuttavia, quando le particelle si muovono in un regime di velocità relativistiche, il codice fornisce solamente calcoli approssimati. Inoltre, esso non permette di descrivere le fluttuazioni dovute all’energia oscura, che con il suo contributo pari al 70 percento del contenuto materia-energia presente nell’Universo è responsabile dell’espansione cosmica accelerata. Dunque, da qui la necessità di trovare un nuovo modo per simulare la formazione delle strutture cosmiche allo scopo di studiare questi fenomeni. Il team di ricercatori guidato da Ruth Durrer del Dipartimento di Fisica Teorica presso la Facoltà di Scienze della UNIGE ha creato un nuovo codice, chiamato gevolution, che si basa sulle equazioni di Einstein. La teoria della relatività generale considera lo spazio-tempo come un’entità dinamica, il che vuol dire che sia lo spazio che il tempo cambiano continuamente, a differenza del concetto di spazio che Newton considerava statico nella sua teoria. Lo scopo di questo studio è quello di predire l’ampiezza e gli effetti associati alla generazione delle onde gravitazionali e la rotazione dello spazio-tempo, tecnicamente nota come frame-dragging, indotti dalla formazione delle strutture cosmiche. Per far questo, i fisici della UNIGE hanno analizzato una porzione cubica di spazio che consiste di 60 miliardi di zone ognuna delle quali contiene una particella (un po’ come dire una porzione di una galassia), per studiare il modo con cui esse si muovono rispetto alle particelle circostanti. Grazie alla libreria LATfield2, sviluppata da David Daverio della UNIGE, che permette di risolvere equazioni differenziali parziali non-lineari, e al supercomputer dello Swiss Supercomputer Center di Lugano, i ricercatori sono stati in grado di tracciare il moto delle particelle e calcolare la metrica (ossia la misura della distanza e del tempo tra due galassie) facendo uso delle equazioni della relatività. I risultati di questi calcoli permettono di quantificare le differenze tra i dati ottenuti dalla simulazione gevolution e quelli ricavati mediante i codici newtoniani. Ciò permette inoltre di misurare l’effetto della rotazione dello spazio-tempo e delle onde gravitazionali causati, come si diceva prima, dalla formazione delle strutture cosmiche. In realtà, la rotazione dello spazio-tempo e l’effetto dovuto alla presenza delle onde gravitazionali non è mai stato preso in considerazione prima della formulazione del codice gevolution. Questo approccio apre così un nuovo modo di confrontare i risultati forniti dalla simulazione con le osservazioni. Insomma, grazie a questo nuovo codice numerico, i fisici dell’UNIGE potranno ora disporre di un ulteriore strumento d’indagine in grado di testare la relatività generale su una scala di distanze molto più grande rispetto a quanto sia stato fatto in precedenza. Infine, il gruppo di Durrer renderà pubblico il codice gevolution in modo da favorire quanto più possibile la ricerca in questo campo. L’obiettivo finale è quello, almeno così si spera, di far luce sui misteri dell’energia oscura.
di Corrado Ruscica (INAF)

Costante cosmologica, quel lambda che ci salva

Era il cruccio di Einstein, quella dannata lettera lambda. S’era visto costretto a infilarla controvoglia nelle sue equazioni di campo della relatività generale per evitare che tutti gli oggetti presenti nell’universo finissero per ammassarsi l’uno sull’altro e scivolare inesorabilmente in un pozzo senza fondo dello spazio-tempo. Salvo poi rimangiarsi l’intuizione non appena Hubble offrì al mondo, con la scoperta dell’espansione dell’universo, una via di scampo alternativa. Fu allora che Einstein definì quel termine lambda, in apparenza ormai superfluo, «la più grande cantonata della mia vita». In realtà, mai cantonata fu più felice: negli ultimi decenni, quella lettera lambda prematuramente rinnegata è stata non solo riesumata e riabilitata, ma è diventata la protagonista irrinunciabile del modello standard della cosmologia, il modello Lambda-CDM, appunto. È lei la famosa costante cosmologica – identificata a volte, un po’ impropriamente, con l’energia oscura – alla quale dobbiamo l’accelerazione dell’espansione dell’universo. E se pensate che nulla vi possa riguardare di meno, sbagliate di grosso. Il perché lo spiega uno studio appena uscito su Physical Review Letters: se l’universo non si espandesse seguendo il ritmo imposto dalla costante cosmologica, i micidiali lampi di raggi gamma (GRB, dalle iniziali di gamma-ray burst), che spazzano l’intero cosmo con la potenza di fuoco di migliaia di supernove, avrebbero reso pressoché impossibile lo sviluppo di forme di vita complesse. Fra i cinque autori dello studio, guidato da Tsvi Piran del Racah Institute of Physics di Gerusalemme, c’è anche la cosmologa italiana Licia Verde, professoressa di fisica e astronomia alle università di Oslo e di Barcellona. Media INAF l’ha intervistata.
Professoressa Verde, il vostro studio propone uno scenario con una potenziale vittima, la vita, e due attori protagonisti: la costante cosmologica e i GRB. Chi è il buono, chi il cattivo? E perché?
«Entrambi gli attori recitano un ruolo sia buono che cattivo. Proprio come nella vita fuori da Hollywood, o come in un documentario sugli animali stile David Attenborough. I GRB provengono da esplosioni di stelle massive. Queste esplosioni, se avvengono troppo vicino a casa, rilasciano radiazione fatale per la vita “avanzata” – ovvero, una vita tale da produrre un osservatore. Non dimentichiamo però che sono proprio le esplosioni di stelle massive ad arricchire il mezzo interstellare di elementi “pesanti” (ferro, ossigeno…), indispensabili per formare i pianeti e  la vita.
Quanto alla costante cosmologica, è da anni che si sa che se è troppo grande risulta “cattiva”, perché impedisce alla gravità di far bene il suo lavoro: formare strutture come le galassie, le stelle, i pianeti, eccetera. Però dal nostro studio risulta che nemmeno una costante cosmologica troppo piccola aiuta: le galassie rimangono troppo vicine l’una all’altra, cosicché la radiazione di un “GRB killer” può raggiungere facilmente pianeti che ospitano la vita, con conseguenze negative per la vita stessa».
Proviamo a tracciare l’identikit d’un “GRB killer”: per esempio, a che distanza dovrebbe trovarsi, per ucciderci?
«È difficile dare una risposta esatta, è una di quelle domande a cui è più facile rispondere con la statistica – cioè calcolando la probabilità per tutti i possibili pianeti simili alla Terra mai esistiti nell’universo – che non per il caso specifico. Però i numeri non mentono, quindi vediamo alcuni numeri. Un “long duration GRB” fra quelli più energetici (il 10 percento dei più energetici), a una distanza di 50 Kpc – vale a dire, attorno ai 150 mila anni luce, grosso modo la distanza che ci separa dalla Large Magellanic Cloud – distruggerebbe il 90 percento dello strato di ozono.
Lo strato d’ozono è il nostro scudo contro la radiazione ultravioletta, che – oltre alle scottature solari – provoca danni e mutazioni al DNA e rompe le proteine. Quindi non solo provoca il cancro: il danno maggiore che può essere prodotto dalla radiazione ultravioletta è che distrugge la fotosintesi. Di conseguenza, tutto quello che dipende dalla fotosintesi (alghe, plancton…) muore, e così s’interrompe la catena alimentare. È vero che la vita sotto marina è automaticamente protetta dalla radiazione ultravioletta anche senza lo strato di ozono, ma il plancton – che è alla base di tutta la catena alimentare – verrebbe comunque distrutto».
In base alle vostre valutazioni statistiche, quale probabilità abbiamo, noi come specie umana, di venire investiti da un fascio di raggi gamma tale da estinguerci? Nel giro del prossimo milione di anni, diciamo?
«La frequenza, per noi sulla Terra, è stimata attorno a un evento ogni miliardo di anni. Quindi la probabilità, in un milione di anni, è dello 0.1 percento. Ovviamente, niente ci impedisce di pensare di mettere da parte abbastanza ozono “in bombolette” per rilasciarlo nell’atmosfera nel caso improbabile e sfortunato che un simile evento si verifichi…».
E in passato, in base ai vostri calcoli, quanto è probabile che i GRB abbiano avuto un ruolo nelle grandi estinzioni avvenute sulla Terra?
«Non sono i nostri calcoli a dirlo: è risaputo che l’estinzione Ordoviciana (responsabile della scomparsa dell’85% di tutte le specie esistenti al momento sulla Terra) fu dovuta, molto probabilmente, a uno di questi eventi. Nonostante ciò, la vita intelligente s’è sviluppata lo stesso, certo, ma se fosse accaduto più tardi…».
Torniamo alla costante cosmologica: dalle vostre conclusioni, pare di capire che viviamo nel migliore degli universi possibili, o quasi. È così?
«Sì, ma non è così sorprendente. Non vediamo una costante cosmologica troppo grande, perché se fosse troppo grande non ci sarebbero state galassie, stelle e pianeti per sviluppare una vita abbastanza complessa da puntare un telescopio al cielo e dire “oibò vedo una costante cosmologica!”. E non vediamo una costante cosmologica troppo piccola perché, se fosse troppo piccola, sarebbe stato più probabile ritrovarsi fritti per colpa di qualche GRB… Se un’estinzione tipo quella Ordoviciana fosse avvenuta all’epoca, per esempio, degli antichi greci o degli egizi, certamente non avremmo avuto un Galileo a puntare il telescopio al cielo».
Visto che viviamo in un universo in continuo mutamento, quale periodo della sua storia sarebbe il più favorevole allo sviluppo della vita?
«È un calcolo che nel nostro studio non facciamo, ci limitiamo a considerare diversi valori della costante cosmologica. Però si può tentare una “traduzione” qualitativa in termini di periodi della storia dell’universo. Facendo questa traduzione – approssimata – possiamo dire che, in un certo senso, sì: troppo nel futuro, e si saranno spente le stelle capaci di sostenere pianeti simili alla Terra; troppo nel passato, e ci sono troppi GRB pericolosamente vicini… Ma non è una sorpresa, anzi: ci aspettiamo di trovarci in un periodo particolarmente favorevole a noi, altrimenti, statisticamente parlando, non saremmo qui».
Dunque siete d’accordo con i sostenitori del principio antropico? È un universo a nostra misura, quello in cui ci troviamo?
«Quello che diciamo è che vediamo un processo di selezione. Se vediamo un universo “a nostra misura” è perché, se non lo fosse, molto probabilmente non saremmo qui a osservarlo».
di Marco Malaspina (INAF)

Voci precedenti più vecchie