100 anni di Lambda

Celebrità il mondo anniversario della costante cosmologica, introdotta nel 1917 da Albert Einstein che la identificò con la lettera greca Lambda (Λ). Per l’occasione, due articoli pubblicati su  The European Physical Journal H, evidenziano il suo ruolo nella fisica e nella cosmologia negli ultimi 100 anni. È stato detto che per la prima volta quando è stato pensato che l’universo è statico, oggi la costante è considerata la principale considerazione per l’essenza fisica ritenuta responsabile dell’espansione accelerata del nostro universo. La verità è stata accettata, la costante cosmologica è stata per ogni argomento sulla sua vera necessità, sul suo valore e sulla sua natura. Nonostante il lungo dibattito e le ricerche teoriche e sperimentali, ancora oggi sono problemi irrisolti nella comprensione della natura Nel suo articolo,  Bohdan Novosyadlyj , associato alla Università Nazionale di Lviv , in Ucraina, spiega Albert Einstein nel 1917, elaborando il primo modello cosmologico moderno, introducendo la costante cosmologica: allora è necessaria una soluzione statica delle equazioni Einstein, allora ritenuta come la più ragionevole dalla maggior parte degli esperti. Il suo profondo significato fisico, tuttavia, sfuggì ad Einstein. Dopo la scoperta delle prove che hanno avvalorato un universo non statico nel 1929, Einstein si pentì di aver adottato questa considerazione nelle equazioni della Relatività generale. Nel frattempo, altri studi hanno cercato per comprendere il suo pensiero fisico e rendono la sua grandezza. Furono infine modelli alternativi a Lambda che  Michael Turner nel 1998, chiamò genericamente energia oscura  (energia oscura). In un altro articolo,  Cormac O’Raifeartaigh  del  Waterford Institute of Technology, in Irlanda, insieme ai suoi colleghi, ha presentato un’analisi dettagliata della storia dei 100 anni della costante cosmologica. A partire da un’idea statica universale, l’articolo spiega l’idea della costante cosmologica sia stata accantonata in seguito alle osservazioni di Hubble che implicano un’espansione dell’universo. È stato riconsiderato per efficacia l’attuale accelerata dell’universo, misurata per la prima volta con le osservazioni delle Supernove di tipo Ia, nel 1998. Recentemente, la costante ha acquisito un grande significato fisico, poiché ha contribuito a combinare recenti osservazione con la teoria. Nello specifico, è stato d’aiuto per riconciliare la teoria con il fenomeno osservato di recente energia oscura, Media Inaf  ha  conseguito Alessandro Gruppuso , ricercatore dell’Inaf di Bologna, che si occupa da tanti anni di cosmologia teorica ed osservativa, sulla costante cosmologica e sulla sempre affascinante energia oscura.

Perché Albert Einstein ad un certo punto definì l’introduzione della costante cosmologica il suo più grande errore?

Ci sono due motivazioni, una teoria ed una osservativa. Quella teoria è l’insieme della soluzione statica, in cui la teoria di Fisicamente non è accettabile, poiché è la norma di stabilità. Quella osservativa riguarda la scoperta da parte di Hubble dell’espansione dell’universo.

Perché la costante cosmologica rappresenta un problema teorico?

Il termine di costante cosmologica è matematicamente uguale ad un termine di energia di vuoto. Come riportato in uno di questi articoli, è  Lemaitre  ad accorgersi di questa equivalenza. Successivamente  Zel’dovic  mise in Relazione racconto Termine con il vuoto quantistico. Questo è un modo elegante di mantenere la cosmologia in termini di effetti quantistici di vuoto. Purtroppo, calcolando da principi il valore numerico di cui si parla di energia di vuoto, si scopre, con grande imbarazzo, che differisce anche di 120 ordini di grandezza rispetto a quanto ottenuto dalle osservazioni. Si tratta, come diceva  Hawking , del più grosso fallimento di una teoria fisica.

A che punto siamo con la determinazione di questo numero?

Dal punto di vista osservativo, Lambda ha un valore ben misurato e concorde tra vari esperimenti. Essa rappresenta, nel modello cosmologico standard, circa il 70% del budget di energia-materia contenuto nell’universo, come ad esempio misurato dal satellite Planck dell’Esa, per cui lavoro dal 2005. I problemi concettuali associati a una storia costante hanno portato diversi teorici a temi modelli a Lambda, noti come modelli di  energia oscura . Questi modelli, che riproducono alla nostra epoca cosmologica in modo dinamico, sono simili a un Lambda, si differenziano da essa tramite la loro evoluzione temporale. Uno degli obiettivi fondamentali della cosmologia osservativa moderna è proprio quello di testare l’eventuale sviluppo temporale della componente di  energia oscura .

Pubblicità

Tutte le stelle dell’Aquila

La Nebulosa dell’Aquila, con il suo ammasso Ngc 6611, è certamente una delle nebulose più note e osservate, soprattutto grazie alle meravigliose immagini dei Pilastri della Creazione realizzate con il satellite Hubble: pilastri di polveri e gas lunghi alcuni anni luce, modellati dalla radiazione ultravioletta emessa dalle stelle massive di Ngc 6611, e sede di formazione stellare recente. L’ammasso stellare ospita alcune migliaia di stelle mediamente con un milione di anni di età, tra le quali una cinquantina di stelle oltre dieci volte più massive del nostro Sole. La radiazione ultravioletta emessa da queste stelle ha effetti drammatici sulla nube da cui si sono formate e sui dischi protoplanetari (dischi di gas e polveri che orbitano attorno stelle giovani, e da cui si possono formare sistemi planetari) vicini. In una serie di articoli, il team di ricercatori guidato dall’astronomo Mario Giuseppe Guarcello dell’Osservatorio astronomico dell’Inaf di Palermo, ha sviscerato in ogni suo aspetto la popolazione dell’ammasso. Primo, ha realizzato un’accurata classificazione delle stelle associate a Ngc 6611 e le regioni esterne della Nebulosa dell’Aquila. Secondo, ha caratterizzato la popolazione stellare dell’ammasso. Terzo, ha provato che le stelle massive di Ngc 6611 provocano una rapida erosione dei dischi protoplanetari delle stelle nel nucleo dell’ammasso, influenzando le possibilità che questi possano formare sistemi planetari. Quarto, ha verificato l’esistenza di una direzione lungo la quale è avanzata la formazione stellare nella nebulosa. Quinto, ha studiato le proprietà coronali delle stelle associate a Ngc 6611. Infine, ha identificato una popolazione di stelle con disco protoplanetario osservate grazie alla luce stellare diffusa lungo la direzione di vista dalle polveri associate ai dischi.
Redazione Media Inaf

L’eredità di Planck

Era il 21 marzo 2013 . Scienziati e giornalisti scientifici da tutto il mondo si erano riuniti nella sede dell’Agenzia spaziale europea (Esa) – o si erano collegati  online  – per partecipare al momento in cui la  missione è  stata svelata la sua “immagine” del cosmo . Un’immagine impossibile con la luce visibile ma con le microonde. La luce della luna è inferiore al millesimo di millimetro, la radiazione che sta rilevando misurava onde più lunghe, da pochi decimi di millimetro a pochi millimetri. Ed era una radiazione emessa quando l’universo ebbe inizio.
L’espressione che si usa per indicare questa radiazione nel suo complesso è  fondo cosmico a microonde, o Cmb (dall’inglese  fondo cosmico a microonde ). Misurando le differenze quasi impercettibili che questa radiazione presenta da una regione all’altra del cielo, era possibile leggere nell’immagine determinata da Planck l’età, l’espansione, la storia e il contenuto dell’universo. Niente di meno che il progetto del cosmo
Le attese degli astronomi erano ben note. Già dovute missioni della NASA, Cobe nei primi anni Novanta e Wmap nel decennio successivo, hanno lavorato analoghe ricognizioni del cielo, ottenendo come risultato immagini simili. Immagini, però, che non hanno la precisione e la nitidezza di quelle prodotte da Planck. Grazie per la tua visione avremmo potuto cogliere l’impronta universale primordiale a un livello di dettaglio mai prima prima.
Tutto dipende da quello. Se il nostro modello dell’universo è corretto, Planck lo ha dichiarato con un’accuratezza senza precedenti. Se invece fosse risultato sbagliato, gli scienziati sarebbero stati ripartire da zero.

Un universo quasi perfetto: le  release  del 2013 e del 2015

Quando l’immagine venne rivelata, i dati confermarono il modello. Combaciavano così bene con le nostre attese da non lasciarci che una sola conclusione possibile: quello che è stato puntato sull’epoca “un universo quasi perfetto”. Perché  quasi  perfetto? Perché rimanevano comunque alcune anomalie, sulle quali si sarebbero concentrate le ricerche successive.
Trascorsi cinque anni, il consorzio di Planck ha oggi reso pubblica la cosiddetta  release di dati legacy : l’ultima – definitiva – versione dei dati. Il messaggio rimane lo stesso di allora, ed è ancora più forte.
“È questo il principale lascito di Planck”, dice  Jan Tauber , scienziato del progetto Planck  dell’Esa. “Il modello standard della cosmologia ha superato, un oggi, tutti i test. E le misurazioni che lo dimostrano le haute planck “.
Alla base di tutti i miei modelli cosmologici c’è la teoria della relatività generale di Albert Einstein. Per riconciliare le equazioni relativistiche generali con il raggio gamma di osservazioni, il modello standard della cosmologia include l’intervento di due componenti sconosciute. Primo, Una materia Che attrae, nota vieni  materia oscura fredda  ( materia oscura fredda ): un Differenza della materia ordinaria, non interagisce con la luce. Secondo, Una forma di Energia Che respinge, nota vieni  Energia oscura  ( energia oscura): è la responsabile dell’espansione dell’accelerata dell’universo. Insieme alla materia ordinaria che conosciamo, queste due componenti sono risultate essenziali per spiegare il cosmo. Ma si tratta di componenti esotiche: ancora non so cosa sono veramente
Lanciato nel 2009, Planck ha raccolto dati fino al 2013. La sua prima  uscita  – quella all’origineigine dell’universo quasi – risale alla primavera di quell’anno. Si basava solo sulla temperatura della radiazione cosmica di fondo a microonde, e usava solo la prime due  survey  a tutto il cielo della missione. Erano Dati Che fornivano also un’ulteriore prova dell’ Inflazione, la primissima fase di espansione accelerata del cosmo, avvenuta nelle frazioni di secondo inizio della storia dell’universo, in corso le quali vennero sparsi i semi di tutte le future strutture cosmiche. Offrendo una misura quantitativa della distribuzione relativa alle fluttuazioni primordiali, Planck ha fornito la migliore conferma mai dallo scenario inflazionistico.
Oltre a produrre la mappa in temperatura del fondo cosmico a microonde con un’accuratezza senza precedenti, Planck ha misurato la polarizzazione di quella radiazione: una caratteristica che indica se le onde di luce vibrano in una direzione preferenziale. La polarizzazione del fondo cosmico a microonde contiene l’impronta dell’ultima azione avvenuta tra la radiazione e le particelle di materia presenti nell’universo primordiale: porta con sé informazioni aggiuntive e cruciali sulla storia del cosmo. Ma potrebbe anche contenere informazioni sui primissimi istanti del nostro universo, offrendoci dunque indizi per comprenderne la nascita.
La seconda  releaseprodotta nel 2015, raccoglieva tutti i dati raccolti durante l’intera durata della visita, dunque in totale otto  sondaggio tra  cielo. Oltre ai dati in temperatura, conteneva anche i dati in polarizzazione, ma erano accompagnati da un’avvertenza. «Sentivamo che la qualità di alcuni dati di polarizzazione non era buona al punto da poterli impiegare per la cosmologia», ricorda Tauber. Ovviamente ciò non è impedito di usarli anche per la cosmologia, aggiunge, ma alcune delle considerazioni sono tali da giungere all’epoca come richiesto correttamente, ed erano dunque da maneggiare con cautela.
Proprio in questo sta la grande novità della  release finale, questa del 2018. Ora che il consorzio di Planck è una nuova interpretazione dei dati, la maggior parte delle considerazioni è scomparsa: gli scienziati hanno ora la certezza che è la polarizzazione sono determinati in modo accurato. «Finalmente si può usare un modello cosmologico basato sulla temperatura o sulla polarizzazione. E tutti tre », afferma  Reno Mandolesi dell’Università di Ferrara e associato Inaf,  ricercatore principale  dello strumento Lfi (Low Frequency Instrument di Planck.
«Dal 2015 a oggi, altri esperimenti hanno raccolto dati astrofisici, e nuove analisi cosmologiche sono state condotte, combinando le osservazioni della Cmb una scala piccola con quelle di galassie, ammassi di galassie e supernove. Nella maggior parte dei casi hanno rafforzato il modello di Planck e il modello cosmologico sostenuto da Planck », spiega  Jean-Loup Puget, l’  Istituto astrofisico spaziale di Orsay (Francia),  ricercatore principale  dello strumento HFI di Planck.
«Si conclude una missione di grande successo, commenta  Barbara Negri, responsabile dell’Unità esplorazione e osservazione dell’universo dell’Asi. «L’Italia ha partecipato in modo significativo alla ricerca con il monitoraggio e la pre-amplificazione criogenica per il secondo argomento HFI. L’Asi ha fornito un importante supporto alla comunità scientifica coinvolta guidata dal  principale investigatore italiano dello strumento Lfi, Reno Mandolesi, e da Paolo de Bernardis per la partecipazione allo sviluppo HFI, e ha finanziato l’industria italiana per lo sviluppo della strumentazione scientifica » .

Un enigma irrisolto: il valore della costante di Hubble

È un risultato impressionante: significa che i cosmologi possono essere certi che la loro descrizione dell’universo come un luogo fatto di materia ordinaria, materia oscura fredda ed energia oscura, popolato da strutture il cui seme è stato gettato durante una fase iniziale d’espansione inflazionaria, è in gran parte corretta. Rimangono però alcune stranezze che risultano una spiegazione. Una in particolare è legato all’espansione dell’universo. Un’espansione il cui è il dato dalla definizione di  costante di Hubble .
Per calcolare la costante di Hubble, gli astronomi hanno tradizionalmente fatto affidamento a distanze calibrate presenti nel cosmo. È possibile che la stimolazione in modo indipendente sia stimata in modo indipendente. È una tecnica ben collaudata, sviluppata nel corso del secolo scorso dal lavoro pionieristico di Henrietta Leavitt e passati  applicati, alla fine degli anni Venti, da  Edwin Hubble  e dai suoi collaboratori, che si avvalgono di stelle variabili in galassie distanti e altre riprese riuscirono a dimostrare come l’universo si sta espandendo.
Hubble ha preso il nome, il telescopio spaziale Hubble della NASA e dell ‘ Esa – è  73,5 km / s / Mpc , con un’incertezza di appena il dovuto per cento. L’esoterica unità di misura è la velocità dell’espansione in km / s per ogni antico di parsec (Mpc) di separazione nello spazio, dove un parsec equivale a 3,26 anni luce.
Un secondo metodo per ottenere una stima della stabilità di Hubble si intuisce invece del modello cosmologico che meglio si adatta all’immagine del fondo cosmico a microonde cosmica – quindi a una rappresentazione dell’universo quand’era molto giovane – per fornire una previsione del valore che la costante di Hubble dovrebbe avere oggi. Ebbene, applicato ai dati di Planck questo metodo è un valore più basso:  67,4 km / s / Mpc. E con un margine d’incertezza assai ridotto, inferiore all’uno per cento. Ora, se da una parte è straordinario che ha radicalmente diverso per derivare la costante di Hubble – uno che si basa sull’universo locale e già maturo, l’altro sull’universo distante e ancora in fasce – arrivino i valori simili, considerazione d’altra parte che, in linea di principio, rappresenta l’insieme dei segni d’errore, corrispondente. Ma così non sembra essere. Da qui la ” tensione “, l’anomalia. E la domanda diventa: come conciliare questi due risultati?
Entrambe le parti in causa sono convinte che si tratti di errori nei confronti di metodi per misurare la discrepanza. È quindi possibile che ci sia qualcosa di un po ‘particolare nel nostro ambiente cosmico locale, qualcosa che renda la riflessione nell’ambiente vicino in qualche modo anomala? Per esempio, credo che la nostra galassia si trova in una regione universitaria per cui è molto meno sul media, e questo potrebbe avere qualche effetto sul locale della costante di Hubble. Ma sfortunatamente la maggior parte degli astronomi ritiene che simili peculiarità non siano grandi a sufficienza per risolvere il problema.
«Non esiste una soluzione astrofisica soddisfacente in grado di spiegare la discrepanza. Dunque è forse una nuova fisica ancora da scoprire », dice  Marco Bersanelli  dell’Università di Milano,  vice investigatore principale  dello strumento Lfi. Per “Nuova fisica” s’intende che particelle o forze esotiche possono influenzare i risultati.
Tuttavia, ciò che è successo di più, è una linea di pensiero, perché è adattano così bene alla maggior parte delle osservazioni. «È molto difficile includere una nuova fisica che allevi la tensione è, al tempo stesso, una preoccupazione la descrizione precisa offerta dal modello standard per tutto il resto, che già esistono», spiega François Bouchet  dell’Istituto di astrofisica spaziale di Orsay,  vice investigatore principale  dello strumento Hfi.
Di conseguenza, nessuno è in grado di misurarsi, e il punto interrogativo rimane.
«Meglio, per ora, non entusiasmarci troppo alla possibilità di nuova fisica: potrebbe benissimo essere che la discrepanza, piccola, possa essere spiegata da una combinazione di piccoli errori ed effetti locali. Dovrai comunque migliorare le nostre misurazioni e pensare a modi per spiegarla », conclude Tauber.
Questa è dunque l’eredità di Planck: con il suo universo quasi perfetto, la ricerca ha offerto ai ricercatori una conferma dei loro modelli, tutti i dettagli sono irrisolti sui quali cimentarsi. In altre parole: il meglio di entrambi i mondi.