Otto deboli oggetti nelle vicinanze della Via Lattea

Gli scienziati che lavorano al programma scientifico Dark Energy Survey (DES), che utilizza la più potente camera digitale del mondo (Dark Energy Camera, DEC), hanno scoperto ben 8 oggetti celesti molto deboli che si trovano nelle vicinanze della Via Lattea. I dati suggeriscono che si tratta molto probabilmente di galassie nane satelliti, le strutture stellari più piccole e più vicine che conosciamo, così come era stato trovato dallo stesso gruppo di ricercatori agli inizi di quest’anno. I risultati sono riportati su Astrophysical Journal.
Le galassie satelliti sono oggetti celesti di piccole dimensioni che orbitano attorno a galassie più grandi. Le galassie nane possono avere qualche migliaio di stelle, rispetto alle galassie di dimensioni medie, come la Via Lattea, che possono invece contenere fino a qualche centinaio di miliardi di stelle. Secondo gli attuali modelli, le galassie più grandi si formano dall’aggregazione di galassie più piccole che si ritiene siano ricche di materia oscura, quella enigmatica forma di materia che rappresenta il 25 percento del contenuto materia-energia dell’Universo. Dunque, le galassie nane satelliti sono considerate la “chiave” per comprendere la materia oscura e il processo per mezzo del quale si formano le galassie maggiori.
L’obiettivo principale della DES, così come suggerisce il suo nome, è quello di ricavare informazioni sulla natura dell’energia oscura, l’altra enigmatica e maggiore componente dell’Universo che costituisce il 70 percento circa del contenuto materia-energia. Gli scienziati ritengono che l’energia oscura sia responsabile dell’espansione cosmica accelerata. Il programma scientifico DES consiste nel realizzare una serie di immagini di centinaia di milioni di galassie distanti. Ad ogni modo, in alcune immagini si possono osservare le stelle presenti nelle galassie nane che sono più vicine alla nostra galassia. Perciò, gli stessi dati possono essere utilizzati per studiare da un lato l’energia oscura, che sta facendo allontanare le galassie creando spazi sempre più vuoti, e dall’altro la materia oscura, che rappresenta una sorta di “scheletro” su cui si appoggiano le strutture cosmiche.
Le galassie nane più deboli possono essere osservate solamente quando esse sono vicine e, di fatto, ne sono state già identificate alcune di esse. L’idea è che se questi nuovi oggetti sono rappresentativi dell’intero cielo, ce ne potrebbero essere molti altri nel nostro “vicinato cosmico”. «Proprio quest’anno, sono state individuate più di una ventina di galassie nane satelliti candidate, 17 delle quali sono state trovate dalla survey DES», spiega Alex Drlica-Wagner del Fermi National Accelerator Laboratory (Fermilab) presso il Department of Energy’s (DOE) degli Stati Uniti, uno dei responsabili dell’analisi dei dati del programma scientifico DES e autore principale dello studio. «Abbiamo quasi raddoppiato il numero di questi oggetti in appena un anno, il che è notevole».
Lo scorso mese di Marzo, i ricercatori della DES e un gruppo indipendente dell’University of Cambridge annunciarono la scoperta di 9 galassie nane presenti nelle immagini ottenute con la Dark Energy Camera, la straordinaria camera digitale che rappresenta il cuore stesso della DES (vedasi l’articolo I nuovi vicini della Via Lattea). Due di queste sono state poi confermate come galassie nane satelliti. Prima del 2015, gli astronomi avevano individuato solo due dozzine di tali galassie distribuite attorno alla Via Lattea. «DES ci sta permettendo di trovare oggetti così deboli che sarebbero stati molto difficili da individuare con le osservazioni precedenti», dice Keith Bechtol della University of Wisconsin-Madison e co-autore dello studio. «La scoperta di così tante galassie-candidate in una regione pari ad 1/8 di cielo potrebbe voler dire che ce ne sono molte altre in orbita attorno alla nostra galassia».
Tra gli 8 oggetti che sono stati identificati, l’oggetto più vicino si trova a circa 80.000 anni luce mentre quello più distante è situato approssimativamente a 700.000 anni luce. Questi oggetti sono, mediamente, un miliardo di volte più deboli della Via Lattea e un milione di volte meno massivi. Un dato curioso: si stima che la galassia nana più debole abbia appena 500 stelle. Inoltre, la maggior parte di essi sono distribuiti nella regione meridionale dell’area coperta dalla DES, in prossimità della Grande e Piccola Nube di Magellano, le due galassie satelliti maggiori della Via Lattea che si trovano, rispettivamente, a 158.000 anni luce e a 208.000 anni luce. È possibile che questi oggetti siano galassie satelliti delle Nubi di Magellano, il che sarebbe di per sé una scoperta. «Se fosse così, sarebbe un risultato affascinante», dice Risa Wechsler dello SLAC National Accelerator Laboratory e uno dei membro di DES. «L’esistenza di galassie satelliti di altrettante galassie satelliti è predetta dai nostri modelli della materia oscura. Forse le stiamo osservando per la prima volta oppure c’è qualcosa che non comprendiamo sulla loro distribuzione spaziale».
Ora, poiché si ritiene che le galassie nane siano costituite principalmente di materia oscura, e da pochissime stelle, esse possono essere considerate un banco di prova ideale per studiare le proprietà della materia oscura. Ulteriori analisi potranno confermare se questi nuovi oggetti siano davvero galassie nane satelliti e se si potranno rivelare eventuali “impronte digitali” riconducibili alla materia oscura. «Questa scoperta molto eccitante è il frutto di un’intensa collaborazione da parte dell’intero team che lavora al progetto DES», aggiunge Basilio Santiago, coordinatore del DES Milky Way Science Working Group e membro del consorzio brasiliano che partecipa al programma di ricerca. «Abbiamo appena iniziato la nostra esplorazione del cosmo e siamo alla ricerca di altre nuove e più eccitanti scoperte negli anni a venire».

DES_gal_locations
Le 17 galassie nane satelliti candidate sono state individuate nei primi due anni della missione scientifica DES, che sarà ancora operativa per altri 3 anni allo scopo di mappare con dettagli senza precedenti una determinata porzione del cielo sud. Gli scienziati stanno ora esaminando gran parte dell’area coperta dalla survey ma i dati che saranno raccolti nei prossimi tre anni permetteranno di trovare, almeno così si spera, oggetti ancora più deboli, più diffusi o più distanti. La terza stagione della missione DES è appena cominciata.  La mappa mostra la posizione delle 8 nuove galassie nane candidate (triangoli rossi) assieme alle 9 precedenti galassie nane candidate (cerchi rossi) nell’area della survey DES, 5 altri oggetti recentemente identificati al di fuori dell’area DES (rombi verdi) e 27 galassie nane satelliti della Via Lattea note prima del 2015 (quadrati blu). Quei sistemi che sono stati confermati come galassie satelliti sono stati nominati singolarmente. Crediti: A. Drlica-Wagner et al. 2015.

di Corrado Ruscica (INAF)

L’espansione cosmica verso il Big Rip

L’Universo potrebbe essere un luogo alquanto “viscoso”, ma quanto viscoso è un problema dibattuto. Questo perché per decenni i cosmologi hanno affrontato una serie di difficoltà al fine di conciliare la classica nozione di viscosità basata sulle leggi della termodinamica con la teoria della relatività generale. Oggi, però, tre fisici della Vanderbilt University hanno introdotto una nuova formulazione matematica del problema che sembra ridurre questo divario. I risultati, pubblicati su Physical Review D, hanno delle implicazioni importanti per il destino ultimo dell’Universo in quanto tendono a favorire uno degli scenari cosmologici più radicali: stiamo parlando del “Big Rip“. Non solo, ma questo studio potrebbe far luce anche sul mistero dell’energia oscura. L’idea di approcciarsi a questo problema è stata sviluppata dal matematico Marcelo Disconzi in collaborazione con due colleghi fisici Thomas Kephart e Robert Scherrer. “Marcelo ha introdotto una formulazione matematica più semplice ed elegante, consistente con tutte le leggi della fisica”, dice Scherrer. Il tipo di viscosità di cui stiamo parlando, e che ha rilevanza cosmologica, è diverso da quello a noi più familiare ed è chiamato “viscosità di taglio” (si pensi al ketchup), una misura della resistenza di un fluido ad attraversare piccole aperture, come il collo di una bottiglia. Nel nostro caso, invece, si tratta di una forma di viscosità dilatazionale, che rappresenta il grado di resistenza di un fluido ad una espansione o contrazione. Il fatto che spesso non abbiamo a che fare con questo tipo di viscosità nella vita di tutti i giorni è dovuto al fatto che la maggior parte dei liquidi non possono essere troppo compressi o espansi. Disconzi ha iniziato ad affrontare il problema dei fluidi relativistici. Gli oggetti astrofisici che producono questo fenomeno sono tipicamente le esplosioni stellari (supernovae) e le stelle di neutroni (oggetti super densi e compatti che possono avere le dimensioni tipiche di un pianeta). Gli scienziati hanno ottenuto notevoli successi nel descrivere la dinamica di un fluido ideale, dove non c’è viscosità, quando viene accelerato fino a raggiungere velocità prossime a quella della luce. Ma in natura, quasi tutti i fluidi sono viscosi e, nonostante anni di sforzi teorici, nessuno ha affrontato il problema di trattare la dinamica dei fluidi viscosi quando si ha a che fare con velocità relativistiche. Nel passato, i modelli formulati per predire ciò che accade quando fluidi più realistici vengono accelerati fino a raggiungere qualche frazione della velocità della luce hanno dato una serie di incoerenze: ad esempio, quella più evidente riguarda la predizione che in certe condizioni questi fluidi potrebbero propagarsi addirittura con velocità superiori a quella della luce. «Ciò è assolutamente sbagliato», afferma Disconzi, «dato che è ben provato sperimentalmente che nulla può viaggiare più veloce della luce». Dunque, queste problematiche hanno ispirato lo scienziato a riformulare le equazioni della dinamica dei fluidi relativistici in modo che non si abbiano delle falle che portino a risultati in contrasto con la teoria della relatività speciale. Per far questo, Disconzi è partito dall’ipotesi avanzata negli anni ’50 dal matematico francese André Lichnerowicz e poi ha chiesto la collaborazione dei colleghi Kephart e Scherrer per applicare le sue equazioni ad una teoria cosmologica più generale. Ciò ha permesso di ottenere tutta una serie di risultati interessanti, tra cui alcuni nuovi, potenziali indizi sulla misteriosa energia oscura. Negli anni ’90, la comunità dei fisici rimase scioccata quando le misure astronomiche delle supernovae Ia più distanti mostrarono che l’Universo si sta espandendo ad un ritmo accelerato. Per spiegare questo fenomeno inaspettato, gli scienziati furono costretti ad ipotizzare l’esistenza di una forma sconosciuta di energia repulsiva che permea tutto lo spazio. Data la nostra ignoranza sulla sua natura, ad essa venne attribuito il termine “energia oscura”, in analogia con la “materia oscura” l’altro grande mistero della fisica moderna. Finora, le principali teorie sull’energia oscura non hanno preso in considerazione il problema della “viscosità cosmica”, nonostante il fatto che essa abbia un effetto repulsivo sorprendentemente simile a quello creato dall’energia oscura. «È possibile, anche se non è molto probabile, che la presenza di viscosità possa tener conto di tutti gli effetti dell’accelerazione attribuiti all’energia oscura», dice Disconzi. «È molto più probabile che una frazione significativa dell’effetto dell’accelerazione dello spazio possa essere dovuto ad una causa più diretta. In altre parole, la stessa viscosità potrebbe rappresentare un vincolo importante alle proprietà dell’energia oscura».

Un altro risultato interessante riguarda il destino ultimo dell’Universo. Dalla scoperta dell’espansione accelerata, i cosmologi hanno ipotizzato un certo numero di scenari per tentare di descrivere l’evoluzione futura dell’espansione cosmica. Uno di questi, chiamato “Big Freeze” (il grande gelo), predice che dopo circa 100 mila miliardi di anni l’Universo sarà diventato talmente grande che i rifornimenti di gas necessari per formare le stelle si saranno esauriti da molto tempo. Le stelle si spegneranno gradualmente, lasciandosi dietro solo buchi neri che, a loro volta, evaporeranno lentamente man mano che lo spazio diventerà sempre più freddo. Ma uno scenario ancora più drammatico è detto “Big Rip” (il grande strappo). Esso si basa sugli effetti dovuti all’energia oscura che diventa sempre più importante nel corso del tempo. In questo caso, il tasso di espansione dell’Universo diventerà così elevato che dopo poco più di 20 miliardi di anni tutta la materia inizierà a disgregarsi e, a loro volta, anche gli atomi si separeranno nei loro costituenti fondamentali lasciandosi dietro solo particelle elementari e radiazione. La chiave fondamentale che entra in gioco in quest’ultimo scenario è il rapporto tra la pressione e la densità dell’energia oscura, cioè il parametro della sua equazione di stato. Se questo valore diventa minore di -1 allora l’Universo finirà per disgregarsi completamente. Gli scienziati hanno definito questo parametro come una sorta di “barriera fantasma”, ossia un limite che nei precedenti modelli con viscosità non può essere oltrepassato. Ad ogni modo, nella formulazione di Desconzi-Kephart-Scherrer questo limite non esiste. Invece, questa barriera fornisce al parametro dell’equazione di stato un modo naturale di assumere valori minori di -1. «Nei precedenti modelli cosmologici con viscosità, il Big Rip non era possibile», aggiunge Scherrer. «Ma nel nostro modello, è proprio la viscosità che guida l’evoluzione dell’Universo verso uno stato finale estremo». Insomma, secondo gli autori, i risultati di questa nuova formulazione matematica nel caso di viscosità relativistiche sono molto promettenti anche se occorrerà uno studio più approfondito per verificare o meno la loro veridicità. L’unico modo di fare questo sarà quello di utilizzare calcolatori potenti per analizzare numericamente equazioni complesse. In questo modo, gli scienziati saranno in grado di fare delle previsioni che potranno essere confrontate con gli esperimenti ed eventualmente le osservazioni.
di Corrado Ruscica (INAF)

L’Universo si espande oscillando

Secondo due fisici dell’University of Southern Mississippi, Lawrence Mead e Harry Ringermacher  il nostro Universo non solo si sta espandendo ma allo stesso tempo starebbe oscillando. I risultati di questo studio, pubblicati su Astronomical Journal, suggeriscono che l’Universo sia passato da una fase di espansione rallentata ad una fase di espansione accelerata non una volta bensì 7 volte nel corso di 13,8 miliardi di anni. Naturalmente si tratta di una conclusione che secondo gli stessi autori dovrà essere provata o smentita raccogliendo ulteriori dati osservativi in particolare dalle supernovae distanti. Tutti abbiamo sentito parlare della “teoria del Big Bang”. Esiste persino un’importante serie televisiva che ha come titolo questa teoria. Secondo questa “teoria”, la storia dell’Universo inizia circa 13-14 miliardi di anni fa quando un evento singolare, il Big Bang, generò lo spazio, il tempo, la materia e l’energia nella forma di tutto ciò che osserviamo oggi come particelle, pianeti, stelle e galassie, inclusa la vita stessa. Il Big Bang indica quel particolare istante che i cosmologi identificano per descrivere l’evento iniziale da cui ha avuto origine l’Universo, una sorta di gigantesca “esplosione dello spazio”, e non nello spazio, un evento singolare che rimane ancora un mistero e dove le leggi della fisica vengono meno. Anche se il Big Bang viene accettato oggi come il quadro teorico più adeguato per descrivere con buona approssimazione l’evoluzione dell’Universo, tuttavia questo modello non permette di spiegare in maniera definitiva né l’origine dell’Universo né cosa c’era eventualmente prima. Infatti, le leggi della fisica, così come noi le conosciamo, non sono in grado di descrivere esattamente la storia dell’Universo ma ci permettono di avvicinarci al momento iniziale e di comprendere la realtà fisica solo attraverso una serie di eleganti approssimazioni. Una volta originatosi, l’Universo si espanse fino a raggiungere le dimensioni attuali, nonostante la gravità dovuta a tutta la materia (materia visibile e materia oscura) tenderebbe a rallentare l’espansione, almeno così si pensava qualche tempo fa. Intanto, nel 1978, Arno Allan Penzias e Robert Woodrow Wilson ricevettero il Premio Nobel per la Fisica per la loro importante scoperta della radiazione cosmica di fondo, cioè la radiazione primordiale o la “eco” della grande esplosione iniziale, che essi rivelarono per caso nel 1964 e che rappresenta una chiara evidenza a favore del modello del Big Bang. Nel frattempo, l’acquisizione di una quantità enorme di dati astronomici, grazie soprattutto al progresso tecnologico che ha fornito strumenti sempre più sofisticati, ha permesso di verificare il modello cosmologico con una straordinaria accuratezza. «Poi nel 1998, un’altra fondamentale scoperta dell’espansione accelerata dell’Universo divenne un risultato scioccante quando venne confermata indipendentemente da due gruppi di ricercatori», spiega Mead. «Una nuova forma di energia, detta energia oscura, di natura repulsiva, si ritiene sia responsabile dell’espansione accelerata. Nel 2011, i due gruppi, guidati da Saul Perlmutter, Adam Riess e Brian Schmidt vinsero il Premio Nobel per la Fisica». Si ritiene che il passaggio dalla fase di espansione rallentata alla fase di espansione accelerata, cioè il periodo in cui è avvenuta la transizione, risalga approssimativamente a 6 o 7 miliardi di anni fa.

bigbang_expansion_Fig1

Nella figura 1 è mostrato un diagramma realizzato dalla NASA che rappresenta l’evoluzione dell’Universo. Sono illustrati gli eventi principali dall’inizio del tempo fino ad oggi, così come viene descritto dall’attuale modello cosmologico “standard” o “ΛCDM” (Lambda Cold Dark Matter) dove la lettera greca Λ sta ad indicare la famosa costante cosmologica di Einstein, responsabile dell’espansione accelerata dello spazio. La forma a “campana” visualizza l’espansione dello spazio. Il momento della transizione è dato dal punto in cui la forma a campana si apre, dall’interno verso l’esterno, proseguendo da sinistra a destra. «Ciò che abbiamo trovato suggerisce che l’Universo sia passato da una fase di espansione rallentata ad una fase di espansione accelerata non una volta bensì 7 volte nel corso di 13,8 miliardi di anni», dice Mead. «Queste oscillazioni sono equivalenti a un ‘suono’ che si sta ormai esaurendo e ora è molto debole, un po’ come quando viene emesso un suono smorzato di un cristallo di vetro quando viene colpito».

bigbang_expansionWave_Fig2

La figura 2 mostra i risultati di questo studio sovrapposti al modello ΛCDM della figura 1. L’ampiezza dell’oscillazione è stata esagerata ma la sua frequenza è indicativamente corretta. Ringermacher e Mead hanno trovato che tale oscillazione non è esattamente un’onda che si propaga attraverso l’Universo, come ad esempio può essere un’onda gravitazionale, piuttosto è essa stessa “l’onda dell’Universo”. «La scoperta è stata fatta per caso quando, grazie ad una collaborazione con altri colleghi che studiano i modelli di materia oscura relativi alla formazione galattica, essi trovarono un nuovo modo di disegnare un grafico, così come viene riportato nei libri di testo, che descrive la variazione delle dimensioni dell’Universo in funzione della sua età e che non dipende dalla scelta a priori dei modelli dell’Universo, come era stato fatto in maniera tradizionale», aggiunge Ringermacher. «Il grafico espresso in termini della variazione delle dimensioni dello spazio in funzione del tempo, cioè il diagramma di Hubble, è stato costruito determinando la distanza delle supernovae di tipo Ia che servono come ‘candele standard’ per misurare le distanze cosmologiche e quindi l’espansione dell’Universo», dice Ringermacher. «Se analizziamo più attentamente la nostra simulazione per localizzare il periodo della transizione, si vede che ce ne stato più di uno, cioè si notano almeno tre massimi e tre minimi, con una frequenza di quasi 7 cicli nel corso della vita dell’Universo. In altre parole, è lo spazio stesso che ha accelerato la sua espansione seguita da una fase di espansione rallentata per ben 7 volte da quando si è originato».

hubble_diagram_study

Mead e Ringermacher concludono affermando che questi risultati dovranno certamente essere verificati da ulteriori studi indipendenti, meglio se provengono da nuove osservazioni di supernovae distanti, per confermare o meno la loro veridicità. Figura 1. Grafico che illustra l’evoluzione del cosmo secondo il modello del Big Bang. Credit: NASA; Figura 2. L’Universo ‘oscilla’ mentre si espande. I risultati di questo studio sono sovrapposti al modello ΛCDM della figura 1. Credit: H. I. Ringermacher e L. R. Mead 2015; Il grafico illustra il diagramma di Hubble che descrive l’andamento del fattore scala a(t) in funzione del tempo per le supernovae distanti. In basso sono mostrate le derivate del fattore scala e il best-fit (linea blu) che evidenzia le oscillazioni. Si notano tre massimi (a t= 0.87, 0.71 e 0.56) e tre minimi (a t=0.78, 0.63 e 0.47). Credit: H. I. Ringermacher e L. R. Mead, 2015.
di Corrado Ruscica (INAF)

Non tutte le supernove “Ia” sono uguali

Grazie alla loro straordinaria regolarità, sono i “righelli cosmici” presenti da anni nell’astuccio d’ogni astrofisico, strumenti d’elezione per prendere le misure a un universo in espansione. Questo perché le supernove di tipo Ia esplodono tutte allo stesso modo, tutte al superamento di un’identica soglia: il limite di Chandrasekhar, corrispondente a circa 1.44 masse solari. Soglia raggiunta da una nana bianca consumando poco a poco, in un sistema binario, la materia sottratta alla stella compagna. Insomma, un perfetto meccanismo a orologeria, in grado di produrre esplosioni di luminosità pressoché identica – da qui l’appellativo di “candele standard” – in tutto l’universo. Dunque un riferimento in teoria assoluto, irrinunciabile per calcolare la distanza delle galassie che le ospitano. Ebbene, alcune recenti osservazioni sembrano mostrare che così standard non sono: di supernove Ia potrebbero esisterne almeno due diversi sottotipi. A far sorgere il dubbio, le osservazioni compiute in banda ultravioletta, utilizzando il telescopio spaziale Swift della NASA, da un team di astronomi guidato da Peter Milne della University of Arizona, poi confrontate con quelle ottenute in banda ottica dal telescopio spaziale Hubble. Proprio i dati in ultravioletto hanno evidenziato la presenza di differenze inattese fra le supernove osservate. Differenze emerse sotto forma di lievi spostamenti spettrali verso il rosso o verso il blu, assai difficili da cogliere affidandosi ai soli dati in banda ottica, e che potrebbero avere importanti ripercussioni in ambito cosmologico. «Ciò che abbiamo trovato è che non si tratta di differenze casuali, anzi: ci inducono a distinguere le supernove di tipo Ia in due diversi gruppi. E il gruppo che risulta minoritario a breve distanza da noi diventa quello predominante a distanze maggiori – dunque quando l’universo era più giovane», spiega Milne. «Andando indietro nel tempo, vediamo dunque un cambiamento nella popolazione delle supernove. L’esplosione sembra avere qualcosa di diverso, qualcosa che non si coglie osservando in banda ottica, ma che diventa evidente in ultravioletto. Poiché nessuno l’aveva mai notato prima, queste supernove erano state gettate insieme nello stesso mucchio. Ma se ne osserviamo dieci fra quelle a noi più vicine, queste saranno in media più “rosse” di quanto non lo sia un campione di altre dieci scelte fra quelle più lontane». La conseguenza più eclatante di questa non uniformità sarebbe, se confermata, che l’espansione dell’universo accelera meno del previsto. Le supernove di tipo “Ia” sono infatti uno dei tre pilastri osservativi (gli altri due sono la radiazione di fondo cosmico a microonde e le oscillazioni barioniche acustiche) a sostegno dell’espansione accelerata, scoperta per la quale Saul Perlmutter, Brian Schimdt e Adam Reiss hanno ottenuto nel 2011 il Nobel per Fisica. Una conseguenza, dunque, che avrebbe a sua volta ripercussioni sulla quantità di energia oscura presente nel cosmo: in particolare, stando agli autori dello studio, potrebbe essere inferiore a quanto atteso. E se la presenza della dark energy – per quanto ridimensionata – non sarebbe comunque messa in discussione dalle osservazioni di Milne e colleghi, è il possibile venir meno di uno strumento affidabile per studiarla a preoccupare maggiormente gli scienziati. «Il risultato presentato nell’articolo in questione è sicuramente allarmante, non tanto per l’esistenza o meno dell’energia oscura, un risultato che a mio modo di vedere rimane solido, ma per l’utilizzo delle supernove di tipo Ia nell’indagine sulla sua stessa natura», puntualizza infatti Enrico Cappellaro, astrofisico ed esperto di supernove presso l’Osservatorio astronomico dell’INAF di Padova, al quale abbiamo chiesto un commento. «Per quest’ultimo obiettivo la precisione richiesta è decisamente superiore, e quindi un problema sistematico nella calibrazione può essere catastrofico». «D’altre parte», mette in guardia lo stesso Cappellaro, «devo ammettere di avere ancora qualche dubbio sulla consistenza dell’effetto trovato. C’è bisogno di migliorare la statistica per verificare se effettivamente si tratta di due popolazioni distinte, e per confermare l’evoluzione con il redshift delle proprietà delle supernove Ia».
di Marco Malaspina (INAF)

Misurato il cosmo con l’1% di errore: è piatto

«Non sono tante le cose della vita di tutti i giorni che conosciamo con un margine d’errore dell’uno percento. Ebbene, da oggi posso dire di conoscere le dimensioni dell’universo meglio di quelle di casa mia», annuncia David Schlegel, fisico del Lawrence Berkeley National Laboratory e principal investigator della collaborazione BOSS (Baryon Oscillation Spectroscopic Survey), una campagna osservativa di proporzioni enormi che ha già analizzato gli spettri di oltre un milione di galassie remote.
«Mai s’era raggiunta una precisione simile nella misurazione della scala dell’universo. Vent’anni fa gli astronomi discutevano fra loro basandosi su stime che differivano l’una dall’altra fino al cinquanta percento. Cinque anni fa eravamo arrivati a ridurre il margine d’incertezza al cinque percento. Un anno fa eravamo scesi al due percento. Una precisione dell’uno percento, come quella ottenuta oggi, è uno standard destinato a reggere a lungo».
Questa prestazione da record è stata raggiunta analizzando, con il telescopio della Sloan Foundation, gli spettri di luce di oltre un milione di galassie – 1.277.503, a voler essere precisi – distribuite su 8509 gradi quadratidi cielo e con redshift compreso fra 0.2 e 0.7, dunque spingendosi indietro nel tempo fino a oltre sei miliardi di anni nel passato dell’universo. «Le misure di redshift di galassie presenti nel database di BOSS», osserva Schlegel, «sono probabilmente più di quelle raccolte da tutti gli altri telescopi nel mondo».
Misurare posizione e distanza delle galassie, e dunque la loro distribuzione in uno spazio a tre dimensioni, con tale precisione è, per gli astrofisici, una sfida cruciale. «Vedi qualcosa in cielo e subito ti domandi: ma quant’è distante? Una volta che riesci a determinarlo», spiega il direttore della Sloan Digital Sky Survey, Daniel Eisenstein, «scoprire il resto diventa di colpo molto più facile».
La mappa tridimensionale ricostruita grazie a BOSS consente, per esempio, di risalire con estrema precisione all’ampiezza delle cosiddette BAO (baryon acoustic oscillations), le fluttuazioni impresse sui barioni dalle onde acustiche dell’universo primordiale. Fluttuazioni di cui ancora oggi si conservano le tracce nella radiazione del fondo cosmico a microonde e nella distribuzione, appunto, di galassie e ammassi di galassie.
Non solo: la mappa 3D di BOSS è per gli scienziati uno strumento ottimale per misurare la curvatura dell’universo. E dai dati raccolti pare proprio che la curva, se mai c’è, sia davvero impercettibile. Insomma, tutto sembra confermare che viviamo in un universo piatto, in senso euclideo: un universo in cui le rette parallele corrono senz’incontrarsi mai e sommando gli angoli dei triangoli s’ottiene sempre 180 gradi.
Infine, grazie ai risultati delle misure effettuate da BOSS è ora possibile delineare un po’ meglio le caratteristiche di alcune entità ancora avvolte nella nebbia più fitta, come l’energia oscura, che stando ai risultati di BOSS sembrerebbe non variare proprio mai. Media INAF ne ha parlato con una delle scienziate della collaborazione, la cosmologa italiana Licia Verde.
Professoressa Verde, la misura di BOSS aiuta a fare un po’ di luce sull’energia oscura. Dai risultati che avete ottenuto cosa se ne deduce? Varia o è costante? Ed è la costante cosmologica di Einstein o qualcosa d’altro?
«Einstein inventò a suo tempo la costante cosmologica, quando ancora nemmeno si sapeva che l’universo è in espansione, quando “big bang” apparteneva più ai fumetti che alla scienza. Dopo più di mezzo secolo la costante cosmologica fu resuscitata per spiegare l’espansione accelerata dell’universo. Ma una costante cosmologica è un (bel) po’ scomoda: una volta che comincia a far accelerare l’universo, nessuno la ferma più, e separa rapidamente le galassie l’una dall’altra di modo che si perdano di vista. Allora perché vediamo sia gli effetti della costante cosmologica, sia tante altre galassie? Non solo: i fisici teorici che studiano le proprietà dello spazio-tempo e del vuoto ci dicono che la costante cosmologica dovrebbe essere dieci elevato a un numero grande di volte più grande di quel che appare. Ora, siccome la caratteristica distintiva della costante cosmologica è che è, appunto, costante, dovrebbe avere sempre lo stesso valore nel tempo e nello spazio. Quindi è aperta la “caccia” a indizi per vedere se c’è qualche segno che non sia proprio costante.
Le misure come quelle di BOSS aiutano a ricostruire con precisione la storia dell’espansione dell’universo, che ovviamente non è la stessa per una costante cosmologica o per qualche cosa come una “in-costante” cosmologica. Nonostante queste misure sempre più precise, quel 70% dell’universo [che non è materia e che attribuiamo all’energia oscura, ndr] non mostra variazioni, insomma sembra proprio costante. Il punto fondamentale è: magari non è una costante ma varia cosi poco che ancora non lo possiamo misurare? O è proprio una costante e il fatto che la troviamo “scomoda” significa che la fisica sta cercando di dirci qualche cosa… che ancora non capiamo? È proprio un mistero. Qualunque cosa sia, le misure, come quelle di BOSS, sempre più precise, sono gli strumenti indispensabili per cercare di risolvere il mistero».
A proposito di distanze: nella lista d’autrici e autori dell’articolo che avete sottoposto a Monthly Notices of the Royal Astronomical Society (vedi qui sotto) s’incontrano nomi decisamente italiani, ma tutti di persone attualmente all’estero. C’è, per esempio, Claudia Maraston in Inghilterra, Francesco Montesano in Germania, l’italo-argentina Claudia Scoccola a Madrid e lei, nata a Venezia e laureata a Padova, oggi docente all’Università di Barcellona. È un caso o vi siete messi d’accordo?
«Gli italiani tendono a essere buoni lavoratori e intraprendenti di carattere, una combinazione potente. No, non ci mettiamo d’accordo…  ma ci fa piacere incontrarci, molte volte inaspettatamente, oltre-confine. Per quanto ognuno segua una traiettoria distinta, abbiamo sempre molte cose in comune!»
di Marco Malaspina (INAF)

La nostra bolla nell’Universo

Uno dei risultati più sconvolgenti degli ultimi anni si riferisce sicuramente alla scoperta dell’accelerazione dell’espansione dell’Universo. E’ stato anche dato il Nobel per questo risultato, ottenuto attraverso l’osservazione delle supernove di tipo Ia nelle galassie abbastanza lontane (fuori dal nostro gruppo locale). Per spiegare questa evidenza sembra necessario introdurre l’energia oscura, un “qualcosa” che tenda a favorire un’espansione più netta di quella prevista dai modelli precedenti. E’ ovvio che la quantificazione di questo effetto si ripercuote sulla costante di Hubble (di cui abbiamo parlato spesso) e che determina la velocità di espansione dell’Universo (oltre che la sua stessa età). In realtà, la determinazione della costante di Hubble attraverso metodi diversi (ad esempio attraverso le osservazioni delle supernove o analizzando il rumore cosmico di fondo) porta a risultati abbastanza discordanti (un dieci per cento di differenza). Non voglio entrare nelle tecniche di determinazione, ma resta il fatto che l’imprecisione sembrerebbe un po’ troppo alta per essere dovuta solo a errori di misura. Ecco, allora che ha ripreso vigore un’ipotesi puramente “teorica” e non confermata da alcun tipo di osservazione: la bolla di Hubble.  Un’ipotesi non così strana come può sembrare a prima vista. L’Universo locale (quello osservabile) è considerato omogeneo, ma, in realtà sappiamo benissimo che non lo è. Basta guardare la distribuzione degli ammassi galattici. Tuttavia, nello Spazio non esistono solo le galassie, ma vi è gas intergalattico che può essere più o meno denso. Sebbene estremamente rarefatto, zone di densità maggiore o minore creerebbero forti variazioni di gravità su grande scala. E se noi fossimo all’interno di una vasta zona a bassa densità? Una vera e propria “bolla”? Cosa causerebbe questa zona relativamente vuota? Beh, sicuramente gli oggetti ai suoi confini verrebbero attratti violentemente dalle zone esterne a maggiore densità, causando una vera e propria fuga delle galassie esterne rispetto a noi. Questa azione gravitazionale “locale” si sommerebbe all’espansione vera e propria dell’Universo. L’ipotesi potrebbe risolvere l’apparente accelerazione dell’Universo senza dover chiedere aiuto all’energia oscura. La costante di Hubble, ottenuta con la radiazione cosmica di fondo si riferirebbe al valore medio dell’Universo, mentre quella ottenuta dalle supernove di tipo Ia si riferirebbe a un Universo “vicino”, gravitazionalmente accelerato. Recentemente, un gruppo di ricercatori di Heidelberg, tra cui alcuni italiani, ha simulato al computer una situazione che vede la nostra galassia al centro di una bolla sferica, i cui bordi vanno ben al di là del nostro gruppo locale. Il risultato spiegherebbe almeno un 25% della discordanza tra le due misure ottenute per la costante di Hubble. Non molto, in verità. Tuttavia, il modello si sta rifinendo, assumendo una forma non sferica e i ricercatori cercheranno di eliminare del tutto la differenza residua.  Una visione nuovamente geocentrica del Cosmo? Perché mai noi dovremmo essere in una posizione “diversa” dal resto dell’Universo locale? Sicuramente qualcosa che crea un senso di fastidio e di obsoleto. Tuttavia, vale anche una considerazione opposta: perché mai l’Universo dovrebbe essere perfettamente omogeneo e a densità costante? Insomma, una ricerca puramente teorica, ma non per questo meno interessante. Da un lato sarebbe una spiegazione che semplificherebbe la situazione, eliminando o quantomeno riducendo di molto l’importanza dell’energia oscura. Dall’altro, però, mi ricorda certi modelli numerici in cui a furia di cambiare un poco i vari parametri si poteva ottenere ciò che si voleva. Mah… staremo a vedere. Resta, comunque, un fatto importante: se tutti i vari arrangiamenti al modello e alle simulazioni al computer saranno fatti con “giudizio”  e  si ottenesse ancora una discordanza importante, la necessità di un entità sconosciuta (energia oscura) sarebbe praticamente accertata.
di Vincenzo Zappalà (Astronomia.com)

Supernova da record: è la più lontana

Bottino ghiotto, tanto per gli astrofisici che si occupano di supernove quanto per i cosmologi alle prese con l’ineffabile energia oscura. La scoperta della supernova SN UDS10Wil – prontamente ribattezzata SN Wilson in onore del presidente degli Stati Uniti Woodrow Wilson –  sposta di circa 350 milioni di anni le lancette del tempo rispetto al precedente primato: il suo redshift è 1.914, il che significa che si trova a oltre 10 miliardi di anni luce da noi. Un record, non c’è dubbio. Ma soprattutto uno strumento preziosissimo per misurare l’accelerazione dell’espansione dell’universo. Questo perché la supernova Wilson, oltre a essere così distante, è anche di tipo Ia: vale a dire, uno di quei potenti fari naturali – balzati alla ribalta con i Nobel per la Fisica 2011 – utilizzati dagli astronomi come “metro standard” per misurare le distanze cosmologiche. E avere a disposizione una supernova così lontana permetterà di verificare se davvero questi “metri” misurano sempre un metro oppure no. «Con questo oggetto da  record si apre una nuova finestra nell’universo primordiale, in grado di fornire informazioni cruciali sul modo in cui queste stelle esplodono», dice David O. Jones, della Johns Hopkins University di Baltimora, nel Maryland, primo autore dell’articolo su questo risultato, in corso di pubblicazione su The Astrophysical Journal. «Ci permetterà di mettere alla prova le teorie sull’affidabilità di queste detonazioni ai fini della comprensione dell’evoluzione dell’universo e della sua espansione». La scoperta di SN Wilson non è avvenuta per caso: è frutto di una survey di durata triennale, guidata dal premio NobelAdam Riess, mirata esattamente a censire le supernove di tipo Ia più lontane, quelle situate a distanze superiori ai 2 miliardi e mezzo di anni luce. Survey che ha già portato all’identificazione di oltre 100 supernove remote. Ma perché gli astrofisici sono così interessati proprio a questi antichi reperti cosmici? Lo spiega lo stesso Riess con un’analogia: «Se le supernove fossero popcorn, la domanda sarebbe: quanto tempo occorre prima che comincino a scoppiare? Le teorie su cosa accade nei singoli chicchi di mais possono essere le più varie. Riuscire a scoprire quand’è che i primi chicchi sono scoppiati, e con quale frequenza si sono succeduti gli scoppi, ci offre informazioni importanti sul processo di esplosione dei chicchi». Non solo: comprendere il processo d’innesco delle supernovae di tipo Ia può mostrarci a quale velocità l’universo si è arricchito degli elementi più pesanti, primo fra tutti il ferro. D’altronde, sono proprio queste stelle le responsabili della produzione di circa la metà di tutto il ferro che incontriamo nell’universo, materia prima per la formazione dei pianeti e per la vita.
di Marco Malaspina (INAF)

L’universo? E’ una gigantesca ragnatela

Una ragnatela cosmica che si estende per miliardi di anni luce, fatta di galassie, gas, polveri, ma anche di numerose zone apparentemente sgombre di materia visibile, dove invece potrebbe annidarsi quella ‘oscura’. Ecco il primo spettacolare colpo d’occhio dell’Universo realizzato nell’ambito del progetto VIPERS (VIMOS Public Extragalactic Redshift Survey), sviluppato da un team internazionale coordinato da ricercatori dell’INAF e a cui partecipano colleghi di varie Università italiane . VIPERS utilizza lo spettrografo VIMOS installato al Very Large Telescope (VLT) dell’ESO per ricostruire la distribuzione spaziale delle galassie quando l’Universo aveva circa metà dell’età attuale, ovvero attorno a 7 miliardi di anni. La novità del progetto è nella combinazione senza precedenti delle dimensioni del volume esplorato e del dettaglio con cui la struttura a grande scale viene ricostruita. L’ambizioso obiettivo è quello di misurare le distanze di circa 100.000 galassie in un volume di quasi due miliardi di anni-luce cubici per ricostruirne la loro distribuzione tridimensionale. I risultati, molto attesi, cominciano ad arrivare: sono stati infatti presentati una serie di articoli inviati alla rivistaAstronomy&Astrophysics e pubblicati online su arxiv.org che si basano sulle prime 55.000 galassie finora osservate. “È il primo traguardo di un lavoro iniziato nel 2008 e che richiederà altri 3 anni per essere completato”commenta Luigi Guzzo, dell’INAF – Osservatorio Astronomico di Brera, coordinatore generale del progetto.
Il primo e più spettacolare risultato fornito da questi dati è nelle mappe della distribuzione delle galassie basate sulle nuove misure di distanza che mostrano come già a quell’epoca l’Universo fosse organizzato in grandi strutture filamentose, che connettono gli ammassi di galassie e circondano ampie zone vuote.  E’ il cosiddetto Cosmic Web, la ragnatela cosmica che i ricercatori spiegano come il risultato dell’amplificazione da parte della forza di gravità di piccole perturbazioni nell’Universo primordiale.  La struttura è analoga a quella osservata nell’Universo più vicino a noi, ma rappresenta un fotogramma intermedio del film cosmico, scattato circa 7 miliardi di anni fa e per di più dettagliatissimo e molto esteso.  Un fondamentale passo in avanti che ci permette di avere a disposizione, per la prima volta, una visione d’assieme dell’Universo a queste epoche. Grazie all’estensione di queste mappe, il team di VIPERS è stato in grado di produrre già con il campione attuale dei risultati che migliorano significativamente la nostra conoscenza sia delle proprietà globali della popolazione di galassie, sia della loro distribuzione spaziale a grande scala.
Il livello di disomogeneità alle diverse scale (galassie, ammassi di galassie, filamenti) è infatti strettamente legato alle proprietà delle componenti fondamentali dell’Universo. Quanta e quale materia oscura è necessaria per spiegare ciò che vediamo? Che cosa produce l’accelerazione dell’espansione che oggi osserviamo? È la cosiddetta energia oscura oppure in realtà stiamo usando una teoria non corretta per descrivere l’Universo su queste scale? Tra i principali obiettivi di VIPERS c’è quello di fornire risposte a questi interrogativi. Uno dei lavori in fase di pubblicazione mostra che la distribuzione e le velocità delle galassie sono compatibili con le previsioni della Relatività Generale e confermano quindi la necessità di inserire una forma di energia oscura nelle relative equazioni, per spiegare l’espansione accelerata.
Un altro degli articoli in corso di pubblicazione presenta una misura molto precisa del numero di galassie di grande massa già presenti nell’Universo quando questo aveva 7 miliardi di anni.  “Avere a disposizione queste informazioni per campioni di centinaia di migliaia di galassie – come sarà il caso di VIPERS al termine del progetto tra tre anni –  permette di identificare nel dettaglio i processi e le leggi fisiche che ne regolano l’evoluzione, informazioni che possono essere fraintese se si usano campioni troppo piccoli e non rappresentativi di simili oggetti celesti” commenta Micol Bolzonella dell’INAF – Osservatorio Astronomico di Bologna, che nel progetto coordina gli studi di evoluzione delle galassie.
“Non è stato semplice arrivare a questi risultati, ottenuti grazie a un lavoro lungo e sistematico, che ha richiesto lo sviluppo di procedure automatizzate di calibrazione e analisi dei dati e il coordinamento di un grande sforzo collettivo” prosegue Guzzo. “Gli istituti dell’INAF hanno avuto un ruolo centrale in questo compito. In particolare, presso l’INAF-IASF di Milano si trova il ‘Centro Riduzione Dati’ del progetto, sotto la responsabilità di Bianca Garilli e Marco Scodeggio, che ha sviluppato sia il software di calibrazione e gestione della survey, sia la struttura informatica di archiviazione dei dati”. E‘ da qui che i dati sono scaricabili dai membri del team per le diverse analisi, ed è qui che l’intera comunità scientifica mondiale potrà accedere a questo nuovo campione a partire già da settembre prossimo.
Per saperne di più:
Il comunicato stampa INAF
Il sito web del progetto VIPERS
L’intervista a Luigi Guzzo, PI del progetto VIPERS
di Marco Galliani (INAF)

La particella Majorana

La scoperta o -molto meglio- la possibilità che la particella identificata al CERN sia proprio il bosone di Higgs, non risolve certamente i problemi collegati alla fisica della materia. Molti ne rimangono ancora aperti e molte altre particelle devono ancora uscire allo scoperto. Tra queste una in particolare, legata a un genio della fisica troppo presto dimenticato oltre che scomparso nel nulla: Ettore Majorana.
Fatto sta che, tra le decine di scoperte che si devono alla sua mente, ve ne è una che potrebbe cambiare tutta la visione odierna dell’Universo: la particella detta appunto “majorana”.
Quali sono i maggiori problemi del Cosmo non ancora risolti? Sicuramente la battaglia inspiegabilmente vinta dalla materia sull’antimateria e l’esistenza (possibile) della cosiddetta materia oscura e della sua sorella gemella, l’energia oscura . Ebbene la “majorana” risolverebbe, forse, entrambi i problemi. Essa non sarebbe composta né di materia né di antimateria, sarebbe solo una quasi-particella, robusta e stabile. In parole più semplici, essa sarebbe formata sia di materia che di antimateria e le condizioni di formazione creerebbero i presupposti per una sua vita tranquilla e non “esplosiva”. Qualcuno pensa che essa delimiti esattamente il confine tra materia e antimateria e che sia composta da elettroni “normali”, agglomerati sotto condizioni limite. Data la sua stabilità e robustezza altri pensano che possa essa stessa costituire la materia oscura.
Teorie, solo teorie. Tuttavia, se veramente esistesse risolverebbe anche giganteschi problemi di tipo pratico, soprattutto nel campo dei super computer quantici (non chiedetemi di più, sono un ignorante in materia…).
Dove cercarla? Questo è il vero problema. Tuttavia, una sua fervente ammiratrice oltre che bravissima studiosa di fisica nucleare, Lorenza Viola (italiana che lavora all’estero, ovviamente…), insieme a colleghi di varie nazioni, ha ideato un esperimento basato sull’analisi dettagliata dei superconduttori, il luogo migliore dove potrebbe essersi nascosta la misteriosa e rivoluzionaria particella. Viola ha una visione molto profonda e lucida della fisica dell’estremamente piccolo. Lei dice ai suoi allievi: “Il problema con il microcosmo è che noi siamo troppo grandi per lui e non riusciamo a vederlo, a capirlo e a metterci nei panni delle particelle subatomiche. Dovremmo fare uno sforzo per rimpicciolirci, almeno mentalmente, fino alle loro dimensioni. O almeno riuscire a immaginare correttamente quel micro-cosmo. Forse capiremmo i loro problemi e le soluzioni adottate non ci sembrerebbero più così complicate”. Insomma non esiste solo Higgs… Forza grande fisico siciliano. Torna in vita attraverso la tua fantastica particella!
Tratto da Astronomia.com articolo di Vincenzo Zappalà

Occhi puntati sull’energia oscura

Vinca il migliore, e speriamo soprattutto che almeno uno dei due contendenti vinca qualcosa. Due survey (progetti di osservazione astronomica su grande scala) stanno per partire, in competizione l’una con l’altra, alla caccia dell’energia oscura, quella misteriosa forza che contrasta il rallentamento dell’espansione dell’Universo, e della cui natura i cosmologi non sanno praticamente nulla. Due progetti proveranno a capirci di più sfruttano su grande scala l’effetto del weak gravitational lensing, quello per cui la luce in arrivo dalle galassie più distanti viene “piegata” dalla presenza, lungo i suo cammino, di materia che con la sua attrazine gravitazionale distorce lo spazio-tempo. A differenze dell’effetto di lente gravitazionale “forte”, causato da grandi aggregati di materia, che è ben visibile anche su singole galassie, il weak lensing è rilevabile solo studiando migliaia di galassie. L’idea che accomuna i due progetti è di studiare questo tipo di effetto su grandi porzioni del cielo, prima di tutto per mappare la densità e la distribuzione della materia oscura (l’altro punto interrogativo negli attuali modelli cosmologici) e da qui, studiando come questa distribuzione si è modificata nel tempo, trovare tracce dell’azione dell’energia oscura.
Due i progetti, si diceva. Uno userà la Hyper Suprime-Cam (HSC), strumento inaugurato il 28 agosto sul telescopio da 8,2 metri “Subaru” nelle isole Hawaii. Entro il 2018 il progetto, coordinato da Satoshi Miyazaki del National Astronomical Observatory giapponese, conta di riprendere e catalogare 10 milioni di galassie lungo una sezione di cielo di 1500 gradi quadrati. L’altro progetto, chiamato Dark Energy Survey (DES), partirà alla fine di questo mese e userà il telescopio Blanco in Cile. Come ha spiegato a Nature Josh Frieman del Fermi National Accelerator Laboratory di Batavia, Illinois, coordinatore del progetto, DES avrà a disposizione più tempo osservativo rispetto a HSC, perché il telescopio sarà in gran parte dedicato a questa impresa. Dovrebbe così arrivare a 300 milioni di galassie su 5000 gradi quadrati, sempre entro il 2018. Tuttavia il telescopio Blanco è più piccolo (4 metri), e quindi non potrà osservare altrettando distante.
Certo, nessuno di questi progetti basati su telescopi terrestri può arrivare alla risoluzione che sarebbe consentita da un osservatorio spaziale, come la missione Euclid che l’Agenzia Spaziale Europea conta di lanciare nel 2019, e che consentirebbe di eliminare la distorsione introdotto dall’atmosfera terrestre.
di Nicola Nosengo (INAF)

Voci precedenti più vecchie