Autovelox per universi in espansione

Del fatto che l’universo s’espandesse, che lo spazio fra una galassia e l’altra andasse aumentando con il tempo, se n’era già accorto Edwin Hubble sul finire degli anni Venti. Ma non si limita a espandersi, l’Universo: lo fa accelerando. Questo significa che, più è grande la distanza fra una galassia e una qualsiasi altra, maggiore sarà la velocità alla quale le due continueranno ad allontanarsi. Quanto maggiore? Il valore, uno fra i pochi parametri fondamentali della cosmologia contemporanea, è noto come “costante di Hubble”, anche se non è certissimo che sia proprio costante. E quanto vale? Per stabilirlo, gli astrofisici hanno utilizzato essenzialmente due tipi di approcci: da una parte sono partiti misurando i parametri fondamentali dell’universo all’epoca del Big Bang con sonde cosmologiche, come WMAP della NASA e Planck dell’ESA. Ma c’è almeno un altro approccio per calcolare la costante di Hubble, ed è quello (vedi schema qui sotto) che fa uso di due particolari tipi di stelle di riferimento: le supernove di tipo Ia, stelle che esplodono emettendo una quantità di luce costante, e le cefeidi, stelle che invece pulsano con una frequenza correlata con la loro vera luminosità. Caratteristiche, queste, che consentono agli astronomi di calcolare in modo preciso la distanza di queste stelle da noi, e dunque la distanza reciproca delle galassie che le ospitano. Dato fondamentale, è facile intuirlo, per derivare poi la costante di Hubble. La cosa impagabile di questi due approcci è che sono alquanto indipendenti l’uno dall’altro. Perfetti, perciò, per confermarsi a vicenda: se tutto va come ci si attende, messi in conto gli inevitabili errori nella stima, i due valori dovrebbero essere sovrapponibili. Ma uno studio in uscita su The Astrophysical Journal, basato su dati raccolti dal telescopio spaziale Hubble – che ha osservato 300 supernove di tipo Ia e 2400 cefeidi, studio guidato fra l’altro da Adam Riess, premio Nobel per la Fisica nel 2011 proprio per aver confermato che l’espansione dell’universo sta accelerando – trova un valore per la costante di Hubble significativamente più elevato rispetto a quello derivato dalle misure cosmologiche. E ciò che è peggio è che, anche considerando i margini d’errore – ridottissimi per quest’ultima misura – i due risultati non si sovrappongono più. È un po’ come costruire un tunnel cominciando a scavare dalle due estremità, e ritrovarsi a metà strada con le due gallerie che non s’incontrano… Ora si tratta di capire perché. Ci stanno provando, fra gli altri, Eleonora Di Valentino e Alessandro Melchiorri, ricercatrice postdocin Francia la prima, presso l’Institut Astrophysique di Parigi, e professore alla Sapienza, nonché associato INAF, il secondo. Insieme a Joseph Silk, di Oxford, hanno appena messo in rete un preprint(un articolo ancora in attesa di peer review) che affronta proprio questa discrepanza. Media INAF li ha intervistati.

Partiamo dall’oggetto del contendere: la costante di Hubble. Vale a dire, il tasso d’accelerazione dell’espansione dell’universo. Qual è il valore oggi comunemente accettato? E quanto il team di Riess suggerisce invece che sia, in base ai dati Hubble?

«Il punto è che non c’è al momento un valore comunemente accettato. È possibile misurare la costante di Hubble (H0) in maniera diretta», spiega Di Valentino, «come fanno Riess e colleghi, o in maniera indiretta (vale a dire assumendo un modello cosmologico), come si fa con la radiazione di fondo cosmico (CMB). Già la CMB pre-Planck preferiva un valore minore rispetto a quello misurato in modo diretto dallo Hubble Space Telescope (HST). Questa tensione, che era a livello di 2 deviazioni standard appena quando i nuovi dati di Planck sono stati rilasciati, si è adesso inasprita a 3.3 deviazioni standard con la nuova analisi di Riess et al. Questo sta a indicare che maggiore è la precisione con cui H0 viene misurata, maggiore diventa la tensione tra le due misure. Riess e il suo team ottengono così un valore pari a 73.2 km al secondo per megaparsec [ndr: che corrisponde suppergiù a 263 mila km/h in più ogni 3.26 milioni di anni luce di distanza], con un intervallo d’errore di più o meno 1.75 km/s/Mpc, mentre i dati di Planck, assumendo il modello cosmologico standard, forniscono 66.93 più o meno 0.62 km/s/Mpc».

Quali possono essere le ragioni di questa discrepanza? Sbaglia Planck? Sbaglia Hubble? O c’è qualche altra possibilità?

«La discrepanza può essere dovuta a sistematiche in uno dei due esperimenti», dice Melchiorri, «ma dopo cinque anni di analisi dati comincia a essere difficile che vi siano grandi errori. La possibilità più interessante è che entrambi abbiano ragione e che vi sia una nuova fisica a spiegare la discrepanza. Nel nostro articolo mostriamo che la via migliore consiste nel cambiare l’equazione di stato dell’energia oscura. Una cosa abbastanza ragionevole, visto che di questa componente non sappiamo nulla».

In tutto ciò cosa c’entrano i neutrini? Vedo che nel vostro articolo vi fate riferimento…

«Riess e colleghi hanno proposto delle specie di neutrini “extra”, per esempio i neutrini sterili, per risolvere la tensione. Nel nostro articolo facciamo però vedere», osserva Melchiorri, «che questa non è la via migliore, dato che il fit [ndr: la corrispondenza] con i dati peggiora».

Dunque quali alternative proponete, nel vostro articolo?

«Come prima cosa presentiamo un’analisi considerando allo stesso tempo tutte le possibili soluzioni note. In pratica estendiamo l’analisi dai 6 parametri usuali a 12. In secondo luogo», continua Di Valentino, «mostriamo che la soluzione migliore consiste nel considerare modelli di energia oscura con equazione di stato negativa (w < -1). Questo si può ottenere in molti modi diversi, ma il punto importante è che la costante cosmologica non sarebbe più sufficiente».

Ha forse qualcosa a che fare con quello che chiamate “phantom-like dark energy component”? Di che si tratta?

«L’origine del nome “phantom” deriva da un articolo di Robert Caldwell che si rifaceva al primo film della seconda trilogia di Lucas, Phantom menace: La minaccia fantasma. Infatti in questo modello l’energia oscura è una “minaccia oscura” che produrrebbe la distruzione dell’universo tra una cinquantina di miliardi di anni», nota Melchiorri. «C’è da dire che il modello proposto non è teoricamente molto più bello del film mediocre di Lucas, ma è una possibilità».

Ma oltre alla distruzione dell’universo, che già non mi pare poco, quali conseguenze avrebbe, per l’astrofisica e per la cosmologia, una variazione così significativa della costante di Hubble?

«I dati pre-Planck potevano conciliare le misure di CMB e di HST in due modi: con una dark radiation, e quindi un numero di specie di neutrini relativistici maggiore di 3, o con una dark energy diversa dalla costante cosmologica, cioè w diverso da -1. Oggi, con Planck, la possibilità di un numero di specie di neutrini maggiore di 3 non è più praticabile. Se entrambi i risultati fossero confermati, una possibilità per metterli d’accordo è l’abbandono della costante cosmologica, difficile da spiegare dal punto di vista fisico, in favore di un fluido di dark energy con equazione di stato w < -1. Un modello phantom, appunto», conclude Di Valentino.
di Marco Malaspina (INAF)

Annunci

Riccioli d’ammoniaca sotto le nubi di Giove

Utilizzando la schiera di parabole che compone il Very Large Array in Nuovo Messico, un gruppo di astronomi ha prodotto la più dettagliata mappa radio dell’atmosfera di Giove, rivelando l’imponente flusso di gas di ammoniaca che scorre al di sotto dello spesso strato di colorate e vorticosi nubi superficiali. Nella loro ricerca, pubblicata sull’ultimo numero di Science, i ricercatori hanno misurato le emissioni radio dell’atmosfera di Giove a specifiche lunghezze d’onda, alle quali le nuvole risultano trasparenti, riuscendo a determinare la quantità di ammoniaca presente fino a una profondità di circa 100 chilometri al di sotto dello strato superiore. Si tratta di una fascia in gran parte inesplorata, ma particolarmente interessante perché è quella in cui le nuvole si formano. Studiando queste regioni dell’atmosfera del pianeta, gli astronomi contano infatti di riuscire a descrivere come la circolazione globale e la formazione delle nubi siano guidate dalla potente fonte di calore interno di Giove. Un modello da applicare in maniera simile anche agli altri pianeti giganti nel nostro Sistema solare, ma anche ai pianeti extrasolari giganti recentemente scoperti intorno a stelle lontane. «Abbiamo in sostanza creato un’immagine tridimensionale del gas di ammoniaca presente nell’atmosfera di Giove», spiegaImke de Pater, professoressa di astronomia alla Università della California a Berkeley e prima autrice dello studio. «Un’immagine da cui si possono ricostruire i movimenti verso l’alto e verso il basso all’interno della turbolenta atmosfera». Secondo la ricercatrice, questa nuova mappa reca una sorprendente somiglianza con le immagini in luce visibile. La nuova mappa radio evidenzia infatti le nubi superficiali, ricche in ammoniaca, che determinano l’aspetto del pianeta e sono il principale elemento visibile dall’esterno. Si tratta di uno strato di idrosolfuro di ammonio, a una temperatura attorno ai 200° Kelvin (-73° C), e di uno strato di ghiaccio di ammoniaca fluttuante nell’aria fredda a circa 160 Kelvin (-113° C). Inoltre, la nuova analisi mostra come i cosiddetti hotspot – punti “caldi” dell’atmosfera che appaiono luminosi sia in radio che nelle termografie ad infrarossi – siano regioni povere in ammoniaca, che circondano il pianeta come una cintura appena a nord dell’equatore. Fra gli hotspot sono localizzate delle “risorgive” che trasportano ammoniaca in superficie dagli strati più profondi dell’atmosfera planetaria. «Grazie alle osservazioni radio possiamo scrutare attraverso le nuvole e vedere che quei punti caldi sono intercalati da pennacchi di ammoniaca in risalita dalle profondità del pianeta, configurando le ondulazioni verticali di un sistema di onde equatoriali», dice l’astronomo della UC Berkeley Michael Wong. Queste osservazioni vengono rese note quando manca ormai meno di un mese prima dell’arrivo a Giove della sonda Juno della NASA, previsto per il prossimo 4 luglio 2016. La missione prevede, tra l’altro, di misurare la quantità di acqua presente nelle parte più profonda dell’atmosfera, là dove il radiotelescopio Very Large Array ha misurato i valori per l’ammoniaca. «Mappe come la nostra possono aiutare a inquadrare i dati ottenuti da Juno nel più ampio sistema dei movimenti atmosferici di Giove», commenta de Pater, notando in conclusione come il suo team di ricerca continuerà a osservare Giove in radio con il VLA in contemporanea alle osservazioni in microonde compiute da Juno alla ricerca dell’acqua.
di Stefano Parisini (INAF)

Arrivano Boote, la Vergine, la Bilancia e il Leone

Appena fa buio, nel cielo di giugno non c’è più traccia delle costellazioni invernali, ad eccezione dei Gemelli e dell’Auriga che, subito dopo il tramonto, ci mostrano ancora le loro stelle principali. Verso Nord-Ovest infatti possiamo ammirare la brillante Capella e la coppia formata da Castore e Polluce, prima che vengano inghiottite dalle luci all’orizzonte. A Sud troviamo le costellazioni primaverili: il Leone, che ogni giorno che passa volge sempre più verso l’orizzonte ovest, il Boote, la Vergine e la Bilancia. Alla sinistra del Boote la Corona Boreale con la brillante stella Gemma che ricorda davvero la pietra più preziosa di un diadema. Ad Est della Bilancia si riconosce l’arco delle chele dello Scorpione con la rossa Antares a delineare il torace dell’animale; con l’avanzare della notte tutto il corpo si eleva sopra l’orizzonte, fino a mostrare la coda e l’aculeo. Ad Est della Corona arriviamo alla costellazione di Ercole, nel quale anche con un binocolo si può osservare l’ammasso globulare M13. Verso Est tre stelle brillanti formano il grande triangolo estivo, attarversato dalla tenue nebulosità della Via Lattea; l’asterismo è formato da tre costellazioni: la Lira con la brillante stella Vega, il Cigno di cui si riconosce bene la coda rappresentata dalla stella Deneb e l’Aquila con la stella Altair. Le stelle del triangolo ci accompagneranno per tutta l’estate, approfittatene per osservare, con un telescopio, la stella che rappresenta il capo del Cigno, Albireo, che è una bellissima doppia e, nella Lira, la nebulosa planetaria M57. Il cielo settentrionale è, come sempre, caratterizzato dalle due Orse. Volgendo lo sguardo verso la stella polare che nell’Orsa Minore ci indica la direzione del Nord, vedremo l’Orsa Maggiore dominare il cielo a Nord-Ovest. Dalla parte opposta rispetto alla Polare, a Nord-Est, possiamo riconoscere Cassiopea, dalla forma a “W”, e Cefeo con la sua singolare forma a casetta dal tetto appuntito.
a cura di Stefano Simoni (Astronomia.com)

Così funziona l’orizzonte degli eventi

I buchi neri sono corpi celesti ancora molto misteriosi che però, così pensa la maggior parte dei fisici, non si sottraggono alle leggi della termodinamica. Questi sistemi fisici possiedono dunque un’entropia, anche se ancora non c’è un vero accordo sull’origine microscopica di questa proprietà e il modo di calcolarla. Un gruppo di ricercatori SISSA / Max Planck Institute (Potsdam) ha ottenuto un risultato importante in questo calcolo applicando un nuovo formalismo (la Group Field Theory) della Loop Quantum Gravity (LQG), un approccio molto popolare nell’ambito della gravità quantistica.
Il risultato concorda con la famosa legge di Bekenstein e Hawking, secondo cui l’entropia di un buco nero è proporzionale ad un quarto della sua area, evitando però molte delle assunzioni e semplificazioni fatte in tentativi teorici di LQG precedenti, e porta inoltre prove a favore dell’ipotesi olografica, secondo cui il buco nero che ci appare tridimensionale potrebbe essere matematicamente ridotto a una proiezione bidimensionale. Di principio niente che entri in un buco nero può uscire dal buco nero. Questo complica notevolmente lo studio di questi corpi misteriosi sui quali, a partire dal 1916, anno in cui sono stati ipotizzati come conseguenza diretta della Teoria della Relatività di Einstein, generazioni di fisici hanno dibattuto.
C’è però un certo accordo nella comunità scientifica sul fatto che essi possiedano un’entropia, perché altrimenti la loro esistenza violerebbe la seconda legge della termodinamica. In particolare Jacob Bekenstein e Stephen Hawking hanno suggerito che l’entropia – che in maniera molto generale possiamo considerare come una misura del disordine interno di un sistema fisico – del buco nero sia proporzionale alla sua area, e non al suo volume come sarebbe intuitivo supporre. Da questa considerazione ha origine anche l’ipotesi “olografica” dei buchi neri, che (descrivendola molto grossolanamente) suggerisce che ciò che ci appare tridimensionale potrebbe essere in realtà un’immagine proiettata su un lontano orizzonte cosmico a due dimensioni, proprio come un ologramma che pur essendo un’immagine bidimensionale ci appare tridimensionale. Poiché non possiamo guardare dentro l’orizzonte degli eventi (il limite esterno del buco nero), i microstati interni che definiscono l’entropia sono inaccessibili, e dunque com’è possibile calcolare questa misura?
L’approccio teorico di Hawking e Bekenstein è semiclassico (una sorta di ibrido fra fisica classica e meccanica quantistica) e introduce la possibilità (o la necessità) di adottare un approccio di quantum gravity in questi studi, in modo da poter ottenere una comprensione più fondamentale della fisica dei buchi neri. La lunghezza di Planck è la dimensione (piccolissima) alla quale lo spazio-tempo smette di essere continuo come lo vediamo noi, e assume una grana discreta, fatta di quanti, gli ‘atomi’ dello spazio-tempo. l’Universo a questa dimensione è descritto dalla meccanica quantistica. La Quantum Gravity è l’ambito che studia la gravità nel quadro di riferimento della meccanica quantistica: questa forza è infatti un fenomeno molto ben descritto nell’ambito della Fisica Classica, ma non è ancora del tutto chiaro come si comporti alla scala di Planck.
Daniele Pranzetti e colleghi in un nuovo lavoro pubblicato su Physical Review Letters propongono un risultato importante che nasce dall’applicazione di un formalismo di seconda quantizzazione della Loop Quantum Gravity (LQG), un approccio teorico al problema della quantum gravity, e la Group Field Theory, che è il “linguaggio” con cui la teoria viene applicata in questo lavoro. «L’idea sulla quale ci siamo basati è che le geometrie classiche omogenee emergano da uno stato condensato dei quanti di spazio introdotti in LQG per descrivere geometrie quantistiche», spiega Pranzetti. «In questo modo abbiamo ottenuto una descrizione degli stati quantistici del buco nero, in grado anche di spiegare la fisica “continua”, ovvero quella dello spazio tempo a noi familiare». Un altro aspetto importante del lavoro di Pranzetti e colleghi è che propone un meccanismo concreto in supporto all’ipotesi olografica, secondo cui la tridimensionalità del buco nero potrebbe essere solo apparente: tutta la sua informazione potrebbe essere in realtà contenuta su una superficie bidimensionale, senza bisogno di dover investigare la loro struttura interna (da qui il legame fra l’entropia e l’area del buco nero e non il volume).
Gli altri due autori dello studio sono Lorenzo Sindoni, ex ricercatore della SISSA ora al Max Planck Institute for Gravitational Physics di Potsdam in Germania, e Daniele Oriti, sempre del Max Plank. Ortiti descrive così, a Media INAF, l’ipotesi alla base del loro lavoro: «L’idea principale è di sfruttare il formalismo di group field theory (GFT) per “costruire un buco nero” a partire dai mattoncini elementari che, nella teoria di LQG/GFT costituiscono lo spaziotempo, nello stesso senso in cui gli atomi costituiscono un fluido. Una volta fatto questo, diventa possibile studiarne le proprietà termodinamiche (in particolare l’entropia) e anche eventuali proprietà olografiche (che in genere vengono semplicemente date per scontate oppure giustificate a partire dalla teoria della Relatività Generale, che però, dal punto di vista della gravità quantistica, non è una teoria fondamentale) in maniera esplicita e direttamente a partire dalla sua struttura microscopica. E questo è quello che facciamo».
«Abbiamo realizzato esplicitamente l’idea di cui sopra», continua Ortini, «costruendo una classe di stati microscopici (cioè appropriate configurazioni di un gran numero dei costituenti quantistici elementari) che hanno, a livello macroscopico, le proprietà base di un buco nero sferico. Il modello descrive un buco nero come un “condensato quantistico” (più precisamente definendo una sequenza di condensati ciascuno dei quali descrive una “sfoglia sferica” e poi incollando tutte queste sfoglie l’una all’altra per formare una sfera piena – un po’ come si forma una cipolla sferica a partire dai suoi strati interni). L’orizzonte è la sua superficie più esterna». Un “condensato” è una collezione di ‘atomi’, in questo caso si tratta di quanti di spazio, che hanno tutti le stesse proprietà, e quindi pur essendo tantissimi, è possibile tuttavia descrivere il loro comportamento collettivo in maniera semplice, facendo riferimento alle proprietà microscopiche di una sola particella. Ecco che allora appare più chiara l’analogia con la termodinamica classica: come alla nostra scala i liquidi, pur composti da un numero enorme di atomi, ci appaiono come materiali continui, allo stesso modo nello scenario della quantum gravity dagli atomi costituenti fondamentali dello spazio emerge una sorta di fluido, ossia lo spazio-tempo continuo. Una geometria continua e omogenea (come quella di un buco nero a simmetria sferica) può, come suggeriscono Pranzetti e colleghi, essere descritta come un condensato, il che rende più maneggevole il calcolo matematico sottostante, pur tenendo conto di un numero a priori infinito di gradi di libertà.
«Abbiamo così potuto usare un modello più completo e ricco di quanto sia stato fatto in passato nell’ambito della LQG, ottenendo un risultato molto più realistico e robusto», osserva Pranzetti. «Questo permette di risolvere delle ambiguità che affliggevano i risultati precedenti, dovute al confronto di questi modelli semplificati con i risultati dell’analisi semi-classica, come quella fatta da Hawking e Bekenstein».
«Una volta definita questa costruzione in tutti i suoi dettagli», aggiunge Oriti, «uno può assumere di sapere “da cosa è fatto un buco nero” a livello microscopico, e studiarne le proprietà su questa base. Rispetto agli studi precedenti, la novità sta sia nel fatto che si fanno i conti appunto a partire da un modello “realistico” definito nella teoria fondamentale (piuttosto che in qualche modellino semplificato che cerchi di catturarne solo alcuni aspetti), e che ne cattura molti più dettagli microscopici: per esempio la sovrapposizione quantistica e l’entanglement tra costituenti elementari».
Sono previsti follow up per lo studio? «Ci sono vari progetti con cui stiamo sviluppando questo modello e la sua analisi. Uno ha a che vedere con la dinamica del buco nero e dell’orizzonte così modellato (cioè vogliamo capire quali transizioni microscopiche possono portare da una configurazione macroscopica del buco nero a un’altra, per esempio a un buco nero più grande. Un altro ha a che vedere con lo studio delle altre proprietà termodinamiche di questo orizzonte (oltre la sua entropia) e, più in generale, di geometrie macroscopiche, a partire dai loro costituenti quantistici microscopici. Un altro ancora, forse prioritario, sempre nel caso di un buco nero, si propone di ottenere anche una descrizione microscopica fondamentale della radiazione di Hawking, emessa dal buco nero stesso», conclude Oriti.
di Red Hanuman (Astronomia.com)

Lo scrigno di stelle nello Scorpione

L’arrivo di giugno segna l’ingresso dell’estate e il ritorno nel cielo di questo mese delle costellazioni che saranno protagoniste della bella stagione. All’interno di una di queste, ovvero lo Scorpione, si trova Messier 4 – o M4 in breve – uno tra i più grandi e soprattutto vicini ammassi stellari globulari presenti nella nostra Galassia: le più recenti stime lo collocano infatti a circa 7000 anni luce da noi. Nonostante questa peculiarità, è assai difficile da individuare ad occhio nudo. Meglio con un binocolo al quale si mostra come una macchiolina chiara, in vicinanza della stella Antares, la più brillante della costellazione dello Scorpione. Un piccolo telescopio permette invece di risolvere alcuni dei numerosi astri che lo popolano. Si stima che Messier 4, anche noto come NGC 6121, abbia un’estensione di quasi 100 anni luce e che circa metà delle 100mila stelle che lo compongono siano ammassate nel suo centro in una regione sferica di appena 8 anni luce di raggio. Ma il cielo del mese di giugno promette di riservarci, come al solito nuvole permettendo, altri interessanti e suggestivi fenomeni celesti. Se volete saperne di più, per essere pronti ad osservarli in prima persona, non vi resta che guardare il video su Media Inaf.
di Marco Galliani (INAF)

Quanto pesa la Via Lattea? 700 miliardi di soli (materia oscura compresa)

Ne abbiamo parlato diverse volte: quanto “pesa” la Via Lattea? Ogni anno gli esperti aggiornano le stime cercando di essere sempre più precisi. Di recente un gruppo di ricercatori guidati da Gwendolyn Eadie è arrivato a un numero piuttosto accurato: circa 7 x 10^11 masse solari, vale a dire la massa del nostro Sole moltiplicata per 700 miliardi. E se non sapete quanto è massiccia la nostra stella madre, beh non siete i soli anche perché si tratta di un numero quasi impossibile da figurare e pronunciare (2 nonilioni di kg, cioè 2 seguito da 30 zeri!). Difficile da misurare è anche la massa di una galassia, che di per sé contiene centinaia di miliardi di stelle, magari anche simili al Sole, e poi pianeti, lune, gas, polveri e altri oggetti, per non parlare della porzione di materia oscura che ancora nessuno sa dove sia e cosa sia (soprattutto!). Ma includere anche la materia oscura nelle misurazioni è importante, se non altro perché gli oggetti a noi visibili vengono influenzati dalla sua forza gravitazionale. I ricercatori della McMaster University hanno usato le velocità e le posizioni degli ammassi globulari che orbitano attorno alla Via Lattea per misurare la sua massa. Le orbite degli ammassi globulari sono infatti determinate dalla gravità della galassia, che è fortemente influenzata dalla materia oscura. Eadie è arrivata alla nuova stima, presentata oggi al meeting annuale della Canadian Astronomical Society (CASCA) e descritta in uno studio appena proposto per la pubblicazione a The Astrophysical Journal, grazie a una tecnica da lei ideata per l’utilizzo delle velocità degli ammassi globulari, che devono essere misurate in due direzioni: quella lungo la nostra linea di vista e quella attraverso il piano della volta celeste (il moto proprio). I ricercatori non hanno ancora misurato i moti propri di tutti gli ammassi globulari attorno alla Via Lattea, ma Eadie ha sviluppato un metodo per utilizzare anche queste velocità, che sono solo parzialmente note, per stimare la massa della galassia. Nello studio che descrive il metodo, pubblicato lo scorso anno su ApJ, i ricercatori hanno messo in evidenza il fatto che la materia oscura e la materia visibile possono avere diverse distribuzioni nello spazio.
di Eleonora Ferroni (INAF)

Svelata la fonte dell’acqua lunare

Il programma spaziale Apollo, che a cavallo tra gli anni ‘60 e ‘70 del secolo scorso ci ha permesso di conoscere più da vicino la Luna, ha anche portato a Terra un enorme quantitativo di campioni lunari. Dalle prime analisi risultava che queste rocce fossero completamente prive di acqua, mentre analisi più accurate hanno mostrato che, sebbene in piccole quantità, l’acqua è presente sul nostro satellite naturale. Secondo quanto afferma un nuovo studio pubblicato sulla rivista Nature Communications, la maggior parte dell’acqua presente all’interno della Luna è stata portata da asteroidi tra 4.5 e 4.3 miliardi di anni fa. Nell’era del programma Apollo la Luna è stata spesso descritta come un corpo privo di acqua. Grazie al progressivo miglioramento delle tecniche di analisi, gli scienziati si sono resi conto che l’acqua è presente nel sottosuolo lunare, ma in quantità così piccole da non essere rilevabili all’epoca del rientro a Terra dei primi campioni. La scoperta di acqua nella Luna apre un nuovo dibattito circa la sua provenienza. Nello studio gli scienziati hanno confrontato la composizione chimica e isotopica dei materiali volatili lunari con quella dei volatili trovati in comete e campioni meteorici di asteroidi. Il team ha poi calcolato la proporzione di acqua che potrebbe essere stata trasportata da queste due popolazioni di oggetti, e i risultati indicano la maggior parte (più dell’80 percento) dell’acqua lunare deriva da asteroidi simili alle meteoriti condritiche carbonacee. Le condriti sono meteoriti rocciose che non sono state modificate da processi di fusione o differenziazione, e sono quindi costituite da materiale primitivo del Sistema solare, che si è addensato da grani e polveri a formare asteroidi. Le condriti carbonacee sono caratterizzate dalla presenza di carbonio e suoi composti, tra cui amminoacidi. L’acqua sembra dunque arrivata sulla Luna quando questa era ancora circondata da un oceano di magma, molto prima che si formasse la crosta che vediamo ora, e che impedisce agli oggetti che impattano sul nostro satellite di portare quantità significative di materiale negli strati più profondi. Per quanto riguarda l’arrivo dell’acqua sulla Terra, deve essere accaduto qualcosa di molto simile, all’incirca nello stesso intervallo di tempo.
di Elisa Nichelli (INAF)

Voci precedenti più vecchie