Svelato il mistero della materia oscura mancante

Nel 2018, un team internazionale di ricercatori aveva scoperto – grazie ai dati del telescopio spaziale Hubble e a diversi osservatori terrestri – una galassia con una componente di materia oscura molto bassa: Ngc 1052-Df2, che si era aggiudicata l’appellativo di galassia trasparente. Questa scoperta era stata una vera sorpresa per gli astronomi, poiché è risaputo che la materia oscura è un costituente fondamentale negli attuali modelli di formazione ed evoluzione delle galassie. Senza materia oscura, infatti, il gas primordiale non avrebbe una forza di gravità sufficiente per iniziare a collassare e formare nuove strutture. Un anno dopo, nel 2019, è stata scoperta un’altra galassia in cui sembra mancare materia oscura, Ngc 1052-Df4, a 45 milioni di anni luce di distanza dalla Terra, che ha innescato ulteriori intensi dibattiti tra gli astronomi sulla natura di questi due oggetti, Df2 e Df4. Ora, grazie ai nuovi dati di Hubble, si è trovato il motivo della mancanza di materia oscura in Ngc 1052-Df4. Mireia Montes dell’Università del New South Wales in Australia, ha guidato un team internazionale di astronomi nello studio di questa galassia, utilizzando l’imaging ottico profondo (ossia caratterizzato da una sensibilità molto buona, in grado di rilevare dettagli estremamente deboli). Gli scienziati hanno dunque scoperto che la materia oscura mancante può essere spiegata dagli effetti di tidal disruption, o distruzione mareale, indotti dalla vicina (e massiccia) galassia Ngc 1035, la cui forza di gravità sta letteralmente facendo a pezzi Ngc 1052-Df4. Durante questo processo, la prima a essere strappata via è stata proprio la materia oscura, mentre le stelle hanno risentito degli effetti dell’interazione in una fase successiva. Fino a ora, questa rimozione della materia oscura è rimasta nascosta agli astronomi, in quanto può essere osservata solo utilizzando immagini molto profonde. «Per scoprire che Ngc 1052-Df4 sta vivendo un’interazione, abbiamo utilizzato Hubble sia per studiare la luce della galassia, sia per capire la distribuzione dei suoi ammassi globulari», ha spiegato Montes. Grazie all’alta risoluzione di Hubble, gli astronomi hanno potuto identificare la popolazione di ammassi globulari della galassia. Mentre con il telescopio Gran Telescopio Canarias (Gtc) da 10.4 metri e il telescopio Iac80 all’Osservatorio del Teide, sempre alle Canarie, hanno ottenuto nuovi dati che hanno permesso di studiare le sue proprietà fisiche attraverso la fotometria. «Non è sufficiente dedicare molto tempo all’osservazione dell’oggetto, ma occorre anche un trattamento accurato dei dati», spiega Raúl Infante-Sainz dell’Instituto de Astrofísica de Canarias (Spagna). «Era quindi importante utilizzare non solo un strumento, bensì diversi telescopi – sia spaziali che terrestri – per condurre questa ricerca. Con l’alta risoluzione di Hubble possiamo identificare gli ammassi globulari e con la fotometria del Gtc facciamo luce sulle proprietà fisiche». Si pensa che gli ammassi globulari si formino negli episodi di intensa formazione stellare che modellano le galassie. Le loro dimensioni compatte e la loro luminosità li rendono facilmente osservabili e sono quindi buoni traccianti delle proprietà della galassia che li ospita. In questo modo, studiando e caratterizzando la distribuzione spaziale degli ammassi in Ngc 1052-Df4, gli astronomi hanno potuto derivare informazioni sullo stato della galassia stessa. L’allineamento di questi ammassi suggerisce che siano stati strappati dalla galassia ospite, e questo supporta la conclusione secondo la quale è in atto un evento di distruzione mareale Studiando la luce della galassia, gli astronomi hanno anche trovato prove di questa ipotesi in code mareali formate da materiale che si allontana da Ngc 1052-Df4. Ulteriori analisi hanno concluso che le parti centrali della galassia sono rimaste intatte e solo il 7 per cento circa della massa stellare della galassia è ospitato in queste code. Ciò significa che la materia oscura, che è meno concentrata delle stelle, è stata rimossa dalla galassia precedentemente, e ora anche la componente stellare esterna sta iniziando ad andarsene, strappata dalla galassia vicina. «Con il tempo», spiega Ignacio Trujillo «Ngc 1052-DF4 verrà cannibalizzata dal grande sistema attorno a Ngc 1035». E così gli astronomi hanno potuto tirare un sospiro di sollievo. Senza la scoperta di queste prove a sostegno del meccanismo di distruzione mareale come spiegazione della materia oscura mancante nella galassia, gli scienziati avrebbero dovuto rivedere la loro comprensione delle leggi che governano la gravità. «Questa scoperta concilia le attuali conoscenze su come si formano ed evolvono le galassie con il modello cosmologico più favorevole», conclude la Montes.

Un ponte di materia oscura tra il Gruppo Locale e l’Ammasso della Vergine

Utilizzando i migliori dati disponibili per il monitoraggio del traffico galattico, Noam Libeskind del Leibniz Institute for Astrophysics Potsdam (AIP) e i suoi collaboratori hanno costruito una mappa dettagliata del moto delle galassie nei nostri dintorni. Nella loro ricerca hanno scoperto un ponte di materia oscura che si estende dal nostro Gruppo Locale fino all’ammasso della Vergine, un enorme ammasso contenente circa 2.000 galassie a 50 milioni di anni luce da noi. Il ponte di materia oscura sembrerebbe essere legato ai due estremi da grandi bolle completamente prive di galassie. Questo ponte e questi vuoti ci aiutano a chiarire un problema di almeno 40 anni che riguarda la curiosa distribuzione delle galassie nane. Le galassie nane si trovano spesso in orbita attorno a massicci “padroni di casa”, come ad esempio la nostra Via Lattea. Dal momento che la loro luminosità è debole, sono difficili da individuare, perciò quelle che osserviamo si trovano quasi esclusivamente nel nostro  vicinato cosmico. Un aspetto particolarmente affascinante della loro esistenza è che nei pressi della Via Lattea e di almeno due dei nostri vicini più prossimi (le galassie Andromeda e Centaurus A) queste galassie satelliti non si muovono lungo traiettorie casuali, ma mostrano orbite ampie e piatte. Tali strutture non sono dunque il semplice risultato del modello di materia oscura fredda, ritenuto dalla maggior parte dei cosmologi il responsabile della formazione di galassie nell’universo. Secondo il modello di materia oscura fredda, infatti, le galassie nane dovrebbero disporsi lungo orbite casuali. Queste galassie nane sono dunque una sfida alle attuali conoscenze. Una possibilità è che queste piccole galassie ripetano la geometria della struttura osservata su scale molto maggiori. «Per la prima volta abbiamo una verifica osservativa del fatto che esistano grandi autostrade di forma filamentosa lungo le quali si canalizzano le galassie nane, che attraversano il cosmo lungo maestosi ponti di materia oscura», dice Libeskind. Lungo queste strutture le galassie satelliti possono essere incanalate e muoversi verso la Via Lattea, Andromeda e Centaurus A. «Il fatto che questo ponte galattico possa influenzare le galassie nane intorno a noi è impressionante, data la differenza di scala fra i due: le orbite delle galassie satelliti hanno dimensioni pari a circa l’1% del ponte galattico verso l’ammasso della Vergine».
di Elisa Nichelli (INAF)

Per fare luce sulla materia oscura

Elusiva e quasi impossibile da osservare, la materia oscura è la misteriosa sostanza che secondo le stime teoriche costituisce due terzi dell’intero universo. La sua presenza può essere dedotta in maniera indiretta dagli effetti gravitazionali. Una delle prime evidenze della sua esistenza viene infatti dagli studi delle curve di rotazione delle galassie che indicano come, affinché tutti i dati delle relazioni tra velocità e distanza acquistino senso, ci debbano essere appunto delle grandi quantità di materia che non vengono rilevate. Per ora nessuno strumento è stato in grado di rilevare direttamente la materia oscura. Oggi però siamo forse più vicini che mai a questo grande passo. Nel convegno biennale dedicato al questo campo di ricerca e organizzato dalla University of California – Los Angeles (UCLA), 190 scienziati di tutto il mondo si sono confrontati sullo stato dell’arte delle ricerche di materia oscura. “Poiché la materia oscura costituisce la maggior parte della massa delle galassie ed è fondamentale nella formazione delle galassie e delle stelle, è essenziale per l’origine della vita nell’universo e sulla Terra”, spiega David Cline, professore di fisica alla UCLA, uno dei maggiori esperti mondiali in materia oscura e organizzatore del convegno. Gli scienziati, nel corso degli anni, hanno proposto diverse idee sulla possibile natura della materia oscura. Apparentemente messe da parte le teorie MOND e MACHO, oggi la maggior parte della comunità scientifica sembra pensare che la materia oscura si presenti in una forma nota come WIMP,  acronimo di Weakly Interacting Massive Particle, un’ipotetica particella massiva che interagisce con la materia solo attraverso la gravità e la forza nucleare debole. Al convegno sono state tuttavia discusse diverse altre ipotesi sulla composizione della materia oscura, come assionineutrini sterili. La massa probabile di una particella di materia oscura, comunque, spiega Clive,  si dovrebbe aggirare attorno ai 30 miliardi di elettronvolt. La speranza dei fisici è quella di riuscire in qualche modo a scovare il segno del passaggio di una di queste particelle, una reliquia della prima frazione di secondo dell’universo, che sfreccia a un milione di chilometri all’ora. Gli esperimenti mirati alla rilevazione di WIMP vengono fatti sia in orbita attorno alla Terra che nelle profondità del sottosuolo.  Il telescopio Fermi della NASA cerca per esempio i raggi gamma (particelle di luce ad altissima energia) provenienti dalla materia oscura. Esperimenti come quelli del Gran Sasso, invece, sono schermati sotto Terra da una grande quantità di materia, in modo da ridurre il segnale di background. La speranza in questo caso è riuscire a  rilevare l’interazione di una particella oscura che dopo aver attraversato la crosta terrestre senza troppi problemi colpisca un atomo dei rivelatori. Tutto il materiale sul convegno è disponibile sul sito dell’università. Nel 1998, proprio al convegno UCLA sulla materia oscura, due gruppi di scienziati presentarono le prove dell’accelerazione e dell’espansione dell’universo, quello che Cline descrive come “una delle più grandi scoperte nella storia della scienza”. La speranza degli organizzatori, c’è da scommetterlo, è che al prossimo convegno, fissato per il 2016, qualcuno se ne esca fuori anche con la soluzione finale all’enigma della materia oscura.
di Matteo De Giuli (INAF)

The DarkSide of the universe

Si apre un nuovo capitolo nell’accesa corsa all’individuazione della materia oscura, l’elusivo ‘ingrediente’ che, secondo le attuali teorie, costituirebbe il 20-25 per cento della massa totale dell’universo e che non è ancora stato identificato né caratterizzato. Gli scienziati per ora possono solo fare ipotesi e sperano che gli esperimenti più recenti possano finalmente dare indicazioni certe sulla natura della materia oscura. Qualche mese fa avevamo dato notizia dei primi risultati di LUX (Large Underground Xenon experiment), l’apparato installato nel cuore di una miniera d’oro nel Sud Dakota, Stati Uniti. Ad affiancarlo ora in questa avvincente caccia c’è anche DarkSide-50, un rivelatore recentemente entrato in funzione in una delle camere sotterranee dei Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare (INFN) in Abruzzo. Così come LUX, DarkSide-50 è stato progettato per individuare le sfuggenti WIMPS, particelle massicce debolmente interagenti con la materia ordinaria che sono tra le maggiori indiziate quali costituenti della materia oscura. E come il suo ‘collega’ oltreoceano, DarkSide è stato installato nelle viscere di una montagna per ridurre al minimo effetti spuri dovuti ai raggi cosmici. Il programma di ricerca vede un’ampia collaborazione internazionale, con 17 istituti americani, l’INFN  e altri centri in Italia, Francia, Polonia, Ucraina, Russia e Cina. “Viviamo un po’ la situazione della ricerca del Bosone di Higgs come era 10 anni fa” dice Peter Meyers, professore di fisica all’Università di Princeton e uno degli scienziati alla guida del progetto. “Abbiamo una buona idea di cosa cercare, ma non sappiamo esattamente dove o quando la troveremo”. “L’INFN ha contribuito in maniera determinante all’installazione dell’esperimento in quello che è uno dei suoi laboratori di eccellenza”, aggiunge Gioacchino Ranucci, Dirigente Tecnologo della sezione INFN di Milano, coinvolto nella gestione del progetto. “DarkSide-50 rappresenta un altro tassello della fattiva, pluriennale cooperazione Italia-USA al Gran Sasso, culminata in particolare nello sviluppo di tecniche di rivelazione di particelle a livelli di radiopurezza mai raggiunti in precedenza, ed ampiamente riutilizzate e potenziate nella costruzione dell’apparato”. Per riuscire nell’impresa è stato progettato un sistema composto da un rivelatore a doppio stadio grande all’incirca come una borsa per la spesa, contenente 38 litri di argon puro che è stato liquefatto raffreddandolo fino alla temperatura di meno 186 celsius. La parte attiva del rivelatore, avvolta in una struttura di Teflon, contiene 150 chilogrammi di argon (di cui 50 attivi, da qui il nome DarkSide-50). Nella parte superiore e inferiore del recipiente che accoglie il rivelatore sono state installati i fotorivelatori in grado di captare la luce prodotta dall’urto di una WIMPcon gli atomi ultrapuri di argon. Tutto il dispositivo è alloggiato all’interno di una sfera di acciaio delle dimensioni di una stanza e riempita con 30.000 litri di liquido scintillatore. A sua volta la sfera è sospesa tramite dei supporti all’interno di un grande serbatoio cilindrico alto 10 metri (più o meno una casa di tre piani) e con un diametro di 11 riempito con un milione di litri di acqua depurata. Questa complessa architettura è stata pensata per ridurre al minimo tutte le interferenze nel rivelatore prodotte da fenomeni non riconducibili alle interazioni di WIMP, come particelle associate ai raggi cosmici, prodotte dalla radioattività naturale presente nelle rocce o addirittura nei materiali di cui è composto l’apparato stesso. Così, il segnale prodotto da una WIMP che impatta un nucleo di argon viene registrato solo dal rivelatore a doppio stadio di DarkSide-50 mentre altre particelle in transito nell’apparato, come ad esempio neutroni e muoni, possono interagire sia con l’argon che con il liquido scintillatore o l’acqua. Il controllo della coincidenza temporale con cui questi segnali verranno registrati nei vari ambienti dell’apparato permetterà agli scienziati di distinguere le WIMP dalle altre particelle. “Il progetto è innovativo in tutte le sue componenti” sottolinea Cristiano Galbiati, professore all’Università di Princeton. “Il nostro obiettivo è dimostrare che l’argon da sorgenti sotterranee è l’elemento migliore per la caccia alla materia oscura. Grazie al supporto di INFN, NSF e DOE DarkSide è il primo esperimento a fare uso di un veto per neutroni”.
di Marco Galliani (INAF)

Misurato il cosmo con l’1% di errore: è piatto

«Non sono tante le cose della vita di tutti i giorni che conosciamo con un margine d’errore dell’uno percento. Ebbene, da oggi posso dire di conoscere le dimensioni dell’universo meglio di quelle di casa mia», annuncia David Schlegel, fisico del Lawrence Berkeley National Laboratory e principal investigator della collaborazione BOSS (Baryon Oscillation Spectroscopic Survey), una campagna osservativa di proporzioni enormi che ha già analizzato gli spettri di oltre un milione di galassie remote.
«Mai s’era raggiunta una precisione simile nella misurazione della scala dell’universo. Vent’anni fa gli astronomi discutevano fra loro basandosi su stime che differivano l’una dall’altra fino al cinquanta percento. Cinque anni fa eravamo arrivati a ridurre il margine d’incertezza al cinque percento. Un anno fa eravamo scesi al due percento. Una precisione dell’uno percento, come quella ottenuta oggi, è uno standard destinato a reggere a lungo».
Questa prestazione da record è stata raggiunta analizzando, con il telescopio della Sloan Foundation, gli spettri di luce di oltre un milione di galassie – 1.277.503, a voler essere precisi – distribuite su 8509 gradi quadratidi cielo e con redshift compreso fra 0.2 e 0.7, dunque spingendosi indietro nel tempo fino a oltre sei miliardi di anni nel passato dell’universo. «Le misure di redshift di galassie presenti nel database di BOSS», osserva Schlegel, «sono probabilmente più di quelle raccolte da tutti gli altri telescopi nel mondo».
Misurare posizione e distanza delle galassie, e dunque la loro distribuzione in uno spazio a tre dimensioni, con tale precisione è, per gli astrofisici, una sfida cruciale. «Vedi qualcosa in cielo e subito ti domandi: ma quant’è distante? Una volta che riesci a determinarlo», spiega il direttore della Sloan Digital Sky Survey, Daniel Eisenstein, «scoprire il resto diventa di colpo molto più facile».
La mappa tridimensionale ricostruita grazie a BOSS consente, per esempio, di risalire con estrema precisione all’ampiezza delle cosiddette BAO (baryon acoustic oscillations), le fluttuazioni impresse sui barioni dalle onde acustiche dell’universo primordiale. Fluttuazioni di cui ancora oggi si conservano le tracce nella radiazione del fondo cosmico a microonde e nella distribuzione, appunto, di galassie e ammassi di galassie.
Non solo: la mappa 3D di BOSS è per gli scienziati uno strumento ottimale per misurare la curvatura dell’universo. E dai dati raccolti pare proprio che la curva, se mai c’è, sia davvero impercettibile. Insomma, tutto sembra confermare che viviamo in un universo piatto, in senso euclideo: un universo in cui le rette parallele corrono senz’incontrarsi mai e sommando gli angoli dei triangoli s’ottiene sempre 180 gradi.
Infine, grazie ai risultati delle misure effettuate da BOSS è ora possibile delineare un po’ meglio le caratteristiche di alcune entità ancora avvolte nella nebbia più fitta, come l’energia oscura, che stando ai risultati di BOSS sembrerebbe non variare proprio mai. Media INAF ne ha parlato con una delle scienziate della collaborazione, la cosmologa italiana Licia Verde.
Professoressa Verde, la misura di BOSS aiuta a fare un po’ di luce sull’energia oscura. Dai risultati che avete ottenuto cosa se ne deduce? Varia o è costante? Ed è la costante cosmologica di Einstein o qualcosa d’altro?
«Einstein inventò a suo tempo la costante cosmologica, quando ancora nemmeno si sapeva che l’universo è in espansione, quando “big bang” apparteneva più ai fumetti che alla scienza. Dopo più di mezzo secolo la costante cosmologica fu resuscitata per spiegare l’espansione accelerata dell’universo. Ma una costante cosmologica è un (bel) po’ scomoda: una volta che comincia a far accelerare l’universo, nessuno la ferma più, e separa rapidamente le galassie l’una dall’altra di modo che si perdano di vista. Allora perché vediamo sia gli effetti della costante cosmologica, sia tante altre galassie? Non solo: i fisici teorici che studiano le proprietà dello spazio-tempo e del vuoto ci dicono che la costante cosmologica dovrebbe essere dieci elevato a un numero grande di volte più grande di quel che appare. Ora, siccome la caratteristica distintiva della costante cosmologica è che è, appunto, costante, dovrebbe avere sempre lo stesso valore nel tempo e nello spazio. Quindi è aperta la “caccia” a indizi per vedere se c’è qualche segno che non sia proprio costante.
Le misure come quelle di BOSS aiutano a ricostruire con precisione la storia dell’espansione dell’universo, che ovviamente non è la stessa per una costante cosmologica o per qualche cosa come una “in-costante” cosmologica. Nonostante queste misure sempre più precise, quel 70% dell’universo [che non è materia e che attribuiamo all’energia oscura, ndr] non mostra variazioni, insomma sembra proprio costante. Il punto fondamentale è: magari non è una costante ma varia cosi poco che ancora non lo possiamo misurare? O è proprio una costante e il fatto che la troviamo “scomoda” significa che la fisica sta cercando di dirci qualche cosa… che ancora non capiamo? È proprio un mistero. Qualunque cosa sia, le misure, come quelle di BOSS, sempre più precise, sono gli strumenti indispensabili per cercare di risolvere il mistero».
A proposito di distanze: nella lista d’autrici e autori dell’articolo che avete sottoposto a Monthly Notices of the Royal Astronomical Society (vedi qui sotto) s’incontrano nomi decisamente italiani, ma tutti di persone attualmente all’estero. C’è, per esempio, Claudia Maraston in Inghilterra, Francesco Montesano in Germania, l’italo-argentina Claudia Scoccola a Madrid e lei, nata a Venezia e laureata a Padova, oggi docente all’Università di Barcellona. È un caso o vi siete messi d’accordo?
«Gli italiani tendono a essere buoni lavoratori e intraprendenti di carattere, una combinazione potente. No, non ci mettiamo d’accordo…  ma ci fa piacere incontrarci, molte volte inaspettatamente, oltre-confine. Per quanto ognuno segua una traiettoria distinta, abbiamo sempre molte cose in comune!»
di Marco Malaspina (INAF)

La nostra bolla nell’Universo

Uno dei risultati più sconvolgenti degli ultimi anni si riferisce sicuramente alla scoperta dell’accelerazione dell’espansione dell’Universo. E’ stato anche dato il Nobel per questo risultato, ottenuto attraverso l’osservazione delle supernove di tipo Ia nelle galassie abbastanza lontane (fuori dal nostro gruppo locale). Per spiegare questa evidenza sembra necessario introdurre l’energia oscura, un “qualcosa” che tenda a favorire un’espansione più netta di quella prevista dai modelli precedenti. E’ ovvio che la quantificazione di questo effetto si ripercuote sulla costante di Hubble (di cui abbiamo parlato spesso) e che determina la velocità di espansione dell’Universo (oltre che la sua stessa età). In realtà, la determinazione della costante di Hubble attraverso metodi diversi (ad esempio attraverso le osservazioni delle supernove o analizzando il rumore cosmico di fondo) porta a risultati abbastanza discordanti (un dieci per cento di differenza). Non voglio entrare nelle tecniche di determinazione, ma resta il fatto che l’imprecisione sembrerebbe un po’ troppo alta per essere dovuta solo a errori di misura. Ecco, allora che ha ripreso vigore un’ipotesi puramente “teorica” e non confermata da alcun tipo di osservazione: la bolla di Hubble.  Un’ipotesi non così strana come può sembrare a prima vista. L’Universo locale (quello osservabile) è considerato omogeneo, ma, in realtà sappiamo benissimo che non lo è. Basta guardare la distribuzione degli ammassi galattici. Tuttavia, nello Spazio non esistono solo le galassie, ma vi è gas intergalattico che può essere più o meno denso. Sebbene estremamente rarefatto, zone di densità maggiore o minore creerebbero forti variazioni di gravità su grande scala. E se noi fossimo all’interno di una vasta zona a bassa densità? Una vera e propria “bolla”? Cosa causerebbe questa zona relativamente vuota? Beh, sicuramente gli oggetti ai suoi confini verrebbero attratti violentemente dalle zone esterne a maggiore densità, causando una vera e propria fuga delle galassie esterne rispetto a noi. Questa azione gravitazionale “locale” si sommerebbe all’espansione vera e propria dell’Universo. L’ipotesi potrebbe risolvere l’apparente accelerazione dell’Universo senza dover chiedere aiuto all’energia oscura. La costante di Hubble, ottenuta con la radiazione cosmica di fondo si riferirebbe al valore medio dell’Universo, mentre quella ottenuta dalle supernove di tipo Ia si riferirebbe a un Universo “vicino”, gravitazionalmente accelerato. Recentemente, un gruppo di ricercatori di Heidelberg, tra cui alcuni italiani, ha simulato al computer una situazione che vede la nostra galassia al centro di una bolla sferica, i cui bordi vanno ben al di là del nostro gruppo locale. Il risultato spiegherebbe almeno un 25% della discordanza tra le due misure ottenute per la costante di Hubble. Non molto, in verità. Tuttavia, il modello si sta rifinendo, assumendo una forma non sferica e i ricercatori cercheranno di eliminare del tutto la differenza residua.  Una visione nuovamente geocentrica del Cosmo? Perché mai noi dovremmo essere in una posizione “diversa” dal resto dell’Universo locale? Sicuramente qualcosa che crea un senso di fastidio e di obsoleto. Tuttavia, vale anche una considerazione opposta: perché mai l’Universo dovrebbe essere perfettamente omogeneo e a densità costante? Insomma, una ricerca puramente teorica, ma non per questo meno interessante. Da un lato sarebbe una spiegazione che semplificherebbe la situazione, eliminando o quantomeno riducendo di molto l’importanza dell’energia oscura. Dall’altro, però, mi ricorda certi modelli numerici in cui a furia di cambiare un poco i vari parametri si poteva ottenere ciò che si voleva. Mah… staremo a vedere. Resta, comunque, un fatto importante: se tutti i vari arrangiamenti al modello e alle simulazioni al computer saranno fatti con “giudizio”  e  si ottenesse ancora una discordanza importante, la necessità di un entità sconosciuta (energia oscura) sarebbe praticamente accertata.
di Vincenzo Zappalà (Astronomia.com)

La materia oscura abita in centro

Per capire cosa sia davvero la materia oscura, bisogna prima appurare come si comporta e dove si nasconde. E gli astronomi hanno capito da tempo che un ottimo laboratorio naturale per studiare il comportamento della materia oscura sono le cosiddette galassie nane: galassie fatte di pochi miliardi di stelle il cui contenuto di materia oscura è, a quanto pare, fino a 1000 volte più del contenuto di materia ordinaria. Nelle galassie normali come la Via Lattea, per capirci, il rapporto è di appena 10:1. Da vent’anni però astronomi e cosmologi discutono su come sia distribuita quella materia oscura dentro alle galassie: uniformemente o concentrata al centro? L’astronomia osservativa sembra propendere per la prima ipotesi, ma i teorici preferiscono la seconda. Nel dibattito si inserisce uno studio appena pubblicato su The Astrophysical Journal Letters, firmato da John Jardel e Karl Gebhardt dell’Università del Texas a Austin. I due hanno messo assieme osservazioni al telescopio di diverse galassie nane che orbitano attorno alla nostra Via Lattea (tra cui quella del Sestante, quella della Carena, quella dello Scultore e diverse altre), e simulazioni al computer che provavano a calcolare in base alle immagini la distribuzione della materia oscura in ognuna di esse. Nelle immagini, va da sé, la materia oscura non si vede, ma la sua presenza si può dedurre dagli effetti gravitazionali rilevati sugli oggetti che emettono radiazione. I due ricercatori hanno scoperto che, prese singolarmente, le galassie mostrano distribuzioni della materia oscura molto diverse: in alcune la densità di materia oscura diminuisce decisamente andando dal centro verso i margini. In altre rimane più costante. Ma una volta aggregati i dati e fatta una media su più galassie nane, emerge chiaramente che i teorici avevano ragione: la densità di materia oscura tende a scendere man mano che ci si allontana dal centro della galassia. Lo studio, ammette Jardel, crea nuove domande più che rispondere a quelle attuali: su cosa sia la materia oscura e come interagisca con quella ordinaria. I ricercatori sperano di poter effettuare nuove osservazioni più dettagliate delle galassie nane, dai loro nuclei alle regioni esterne.
di Nicola Nosengo (INAF)

Un altro indizio di materia oscura

Di scoperta, per ora, non se ne parla proprio. Quella annunciata dai ricercatori dell’esperimento CDMS-II (Cryiogenic Dark Matter Search), che cerca materia oscura grazie ai suoi rivelatori raffreddati quasi allo zero assoluto e posti sottoterra, in una ex miniera del Minnesota, è solo una possibile detection di una particella di materia oscura, e non è la prima. Già nel 2010 dallo stesso esperimento erano arrivati due eventi sospetti, che però si erano rivelati indistinguibili dal rumore di fondo. Perché il problema quando si studiano eventi così elusivi e rari – ammesso che esistano – è essere sicuri di non essere incappati in una fluttuazione casuale del rumore di fondo. che quel segnale anomalo non sia dovuto a una collisione tra particelle tradizionali che però, per qualche motivo, produce valori diversi dal solito. ecco, quella certezza non c’era tre anni fa e non c’è nemmeno adesso. In ogni caso, al meeting del 13 aprile della American Physical Society di Denver Kevin Mc Carthy e i suoi colleghi hanno illustrato tre eventi registrati dai loro rivelatori al silicio, con le caratteristiche che ci si potrebbe aspettare come conseguenza di collisioni tra particelle ordinarie e WIMPS (Weakly Interactive Massive Particles, le presunte particelle che dovrebbero comporre la materia oscura). Il semplice rumore di fondo avrebbe voluto non più di 0,7 eventi di quel tipo in quel set di dati. Lo studio è anche pubblicato su Arxiv. Nei termini usati dai fisici, siamo a un livello di confidenza statistica di 3 sigma, ben sotto i 5 richiesti per parlare di “scoperta”. Quello che è più interessante è che, se i dati raccolti da CDMS fossero “buoni”, indicherebbero una massa delle WIMP di 8,6 gigaelettronvolt, molto più bassa di quanto la maggior parte dei fisici si aspetta. Comunque vada è un piccolo ma importante passo verso la soluzione del mistero. La corsa alla scoperta della materia oscura resta apertissima, e vede in gara oltre a CDMS anche gli esperimenti LUX in South Dakota e gli esperimenti XENON e DAMA al Gran Sasso. E anche, lassù nello spazio agganciato a ISS, lo spettrometro AMS, che solo pochi giorni fa ha trovato i “suoi” indizi di materia oscura.
Redazione Media Inaf

Dietro le lenti oscure del cosmo: tutta la dark matter in una mappa

«Elementare, mio caro Watson», avrebbe forse esclamato Sherlock Holmes innanzi al procedimento seguito dal team del telescopio spaziale ESA Planck per ricostruire la mappa della materia più inafferrabile che si conosca: l’elusiva materia oscura. Solo che, mentre il detective londinese usava la sua inseparabile lente come strumento, per far emergere dalla scena del delitto microscopici indizi, i cosmologi di Planck hanno seguito il processo inverso: hanno usato gli indizi per far emergere la lente. Un processo, assicurano, tutt’altro che elementare. Ma che ha portato a un risultato straordinario: la mappatura completa, a tutto cielo e in tre dimensioni – le due spaziali della mappa e quella temporale – della distribuzione della materia oscura nello spazio e nel tempo.
Il fenomeno della lente gravitazionale è ben noto agli astronomi, che lo usano da tempo per sondare gli oggetti più distanti: il percorso della luce emessa da una galassia distante, per esempio, attraversando nel suo viaggio verso di noi zone ad alta densità di materia, subisce una deviazione, dando nei casi più fortunati origine a un ingrandimento. Ecco così che la microscopica galassia, assumendo forme distorte come quella — notissima — del cosiddetto “anello di Einstein”, viene amplificata al punto da diventare visibile.
Ora, queste “lenti naturali” sono costituite nella maggior parte dei casi da densi agglomerati di materia oscura: materia che, pur essendo a tutt’oggi non rilevabile direttamente, esercita la sua attrazione gravitazionale su tutto ciò che la circonda e la sfiora. Non solo sulla luce proveniente da singole galassie e ammassi di galassie, dunque, ma anche sui fotoni primordiali, quelli appunto catturati da Planck nel corso della sua missione per ricostruire l’immagine del cosmo a 380mila anni dal Big Bang.
Eccoci così al ragionamento “elementare” seguito dagli scienziati di Planck: se le lenti gravitazionali di materia oscura alterano il percorso della luce primordiale, confrontando le differenze fra l’immagine originale e quella giunta fino a noi – vale a dire, la mappa della CMB, la cosmic microwave background radiation raccolta da Planck – dovrebbe essere possibile ricostruire dove si trovano, quelle lenti, e quale forma hanno. E poiché quelle “lenti” sono per lo più addensamenti di materia oscura, la ricostruzione dovrebbe corrispondere alla mappa della materia oscura nell’intero cosmo.
Certo, c’è un problema: grazie a Planck abbiamo sì l’immagine a valle delle lenti, ma quella originaria? Ebbene, si può almeno in parte inferire statisticamente, osservando le anomalie nella conformazione di alcuni cold spot, i punti freddi presenti nella mappa stessa, rispetto alla loro forma tipica. Operazione tutt’altro che semplice, però, e soggetta a un inevitabile “rumore statistico”, come spiega Karim Benabed, dell’Istituto di Astrofisica di Parigi: «Isolare l’effetto digravitational lensing nella CMB è estremamente difficile, perché ciò che dobbiamo individuare è la deformazione di un segnale già di per sé assai poco strutturato. Siamo perciò costretti a far ricorso a metodi statistici, che ci consentono di individuare e sfruttare scostamenti minimali presenti nella forma della CMB per ricostruire il potenziale gravitazionale della struttura che ha causato queste distorsioni».
«È un po’ come cercare d’indovinare la conformazione del suolo, al di sotto a un terreno innevato, potendo osservare solo lo spesso strato di neve che lo copre. Parte di ciò che vedremmo sulla superficie bianca è conseguenza, in effetti, della conformazione del terreno o della presenza di pietre e altri oggetti al di sotto della neve. Tuttavia», mette in guardia Benabed, «potremmo anche notare altre caratteristiche causate da null’altro che dalla distribuzione non uniforme dello strato di neve stesso, e dedurne erroneamente che corrispondano a oggetti reali presenti al di sotto di esso».
Una mappa, dunque, da prendere con le molle, questa della distribuzione della materia oscura. Ma, in media, frutto di una ricostruzione assai accurata, garantiscono gli scienziati di Planck. E destinata a raggiungere gradi di accuratezza ancora maggiore una volta combinata con altre osservazioni, come sottolinea il project scientist di Planck Jan Tauber, dell’ESA: «La rilevazione del gravitational lensing della CMB su quasi tutto il cielo è un traguardo straordinario raggiunto da Planck: si tratta di un insieme di dati unico, che gli astronomi e i cosmologi studieranno per anni. In particolare, integrando i dati sul lensing gravitazionale ottenuto dalla CMB con quelli provenienti da sonde per lo studio di strutture a larga scala, come le survey di galassie, saremo in grado di approfondire la complessa relazione tra la distribuzione della materia oscura e di quella luminosa presenti nel nostro universo».
Ulteriori informazioni sono a disposizione sul sito INAF
di Marco Malaspina (INAF)

Il punto sulla materia oscura

Devo ammetterlo. Non pubblico molto sulla materia oscura e sulle osservazioni che sembrano confermarla. In realtà, vorrei qualche certezza in più. Spesso l’accettazione della sua esistenza assomiglia a un atto di fede un po’ simile a quello relativo al riscaldamento globale. E le cose che vengono imposte puzzano sempre di bruciato. Tuttavia, quando ci vuole ci vuole. Hubble & Co. hanno fornito “qualcosa” che sembra proprio una chiara evidenza.  Di Vincenzo Zappalà (Astronomia.com)
Se guardiamo l’Universo a grande scala possiamo dire che esso è formato da grandi strutture ricchissime di galassie (ammassi e super ammassi), legati tra loro da giganteschi filamenti di gas, galassie e … qualcos’altro. Infatti, questi filamenti sarebbero composti essenzialmente da materia oscura. Hubble ha proprio studiato e “osservato” uno di questi. La parola “osservato” sembra di per sé un’assurdità, dato che la materia oscura NON si può vedere. Tuttavia, in qualche modo potrebbe non nascondersi del tutto (un po’ come fanno i buchi neri che ormai si localizzano molto bene indirettamente).
Gli ammassi e i filamenti che li uniscono sembrano dare all’Universo l’apparenza di una rete informatica o -ancor meglio- di un sistema nervoso o sanguigno: un intrigo di fili (o nervi o flussi di informazione o vene e arterie) che, dove si incontrano, formano nodi o gangli o centri di smistamento, o qualcosa di simile. Questa struttura a larghissima scala era già presente nei primi istanti dopo il Big Bang e si nota anche nell’immagine del rumore di fondo cosmico. Una disomogenea distribuzione di massa che crea un sistema “nervoso” estremamente omogeneo e perfettamente interconnesso. Gli ammassi (gli organi, le stazioni di smistamento, i centri nervosi, gli amassi) utilizzano i filamenti come canali di spostamento di materia.
Il vero problema di questi filamenti, entità fondamentali dell’intera rete, è che sono praticamente invisibili. E invece dovrebbero contenere una massa enorme, probabilmente più della metà di quella dell’intero Universo. L’interesse di queste strutture sfuggenti ma decisive è la loro universalità. Ossia, si ripetono ovunque si guardi. Lo studio di una sola tra esse può, quindi, essere già una chiara indicazione della configurazione dell’intero Cosmo.
Come dicevo prima, l’idea di base è che essi siano composti essenzialmente da materia oscura. Come fare per capirlo? Detto fatto: basta osservarli attentamente. Ma… non possiamo, dato che non si vedono… Va bene, allora invece di osservarli direttamente non ci resta che pesarli e descrivere come varia la loro massa nello Spazio.
Hubble ne ha scelto uno veramente enorme: 60 milioni di anni luce di lunghezza. Niente male. E, con l’aiuto di fratelli terrestri, lo ha anche studiato in tre dimensioni, ossia non solo nella sua proiezione sulla sfera celeste, ma proprio come volume.
Il filamento si trova attorno al gigantesco ammasso galattico MACS J0717, già osservato ad alta risoluzione da Hubble. A lui si sono uniti il NAOJ’s Subaru e il telescopio franco-canadese delle Hawaii. Il Keck e il Gemini hanno contribuito per le osservazioni spettroscopiche e, quindi, per ricostruire una visione radiale, ossia diretta verso di noi. Veramente un insieme di “signori” della tecnologia più avanzata. Tuttavia, resta il problema di vedere ciò che non si potrebbe vedere. Per riuscire in questa “apparentemente” impossibile impresa servono alcuni ingredienti fondamentali:
1) Un ammasso di grandi dimensione, da cui solitamente partono i filamenti. MACS J0717 sembra l’oggetto più adatto.
2) Una sofisticata tecnica di analisi degli effetti “lente gravitazionale”. Se il filamento è composto essenzialmente di materia oscura, non si può vedere, ma si può sentire la sua massa dalla deformazione e dallo spostamento della luce che proviene da più lontano. Ciò permettere anche di calcolarne la distribuzione lungo la struttura.
3) Immagini ad altissima risoluzione. Per vedere gli effetti delle lenti gravitazionale bisogna avere degli occhiali molto speciali e perfetti. Hubble e compagni sono quanto la tecnologia offre di meglio sul mercato. Bisogna infatti scoprire deformazioni gravitazionali quasi impercettibili e sapere esattamente in che posizione si trovano. L’insieme di tutte le deformazioni deve soddifare, ovviamente, in un unico modello di filamento.
4) Una precisa misura della distanza, della forma e del movimento del filamento. L’unico modo è identificare galassie che siano contenute in esso. Ossia bisogna che la loro velocità e il loro colore sia quello giusto. La spettroscopia deve quindi essere la migliore in assoluto. I grandi telescopi usati garantiscono di distinguere migliaia di oggetti residenti all’interno del filamento.
Alla fine, si può costruire un modello che combini tutte queste informazioni e che permetta di costruire la forma e l’orientamento del filamento e, infine, descrivere la sua distribuzione di massa.
Il  risultato ottenuto è presto sintetizzato: il filamento osservato è veramente enorme, come già supposto, sfiorando 60 milioni di anni luce, ma è anche estremamente massiccio, più ancora del previsto. Se tutti fossero come lui (e la struttura generale dell’Universo sembra confermarlo) conterrebbero da soli più della metà della massa del Cosmo. Dato che più che vederli si intuiscono con i metodi di analisi prima descritti, non possono che essere composti da materia oscura. Punto e a capo!
Tutto risolto allora? Probabilmente sì… però mi permetto di indirizzare i lettori su un altro risultato altrettanto importante, pubblicato nel giugno di quest’anno (ero in vacanza e mi è scappato). Poi ne facciamo un confronto e tentiamo anche una riflessione.
Lo strumento base era Herschel che aveva scoperto e analizzato un filamento che univa due ammassi. Sembrava proprio un ponte che legava due enormi città cosmiche. Le sue dimensioni non erano così mostruose come quello di prima, ma sempre, comunque, pari a otto milioni di anni luce.
La ricerca mostrava come questo filamento fosse proprio un fiume dove scorreva materia ben visibile: galassie, stelle, gas. Questo fluire continuo permetteva di studiare come si ingrandivano gli ammassi e come si potevano unire formando super ammassi e via dicendo. Insomma, una struttura che mi sembra molto simile, in principio, a quella di cui abbiamo parlato prima.
Herschel ha trovato al suo interno centinaia di galassie e ha identificato una nascita stellare veramente impressionante, che solo i suoi occhiali X potevano vedere.  Infatti la polvere scura che risiede all’interno del filamento crea grosse difficoltà a una visione diretta nel visibile o giù di lì. Si è stimato che le galassie nel filamento formano almeno 1000 soli all’anno, contro l’unica che si forma nella Via Lattea. I ricercatori avevano concluso che le dimensioni relativamente ristrette del filamento possono contribuire ad attivare e incrementare la formazione stellare. Il poco spazio a disposizione favorisce gli urti tra le nubi e quindi la nascita di nuovi astri.
I filamenti sarebbero qualcosa di dinamico che serve per alimentare e/o svuotare ammassi. Canali di trasporto continuo che modificano continuamente l’aspetto dell’Universo. In questa particolare circolazione “sanguigna”, non si parla, comunque, di materia oscura.
Insomma, due strutture simili sono interpretate (a mio modo di vedere) in modi diversi, anche se mantengono le caratteristiche di base: filamenti che uniscono centri nevralgici e che trasportano materia. Mi chiedo: e se la materia oscura del primo filamento fosse in realtà composta da materia ancora invisibile ai grandi telescopi come Hubble e i suoi amici giganti terrestri?
Sembra impossibile che non si sia cercato di investigarlo anche nell’X o almeno sollevare il dubbio che la polvere possa nascondere qualcosa di ben più normale. Probabilmente sono io che fraintendo.
Tuttavia, le due ricerche sembrano quasi seguire due linee di pensiero e partire, entrambe,  con una ben chiara idea del risultato che si vuole ottenere. In altre parole, due modi differenti di vedere e studiare la stessa cosa. A me sembra che manchi un po’ di collegamento tra le ricerche, proprio quello che invece assicurano i filamenti studiati!
Sicuramente mi sbaglio e vedo le cose in modo troppo semplicistico. Non so… voi che ne dite? Aiutatemi, senza però inventarvi teorie strambe e fantascientifiche: vi sono già abbastanza problemi con quelle che conosciamo!

Voci precedenti più vecchie