La furia della natura: fulmini, tempeste di polvere e cicloni

Nell’articolo “Furia della Natura” pubblicato sull’ultimo numero de Le Stelle (pag.40) si parla delle violente condizioni climatiche di certi pianeti del Sistema Solare. Condizioni veramente estreme che fanno impallidire anche i fenomeni meteorologici più terrificanti e distruttivi del nostro pianeta.
Cominciamo da Marte, da molto tempo ben noto per il suo clima ostile. Quando il Mariner 9 arrivò in orbita marziana nel 1971 si era appena scatenata una violentissima tempesta globale di polvere che aveva oscurato praticamente tutto il pianeta. Dalle nuvole di polveri emergeva solo una serie di picchi montuosi, tra cui il vulcano Olympus, la massima montagna del Sistema Solare con la sua altezza di ben 27 Km. Queste tempeste di sabbia sono comunque relativamente rare: dal 1956 ne sono state registrate solo 8 e la più recente risale al 2007.
Sono le tempeste di polvere minore che regolano il clima su Marte. Mulinelli di polvere (dust devils) o tracce di essi sono presenti quasi dappertutto su Marte. Sono state individuate circa 11500 dust devils attivi. Alcuni di questi vortici di polvere possono essere larghi più di due chilometri e raggiungere l’altezza del Monte Everest. I venti che muovono questi “mostri”  possono raggiungere i 350 Km/h.
E veniamo a Saturno I fulmini sono presenti un po’ ovunque nel Sistema Solare. Tutti i pianeti maggiori dotati di atmosfera (escluso quindi Mercurio) mostrano evidenza di queste scariche elettriche. Ma in nessun luogo i fulmini sono violenti come su Saturno. I super fulmini del Signore degli Anelli devono essere almeno un milione di volte più energetici di quelli terrestri.
Sulla Terra ci sono cicloni devastanti che possono imperversare per settimane. I temporali saturi di scariche elettriche su Saturno possono durare mesi. Ma in quanto a longevità, la Grande Macchia Rossa di Giove non ha paragoni. A partire dal 1878 il grande ciclone è stato registrato con continuità. La GRS (Grande Macchia Rossa) quindi dovrebbe esistere come minimo da 134 anni ma non è escluso che la sua età arrivi a 347 anni.
A parte comunque la sua vera età, la GRS è veramente impressionante. Si tratta di un sistema anticiclonico che si eleva per 8 chilometri sopra la sommità delle nubi circostanti. Attorno al grande vortice i venti soffiano a 650 Km/h.
Sia Marte, sia Saturno che Giove hanno condizioni climatiche caratterizzate da una moltitudine di colossali dust devils, super temporali  di inaudite proporzioni e un terribile ciclone di colorazione rossa  che potrebbe non esaurirsi mai.
Titano, il maggiore satellite di Saturno, è soggetto a condizioni climatiche simili a quelle della fascia tropicale terrestre (tranne che per gli uragani) inclusi leggeri venti e occasionali scrosci di metano. Nell’atmosfera i venti soffiano a 350 Km/h nella stessa direzione della rotazione. Siccome il corpo solido di Titano ruota a poco più di 40 Km/h questo tipo di circolazione ventosa fa si che l’atmosfera presenti una super rotazione nel senso che fa un giro completo del satellite in 1,9 giorni ossia con un periodo che è circa 1/10 di quello sincrono di Titano attorno a Saturno. Questo comportamento estremo dell’atmosfera è stato riscontrato anche su Venere, altro corpo solido a rotazione lenta. L’atmosfera di Venere ruota in 4 giorni mentre il pianeta ruota in 243 giorni.
Tratto da Furia della natura Le Stelle 12/2012 pag.40

Per l’agenda: appuntamento con Giove il 3 dicembre

Il 3 dicembre il gigante gassoso si trova all’opposizione (configurazione planetaria di un corpo del sistema solare che dista dal Sole, rispetto alla Terra, di un angolo di 180° o di 12 ore in ascensione retta).. La sua posizione sulla volta celeste è a 180° dal Sole, condizione che lo rende osservabile per tutta la durata della notte. Individuarlo è semplicissimo: fino al sorgere di Venere (circa due ore prima dell’alba) è l’astro più brillante del cielo notturno. Giove appare ad oriente al calare dell’oscurità , culmina a sud nelle ore centrali della notte e tramonta quando il cielo è già chiaro per le prime luci dell’alba. Giove si trova nella costellazione del Toro, dove rimane per tutto il mese.

Ghiaccio sul pianeta del fuoco

Mentre gli occhi di tutto il mondo sono puntati su Marte e su Curiosity (ma proprio ieri la NASA ha smorzato gli entusiasmi su presunti annunci di portata storica), è un altro pianeta del sistema solare a riservare una sorpresa. Gli scienziati hanno confermato la presenza di acqua in forma di ghiaccio su Mercurio, che a questo punto potrebbe anche ospitare molecole organiche (quella a base di carbonio, le stesse che si pensava Curiosity avesse trovato su Marte). La scoperta viene da un lavoro congiunto della NASA, MIT e dell’Università della California: i ricercatori hanno trovato la prova che il piccolo, timido e caldo pianeta, con temperature superficiali che vanno oltre i 400 ° C, nasconde riserve di ghiaccio in alcune zone d’ombra del polo nord. Tutto questo grazie alla sonda Messenger.
Non è una sopresa totale. Le prime speculazioni sulla presenza di ghiaccio su Mercurio risalgono agli anni Novanta, quando osservazioni radar avevano rivelato zone più brillanti nei pressi dei poli del pianeta. Ma mancavano prove certe, arrivate invece grazie alla mappatura completa del pianeta eseguita dall’altimetro laser e dagli strumenti all’infrarosso della sonda Messenger, in orbita attorno a Mercurio dall’aprile 2011.
In questo modo hanno confermato, in alcuni crateri vicono al polo nord che rimangono permanentemente in ombra, la presenza di ghiaccio stabile sulla superficie; e altre zone, poco più a sud, che appaiono leggermente più scure perché il ghiaccio è stabile sotto la superficie, a profondità fino al metro.
«Pensavamo che la scoperta di ghiaccio potesse essere la scoperta più interessante – ha detto Maria Zuber del MIT – ma la scoperta di  materiale più scuro, isolante, che potrebbe nascondere molecole organiche rende il tutto ancora più eccitante». Il modo in cui le zone più scure riflettono la luce è infatti compatibile con la presenza di semplici molecole organiche contenenti carbonio. Tanto l’acqua quanto queste molecole sarebbero arrivate su Mercurio a causa dell’impatto di asteroidi e comete.
I ricercatori ritengono che anche il polo sud abbia il ghiaccio, ma l’orbita di Messenger non ha ancora permesso agli scienziati di ottenere informazioni approfondite su quella regione.
Gli studi proseguiranno almeno per altri due o tre anni: tra il 2014 e il 2015, la sonda terminerà il carburante a sua disposizione, e sarà attratta dalla forza di gravità di Mercurio.
La scoperta è stata pubblicata in tre studi su Science, a firma dei gruppi coordinati dai ricercatori americani Gregory Neumann, del Goddard Space Flight Center della Nasa, David Lawrence, della Johns Hopkins University, e David Paige, dell’università della California a Los Angeles.
di Eleonora Ferroni (INAF)

Il cielo a dicembre: ecco Orione, i Cani celesti, il Toro e i Gemelli

Ecco il cielo nel mese di dicembre 2012; Cominciamo dal Sole che giorno il 18 passa dalla costellazione dell’Ofiuco a quella del Sagittario.  Contrariamente a quanto comunemente ritenuto, non è Santa Lucia (il 13) il giorno più corto dell’anno. In realtà in prossimità del 13 dicembre si verifica il periodo in cui il Sole tramonta più presto: per le prime due settimane di dicembre l’orario del tramonto si mantiene quasi costante, tra le 16.41 e le 16.42. Il giorno più breve dell’anno in realtà coincide con il giorno del solstizio e inizio dell’inverno, che quest’anno cade il 21 dicembre. Il giorno 21 il Sole tramonta un po’ più tardi, circa 3 minuti dopo, alle 16.44, ma anche il suo sorgere è ritardato di alcuni minuti, avendo luogo alle 7.37 (il 13 dicembre sorge alle 7.31): in definitiva, il Sole resta sopra l’orizzonte circa 3 minuti in meno rispetto al giorno 13. Quindi in effetti il giorno più corto dell’anno è di norma il 21 dicembre.

Osservazione dei pianeti

Mercurio: il mese inizia con il periodo di migliore osservabilità mattutina per l’anno in corso. In particolare il 4 dicembre Mercurio sorge 1 ora e 48 minuti prima del Sole e raggiunge la massima elongazione mattutina, con una distanza angolare dal Sole di 20° 33’. Prima dell’alba è possibile individuarlo sull’orizzonte orientale: è l’astro più basso di un interessante allineamento che comprende Venere, Saturno e la stella Spica. Nelle settimane successive l’altezza di Mercurio sull’orizzonte diminuisce sensibilmente. Alla fine dell’anno sarà quasi impossibile distinguerlo tra le luci dell’alba.

Venere: il pianeta è ancora l’astro più luminoso del cielo nella parte finale della notte, ma nel corso del mese il tempo a disposizione per osservarlo prima del sorgere del Sole si riduce a meno di due ore. Ormai Venere è di poco più alto sull’orizzonte rispetto a Mercurio. Venere attraversa per intero la costellazione della Bilancia. In appena 4 giorni, dal 18 al 22 dicembre, attraversa la parte superiore della costellazione dello Scorpione e termina il 2012 nell’Ofiuco.

Marte: per descrivere l’osservabilità di Marte si potrebbe anche ricorrere al classico “niente di nuovo dal fronte occidentale”. Come ormai da diversi mesi, in una situazione estremamente monotona, il pianeta dopo il tramonto del Sole si trova ad una decina di gradi di altezza sull’orizzonte di Sud-Ovest. E’ quindi difficile individuarlo così basso in cielo al calare dell’oscurità. Marte si trova nel Sagittario, ma il giorno di Natale, il 25, fa il suo ingresso nel Capricorno.

Giove: il 3 dicembre il pianeta gigante si trova all’opposizione. La sua posizione sulla volta celeste è a 180° dal Sole. Pertanto al tramonto del Sole Giove sorge e rimane osservabile per tutta la notte. Individuarlo è semplicissimo: fino al sorgere di Venere (circa due ore prima dell’alba) è l’astro più brillante del cielo notturno. Giove appare ad oriente al calare dell’oscurità , culmina a Sud nelle ore centrali della notte e tramonta quando il cielo è già chiaro per le prime luci dell’alba. Giove si trova nella costellazione del Toro, dove rimane per tutto il mese.

Saturno: nel corso del mese l’intervallo di osservabilità del pianeta cresce sensibilmente. Il suo sorgere anticipa giorno dopo giorno e alla fine dell’anno è possibile seguirlo nelle ultime ore della notte a Sud-Est. Va segnalato un evento significativo: Saturno il 6 dicembre fa il suo ingresso nella costellazione della Bilancia. Termina così il lungo transito nella Vergine: per attraversare tutta la costellazione Saturno ha impiegato più di 3 anni: vi aveva infatti fatto il suo ingresso nel settembre del 2009.

Urano: al tramonto del Sole è prossimo alla culminazione, alto nel cielo meridionale. L’intervallo di osservabilità si sta riducendo, tuttavia è ancora osservabile nel corso della prima metà della notte. Urano è nella costellazione dei Pesci, costellazione che lo ospita dal 2009. La luminosità di Urano è al limite della visibilità occhio nudo e per poterlo osservare è necessario l’uso di un telescopio.

Nettuno: le ore a disposizione per l’osservazione del pianeta diminuiscono ulteriormente. Nelle prime ore di oscurità Nettuno si trova non molto alto sull’orizzonte Sud –Ovest e ben presto si avvia al tramonto. Per la sua ridotta luminosità, per riconoscere Nettuno è indispensabile l’ausilio di un telescopio. Nettuno si trova ancora nella costellazione dell’Acquario, dove è destinato a rimanere molto a lungo, fino all’anno 2022.

Plutone è ormai inosservabile. Alla fine dell’anno raggiunge il Sole, con cui si trova in congiunzione il giorno 30 dicembre. Plutone si trova ancora nella parte alta della costellazione del Sagittario, costellazione in cui è destinato a rimanere ancora ben 11 anni, fino al 2023.

Congiunzioni

Luna – Saturno : prima dell’alba del giorno 10 la falce di Luna calante sorge insieme a Saturno. Prima del sorgere del Sole c’è tempo per osservare anche Venere e Mercurio. Saturno e la Luna sono vicini al limite tra le costellazioni della Vergine e della Bilancia. (vedi mappa)

Luna – Venere : il giorno 11 si ripropone il corteo di corpi celesti del sistema solare. Rispetto al giorno precedente la falce di Luna è ancora più sottile e si trova in congiunzione con Venere, nella costellazione della Bilancia. Più in alto si riconosce Saturno mentre in basso, poco sopra l’orizzonte, si può tentare di individuare Mercurio.

Luna – Marte: il paragrafo “osserviamo il falcetto di Luna crescente” segnala la data del 14 come la prima utile per tentare di percepire la Luna ad appena 31 ore dalla Luna Nuova. Tra le luci del crepuscolo serale si trova anche il pianeta Marte. I due astri si trovano nella costellazione del Sagittario.

Luna – Pleiadi : un incontro natalizio. Nella notte tra il 24 ed il 25 dicembre la Luna attraversa una parte della costellazione del Toro avvicinandosi alle Pleiadi. Nella stessa costellazione brillano la stella Aldebaran e il pianeta Giove.

Luna – Giove: la sera del 25 dicembre la costellazione del Toro presenta ancora una notevole concentrazione di astri luminosi. La Luna è quasi piena, ha ormai superato le Pleiadi e transita tra Aldebaran e Giove.

Le costellazioni

Con l’arrivo dell’ inverno entriamo definitivamente nel periodo di migliore osservabilità delle grandi costellazioni che caratterizzeranno i prossimi mesi. Le costellazioni autunnali, povere di stelle brillanti e non sempre facilmente identificabili dal neofita – Capricorno, Acquario, Pesci – si avviano al tramonto nel cielo di Sud – Ovest, sostituite a Sud – Est dall’inconfondibile costellazione di Orione, accompagnata dal Cane Maggiore con la fulgida Sirio, dal Toro, dai Gemelli. In queste costellazioni possiamo individuare alcune delle stelle più luminose dell’intera volta celeste; oltre alla già citata Sirio, ricordiamo la rossa Aldebaran nel Toro, Castore e Polluce nei Gemelli, Procione nel Cane Minore, Capella nell’Auriga. Orione, la più bella costellazione invernale, è caratterizzata dalle tre stelle allineate della cintura e dai luminosi astri Betelgeuse, Rigel, Bellatrix e Saiph che ne disegnano il contorno. Con piccoli strumenti (è sufficiente anche un buon binocolo) non è difficile individuare la celeberrima nebulosa (M 42), situata nella spada, poco al di sotto della cintura. Per alcune ore dopo il tramonto è ancora possibile osservare a Ovest alcune costellazioni che abbiamo potuto seguire per il periodo autunnale: il grande quadrilatero di Pegaso, Andromeda con l’omonima Galassia, Perseo, la minuscola costellazione  del Triangolo, accanto all’altrettanto piccola costellazione zodiacale dell’Ariete. Dalla parte opposta del cielo, in tarda serata si potrà assistere al sorgere del Cancro e, successivamente, del Leone.A Nord le costellazioni circumpolari compongono un cerchio ideale intorno all’Orsa Minore, con all’estremità la Stella Polare: in senso antiorario incontriamo Cassiopea, Cefeo, il Dragone, l’Orsa Maggiore, la Giraffa
Unione Astrofili Italiani (UAI)

Sorpresa: nella galassia NGC 1277 un buco nero con una massa di 17 miliardi di soli

Un gruppo di astronomi guidato da Remco van den Bosch, del Max Planck Institute for Astronomy (MPIA) ha scoperto un buco nero che potrebbe scuotere le fondamenta degli attuali modelli sull’evoluzione delle galassie.  La sua massa è di 17 miliardi di soli, molto più grande rispetto a quanto prevedono i modelli teorici previsti – in particolare perché la galassia in cui si trova è relativamente piccola.
Per quanto ne sappiamo, quasi ogni galassia dovrebbe contenere nella sua parte centrale quello un buco nero supermassiccio, con una massa che può andare da centinaia di migliaia a milardi di volte il nostro Sole.  Infatti, il buco nero meglio studiato fino ad ora è quello al centro della nostra galassia, la Via Lattea, con una massa di circa quattro milioni di Soli.
Quanto alle masse delle galassie e dei loro buchi neri centrali, i ricercatori hanno notato da tempo una tendenza  interessante: sembra esserci un rapporto diretto tra la massa del buco nero al centro di una galassia e quella delle stelle della galassia stessa.
In genere, la massa del buco nero è solo una piccola frazione della massa totale della galassia. Ma ora una ricerca guidata da Remco van den Bosch (MPIA) ha scoperto un enorme buco nero che potrebbe sconvolgere il rapporto, ormai accettato, tra massa del buco nero e massa della galassia, che svolge un ruolo fondamentale in tutte le attuali teorie sull’evoluzione delle galassie. Gli osservatori si sono avvalsi del  telescopio Hobby-Eberly e hanno utilizzato immagini esistenti del telescopio spaziale Hubble.
Con una massa 17 miliardi di masse solari, al centro del disco della galassia NGC 1277, il buco nero appena scoperto potrebbe anche essere il più grande mai conosciuto di tutti i tempi: infatti la massa del detentore del record corrente è stata stimata con un grande margine di incertezza, tra i 6 e i 37 miliardi di masse solari. Nella peggiore delle ipotesi, NGC 1277 ospita il secondo più grande buco nero  conosciuto.
Ma la più grande sorpresa è che la massa del buco nero è pari al 14% della massa totale della galassia, una bella differenza rispetto ai normali valori che si aggirano intorno allo 0,1%.  Gli astronomi si sarebbero aspettati un buco nero di queste dimensioni all’interno di una galassia ellittica dieci volte più grande. Invece, questo buco nero, si trova all’interno di una galassia a disco piuttosto piccola.
Questo bizzarro buco nero è solo un accidente, un eccezione? Probabilmente no. Infatti, vi sono analisi preliminari di altre cinque galassie relativamente piccole che, secondo le prime stime sembrano ospitare buchi neri insolitamente grandi . Per avere delle conclusioni definitive si dovranno attendere immagini più dettagliate di queste galassie.
Se gli studi supplementari saranno confermati, e ci saranno buchi neri come questo, gli astronomi dovranno ripensare i loro modelli fondamentali sull’evoluzione delle galassie. In particolare, avranno bisogno di riguardare l’universo primordiale: La galassia che ospita il nuovo buco nero sembra essersi formata più di 8 miliardi di anni fa, e non sembra essere cambiata molto da allora. Qualunque cosa abbia creato questo enorme buco nero deve essere successa tanto tempo fa.
di Antonio Marro (INAF)

Vita su Marte: l’entusiasmo sfida le prove

Curiosity ha fatto l’uovo? Ne ha trovato uno su Marte? Per ora sembra proprio di no: si parla, con giusta cautela, di “molecole organiche, non biologiche”. In soldoni, la stessa differenza che passa tra il metano e l’emoglobina. Ne sapremo di più tra poco, quando la NASA farà il suo annuncio ufficiale negli USA. (Sarebbe stato ben strano che un politico attento come Charles Elachi, direttore del prestigioso JPL californiano, fosse venuto in Italia ad annunciare la scoperta della vita su Marte…). No, per ora non è la vita su Marte. Vedremo settimana prossima, e speriamo che sia la volta buona.
Di molecole organiche, anche molto più complesse del metano, è pieno l’ambiente interplanetario. Sono molecole che dallo spazio ci cadono sulla testa a bordo di polveri cosmiche, di comete e di meteoriti, tutti oggetti che, globalmente arrivano sulla Terra all’impressionante ritmo di 40.000 tonnellate all’anno. Riceviamo regolarmente, per esempio, tutta quella ventina di aminoacidi dei quali siamo fatti noi, ovvero i mattoni della vita. Che ci siano molecole organiche su Marte, quindi, proprio non è una grossa scoperta: i meteoriti cadono anche su Marte. Ricordiamo che qualche anno fa un gruppo di scienziati italiani, guidati da Vittorio Formisano, scoprì tracce proprio di metano nella atmosfera marziana: poteva essere lo sbuffo di un vulcano ma anche, magari, una colonia di batteri… Neanche allora, e la tentazione fu grossa, annunciammo la scoperta (anche se indiretta) di vita su Marte.
La NASA, diciamolo tra noi, è più incline a cadere in simili tentazioni. Spettacolare, anche se già un po’ dimenticata, quella del “verme” sul sasso marziano del 1996. Si trattava di un meteorite partito da Marte in seguito ad un impatto sul pianeta rosso, arrivato sulla Terra (da solo, senza l’aiuto della NASA) e infine ritrovato in Antartide. Guardandolo con un potente microscopio, scienziati della NASA ci videro una “cosina” di millesimi di millimetro, che sembrava proprio un piccolo verme. Lo pubblicarono su Science, la più prestigiosa rivista scientifica americana, con impact factor stellare. Grande annuncio con fanfare del presidente Clinton che disse: “Oggi questa roccia ci parla da milioni di miglia, e ci parla della possibilità di vita…”. Poetico, ma falso: la roccia stava zitta e il “verme” era una concrezione minerale. Ma ci volle un po’ a capirlo. Nel frattempo, la NASA aveva avuto un grosso aumento: certo per un caso, l’annuncio era stato fatto al momento della presentazione del budget davanti al Congresso.
Esattamente due anni fa, il 29 novembre 2010, altro annuncio spettacolare di astrobiologi della NASA: scoperta, addirittura sulla Terra, la vita aliena, la vita 2.0! Alcuni batteri, raccolti in un lago della California con acque ricchissime di arsenico, sembravano aver sostituito, nella loro chimica, il fosforo con l’arsenico. Davvero alieni: come insegna Madame Bovary, per la normale vita 1.0 (cioè per tutti noi e per tutto ciò che di vivo si conosce sulla Terra), l’arsenico è un potente veleno. Anche qui, fanfara e pubblicazione, sempre su Science. Poco dopo, con molta onestà, la smentita: oops, sì, l’arsenico in giro c’è, ma i batteri non lo mangiano, se ne guardano bene: è come se nuotassero con la bocca chiusa…Non si hanno, in questo caso, dati sulle variazioni del budget NASA.
Ma Curiosity è una macchina fantastica e potrebbe aver fatto l’uovo davvero, stavolta. Noi tifiamo per la NASA, ma un po’ ci verrebbe da gufare. Perché ci aspettiamo la grande scoperta (della vita su Marte, voglio dire) dalla missione europea EXOMARS, appena confermata dalla Agenzia Spaziale Europea ed ora in costruzione proprio a Torino. Nel 2016-2018 atterrerà su Marte (magari vicino a Curiosity), sarà capace di scavare fino a due metri di profondità, e lì, al calduccio, cercare la vita. Che strano: se la trovasse, come in fondo tutti ci aspettiamo, ci sembrerebbe normale, ma allo stesso tempo, sarebbe la più grande scoperta del millennio, se non della storia dell’uomo.
Il presidente dell’INAF Giovanni Bignami

Mezza stagione su Titano

Ci sono le stagioni, e c’è una circolazione complessa dell’atmosfera che per alcuni versi ricorda in forma semplificata quella osservata sulla Terra. C’è sempre qualcosa di interessante da scoprire su Titano, la principale luna di Saturno, che è di nuovo protagonista delle pagine di Nature grazie ai dati raccolti dalla sonda Cassini e analizzati, questa volta, da Nicolas Teanby e colleghi.
I ricercatori hanno utilizzato lo spettrometro a bordo della sonda per misurare i movimenti di alcune specie chimiche particolarmente stabili (molecole aromatiche come metano e propano, in particolare) con tempi di vita lunghi, che per questo possono essere usate come traccianti per seguire i movimenti dell’atmosfera. Un po’ come quando si mette un colorante nell’acqua per seguirne il percorso lungo una rete di tubature.
“L’atmosfera di Titano è molto densa e ricca di aerosol” spiega Alberto Adriani dello INAF-IAPS (Istituto di Astrofisica e Planetologia Spaziali), membro del team di Cassini. “Si era visto in passato che la concentrazione di particelle che compongono gli aerosol aveva un doppio strato, per cui andando verso l’alto dalla superficie prima diminuiva, e poi tornava ad aumentare”.
A un’altezza tra i 450 e i 500 kilometri c’è infatti uno strato di aerosol che sembra separato da quello principale. Secondo i dati di Teanby e colleghi, questo è dovuto ai fenomeni di circolazione dell’atmosfera intermedia, circolazione che appare come un fenomeno globale esteso fino ad un’altitudine di 600 kilometri almeno.
L’articolo in particolare mostra come la circolazione atmosferica di Titano cambi con il passaggio da una stagione all’altra, dovuto ovviamente alla diversa illuminazione solare. “All’equinozio la luna è illuminata in modo equilibrato, mentre man mano che il tempo passa dopo l’equinozio l’atmosfera cambia. I ricercatori hanno osservato un accumulo dei gas traccianti verso l’emisfero sud man mano che l’illuminazione solare si spostava verso nord”. A muovere questa circolazione è il riscaldamento dovuto all’assorbimento di radiazione solare nell’emisfero che va verso l’estate, combinato con il raffreddamento dell’emisfero invernale dovuto all’emissione infrarossa.
Nel frattempo i gas più leggeri tendono ad accumularsi verso l’alto, e si forma quel doppio strato di aerosol già studiato in passato. “È’ un po’ come la circolazione dell’ozono sulla Terra, in cui si vedono masse di ozono che viene trasportato dall’atmosfera alta verso i poli per un effetto di pompa di calore, e poi lì sedimenta” spiega ancora Adriani.
Il dato più chiaro e interessante che emerge dallo studio, spiega Adriani, è che la circolazione di quella parte dell’atmosfera di Titano non è un fenomeno locale, ma coinvolge tutto il pianeta, con un moto che parte dall’emisfero nord e va verso quello sud, e con importanti variazioni stagionali. Adriani ricorda come il suo gruppo stia lavorando a un progetto complementare a quello di Teanby e colleghi, destinato a studiare la parte più alta dell’atmosfera. “Questo studio è molto interessante anche per noi, perché ci dà uno spaccato della parte sottostante dell’atmosfera, che aiuterà a interpretare i dati e costruire modelli anche per gli strati superiori”.
di Nicola Nosengo (INAF)

Struttura ed evoluzione del cosmo

La cosmologia è quella parte dell’astronomia teorica che si occupa di questioni riguardanti la struttura e l’evoluzione del cosmo, tentando, in particolare, di risalirne alle origini. Nell’evoluzione storica della disciplina si può distinguere una cosmologia  generale, che considera l’evoluzione e le origini dell’Universo, e una cosmologia planetaria, che riguarda la formazione dei pianeti, in particolare del sistema solare.
Nell’astronomia greca, romana e medievale lo studio dei moti planetari ebbe una posizione privilegiata rispetto a quello dei moti stellari, ritenuti più semplici e quindi meno interessanti. Dalla convinzione che gli astri ruotassero intorno alla Terra perché trasportati dal movimento di sfere alle quali erano rigidamente connessi, derivava infatti che una sola sfera era richiesta per descrivere il moto apparente delle stelle, mentre da cinque a otto sfere per pianeta erano necessarie per approssimarne il moto apparente sullo sfondo delle stelle fisse.
Intorno al 1600, con l’introduzione degli orologi meccanici in sostituzione di quelli ad acqua, gli astronomi poterono migliorare nettamente la precisione delle osservazioni. Mentre la planetologia tolemaica era fondata su misure con errori dell’ordine di 10-20 minuti d’angolo, J. Keplero, utilizzando i dati di T. Brahe, fu in grado di ricostruire l’orbita di Marte con un’accuratezza vicina al minuto d’angolo, e ne riscontro la forma ellittica. Ciò portò a escludere una decomposizione dei moti planetari in movimenti di sfere, in quanto sarebbero occorse alcune centinaia di sfere per ottenere con buona precisione tale ellisse. Ci si convinse cosi che i pianeti fluttuano liberamente nello spazio vuoto. Questa nuova idea, che avrebbe portato R. Hooke e I. Newton a scoprire la forza di gravita, rimise in discussione la teoria della sfera delle stelle e si ipotizzo che anche queste fluttuassero liberamente nel vuoto. Da ciò nasceva l’interrogativo perché allora non cadessero una sull’altra a causa della reciproca attrazione gravitazionale.
Questo problema, in seguito noto come paradosso gravitazionale, potrebbe essere considerato il punto di partenza della c. generale moderna: esso riguarda infatti la questione se la materia distribuita nel cosmo (fuori dal sistema solare) può restare in equilibrio o deve essere soggetta a movimenti causati dalla reciproca azione gravitazionale. Il paradosso fu portato da R. Bentley all’attenzione di Newton, che lo risolse, erroneamente, ritenendo che in un Universo infinitamente esteso e uniformemente popolato di stelle la forza gravitazionale fosse ovunque nulla, per ragioni di simmetria. L’errore nel ragionamento di Newton stava nello scegliere il riferimento nel quale calcolare la forza, come coincidente con la stella: in tale riferimento la stella rimaneva ovviamente in quiete e le forze erano nulle. Ma se il movimento e studiato rispetto a un osservatore lontano, allora si trova che la materia contenuta in una sfera con centro nell’osservatore e raggio pari alla sua distanza dall’astro esercita un’azione gravitazionale tendente a far cadere la stella verso l’osservatore.
Al mancato riconoscimento di questo paradosso, ne segui un secondo, il cosiddetto paradosso del cielo notturno (scoperto da E. Halley, e in seguito denominato paradosso di Olbers, dal nome dell’astronomo che lo ridiscusse nel 19° sec.): se le stelle sono infinite, la luce complessiva da esse prodotta dovrebbe essere in grado di rischiarare la notte, e la Terra stessa dovrebbe vaporizzare per l’energia ricevuta.
Sebbene la meccanica newtoniana e la legge di gravitazione universale possano essere combinate per fornire modelli di Universo, di fatto una c. newtoniana e stata sviluppata solo dopo che la teoria della relatività generale e le osservazioni astronomiche di E.P. Hubble hanno portato alla soluzione dei due paradossi. Hubble interpreto la grande mole di osservazioni spettroscopiche sulle galassie, eseguite fra il 1910 e il 1920, dove in genere si osserva uno spostamento delle frequenze di assorbimento verso valori più bassi di quelli misurati in laboratorio, come causato dall’allontanamento delle sorgenti luminose rispetto all’osservatore (effetto Doppler). Concluse che l’Universo appare in espansione e che la velocità di recessione delle galassie e proporzionale alla loro distanza r secondo una legge v = rH, che prende il nome di legge di Hubble: la costante H (costante di Hubble) e uno dei parametri caratteristici del nostro Universo e il suo valore e compreso fra H = 50 km/s/Mpc (A. Sandage e G. Tamman, fautori della ‘scala lunga’) e H= 100 km/s/Mpc (de Vaucouleur, fautore della ‘scala corta’).
L’espansione dell’Universo era stata predetta dal fisico teorico russo A.A. Friedmann, che era riuscito a risolvere le equazioni di A. Einstein del campo gravitazionale nell’ipotesi di un Universo isotropo. Si stabiliva cosi il primo legame concreto tra teoria e osservazione. Ci si rese conto, pero, che la relatività generale e le osservazioni di Hubble non erano ancora in grado di fornire un modello univoco di Universo. Si può infatti avere una continua espansione accompagnata da creazione di materia con un tasso tale da mantenere costante la densità media dell’Universo (teoria dello stato stazionario, sostenuta da T. Gold, H. Bondi, F. Hoyle) o si può avere un’espansione continua con una conseguente indefinita diminuzione di densità della materia (teoria del Big Bang, sostenuta da G. Gamow). Nella teoria dello stato stazionario, andando indietro nel tempo la densità di materia si mantiene invariata: l’Universo può anche avere un’origine temporale, ma in ogni istante conserva lo stesso aspetto. Nella teoria del Big Bang, invece, andando indietro nel tempo la densità della materia cresce sino a un istante in cui la densità tende all’infinito (singolarità iniziale). Verso il 1950 si riteneva che solo motivi filosofici o estetici potessero consentire di discriminare fra le due teorie. Invece, la teoria del big-bang divenne prevalente grazie a osservazioni effettuate nei 15 anni successivi: innanzitutto le misure relative al rapporto fra massa di elio e di idrogeno nell’Universo, e la scoperta (A.A. Penzias e R.W. Wilson, 1965) che l’Universo e pervaso da un campo di radiazione ‘di fondo’ simile a quello prodotto da un corpo nero con temperatura di circa 2,7 K. Inoltre, furono scoperte nuove classi di oggetti, radio-galassie e quasar, presenti solo a grandi distanze dalla Terra. Il fatto che non se ne trovino di vicini implica che l’Universo lontano (cioè nel passato) e sostanzialmente differente da quello vicino (presente) e ciò è contrario alla teoria dello stato stazionario.
Fu a quel punto possibile avviare una nuova fase della ricerca cosmologica, domandandosi se le strutture dell’Universo reale (stelle, galassie, ammassi di galassie ecc.) possano essere trattate come deboli perturbazioni dell’Universo altrimenti omogeneo, studiato dai modelli cosmologici. In caso di risposta positiva la formazione delle strutture che oggi osserviamo in cielo diviene parte integrante della cosmologia del Big Bang. In questa ricerca lo studio della radiazione di fondo gioca un ruolo di primaria importanza, fornendo un’immagine dell’Universo cosi com’era in epoche remote, quando presumibilmente le galassie rappresentavano solo deboli perturbazioni di densità; in questo regime occorrono poche e semplici equazioni lineari per descrivere l’evoluzione delle strutture e i loro effetti sulla radiazione cosmica. E possibile quindi un confronto diretto tra teoria e osservazioni. Si e determinato che la distribuzione angolare della radiazione di fondo cosmico e notevolmente uniforme. Le anisotropie osservate, dell’ordine di poche parti per milione (infrarosso), possono essere l’indizio di piccole fluttuazioni di densità nell’Universo primordiale le quali, per effetto della forza gravitazionale, potrebbero essersi successivamente evolute nelle galassie e negli ammassi di galassie.
La teoria del Big Bang ha aperto anche nuovi problemi e paradossi. Considerazioni matematiche hanno portato R. Dicke e J. Peebles a mostrare che l’Universo in cui viviamo e altamente instabile. Essendo sopravvissuto per circa 15 miliardi di anni, questo Universo richiede quindi un aggiustamento estremamente preciso delle condizioni iniziali. Per esempio, si e dovuto scegliere il valore della densità al termine della fase di Planck (ovvero dopo 10b43 s dall’inizio dell’Universo; per la fase precedente le teorie attuali non sono in grado di fornire interpretazioni) con una precisione migliore di una parte su 1066 per ottenere l’Universo attuale. Il problema viene chiamato paradosso della piattezza della metrica. Inoltre, il rapido procedere dell’espansione ha isolato fra loro fin dall’anizio parti di Universo che pero ci appaiono oggi, attraverso la radiazione cosmica, essere uguali tra loro. Ci si domanda come hanno potuto queste diverse parti di Universo comunicare e accordarsi per apparire eguali (paradosso degli orizzonti). La soluzione di questi paradossi sembra venire dal connubio tra fisica delle particelle elementari e cosmologia. Utilizzando l’energia liberata nelle transizioni di fase previste dalle teorie di grande unificazione delle particelle elementari, alcuni fisici teorici ritengono sia possibile aggirare i paradossi attraverso una fase iniziale di espansione esponenziale, la cosiddetta inflazione cosmica dell’Universo. Le fluttuazioni emergenti alla fine di questa fase possono aver prodotto le strutture che oggi osserviamo.
Per la costruzione di modelli dell’Universo si è soliti far uso della teoria della relatività generale di Einstein. Questi costruì il primo di tali modelli nel 1917, quando modifico le sue prime equazioni di campo del 1915 aggiungendo un termine cosmologico che rappresenta una forza repulsiva capace di vincere l’autogravitazione attrattiva della normale materia dell’Universo. Ciò gli permise di costruire un anisotropie, in cui l’autogravitazione bilancia la repulsione cosmica. Nel 1922 Friedmann dimostro che anche senza il termine cosmologico le equazioni di Einstein posseggono soluzioni cosmologiche, sotto la sola ipotesi che l’Universo sia omogeneo e isotropo (cioè che ogni regione dell’Universo avente dimensioni abbastanza grandi e uguale a qualsiasi altra regione delle stesse dimensioni e inoltre l’Universo appare identico in qualsiasi direzione lo si osservi: principio cosmologico). Nei casi più semplici, queste soluzioni corrispondono a un sistema in espansione o contrazione su larga scala. Nel 1936 H.P. Robertson e A.G. Walker dimostrarono che, anche impiegando solo ipotesi di simmetria, si possono avere molte informazioni sulla struttura dell’Universo, tramite quelli che, seguendo E.A. Milne, sono ora noti come modelli cinematici dell’Universo. L’informazione dinamica si ottenne in seguito imponendo a questi modelli di soddisfare le equazioni di campo di Einstein; in questo modo si scopri qual era la distribuzione di materia e di energia che da origine a essi. I modelli cinematici sono facilmente classificabili perché sono governati soltanto da una funzione del tempo R(t) e da una costante k. La funzione R(t), chiamata fattore di scala dell’Universo, può essere interpretata come il fattore che da la dipendenza dal tempo della distanza tra due galassie e che quindi governa la velocità di espansione dell’Universo. La quantità k nella teoria della relatività generale determina in ogni istante la curvatura dello spazio tridimensionale e indica anche se l’espansione continua indefinitamente.
I modelli cosmologici possono dividersi in due grandi categorie a seconda che includano o no il termine cosmologico, o, in altri termini, a seconda che si attribuisca valore nullo o non nullo alla costante cosmologica Λ: questa, introdotta da Einstein nel 1917, e definita come Λ = 8πGρE/c4, dove G e la costante di gravitazione universale, ρE la densità di energia del vuoto e c la velocità della luce. Assumere Λ ǂ 0 equivale ad attribuire un’energia non nulla allo spazio vuoto e, quindi, secondo la relatività generale, ad ammettere che questo generi un campo gravitazionale. Valori negativi di Λ corrispondono a una forza attrattiva (che, quindi, nei modelli cosmologici avrebbe l’effetto di rallentare l’espansione dell’Universo); valori positivi di Λ corrispondono, invece, a una forza repulsiva (che accelererebbe l’espansione dell’Universo). Poichè ha le dimensioni dell’inverso del quadrato di una lunghezza, si può scrivere Λ = 1/L2 e L e l’ordine di grandezza delle distanze sulle quali il campo gravitazionale prodotto dal vuoto dovrebbe provocare sensibili distorsioni spazio-temporali. Le osservazioni finora eseguite, su qualsiasi scala di lunghezze (fino a . 1026m, la massima distanza oggi accessibile agli astronomi), non hanno rivelato deformazioni nello spazio-tempo attribuibili all’ipotetico campo gravitazionale del vuoto. Ciò suggerisce che sia Λ = 0. Su tale ipotesi si basano, pertanto, i modelli cosmologici più largamente accettati (i cosiddetti modelli standard). In tale ipotesi vi sono tre situazioni possibili a seconda che k sia =, >, < 0. Esse forniscono eta dell’Universo diverse, ma tutte compatibili con i dati osservativi. Nel modello di Einstein-de Sitter, a espansione continua si ha k = 0 e la velocita di espansione tende uniformemente a 0. Il suo fattore di scala ha una semplice dipendenza dal tempo R(t).t2/3, e la densità di materia ρ e data dall’equazione ρ = 1/6πGt2 in cui G e la costante gravitazionale di Newton. Secondo questo modello l’età dell’Universo sarebbe di circa 7 miliardi di anni, un valore che e in buon accordo con le valutazioni dell’età della Galassia; il valore attuale della densità dovrebbe essere circa 2`10b29 g/cm3 cioè superiore di circa un fattore 30 alla densità che risulta dalla massa delle galassie conosciute. Da molti e stato suggerito che lo spazio intergalattico contenga gas (finora non rivelato, costituente la cosiddetta materia oscura: materia, Universo) con la densità richiesta. Nel modello oscillante si ha k > 0 e in esso alla fine l’autogravitazione riesce a trasformare l’espansione in contrazione, che può concludersi con un grande processo implosivo dell’Universo (big-crunch). Nel modello a espansione continua si ha k < 0 e la velocità di espansione tende in maniera uniforme a un valore diverso da 0. L’Universo finirebbe per espandersi liberamente senza che praticamente la gravita lo trattenga.
Fra i modelli non standard uno dei più interessanti e il modello di Lemaitre in cui k > 0, Λ >0; all’inizio, come nel modello di Einstein-de Sitter, si ha un’espansione molto rapida. In seguito, la gravita rallenta l’espansione e vi e un periodo quasi statico (che sarebbe propizio alla formazione di condensazioni galattiche), dopo il quale l’espansione riprende a crescere rapidamente a causa dell’effetto di repulsione cosmologica: sarebbe proprio questa la fase in cui ci troveremmo attualmente. Questo modello differisce dai precedenti in quanto l’espansione sarebbe ora in fase di accelerazione, mentre negli altri modelli essa starebbe rallentando. Ricordiamo, infine, il modello dello stato stazionario, già menzionato sopra, in cui si ha k = 0, e R(t) cresce esponenzialmente.
Treccani.it

I segreti della materia celeste

L’astrofisica è quella branca dell’astronomia o della fisica che studia le proprietà fisiche, ovvero tutti i vari fenomeni, della materia celeste.
L’ambito tradizionale di interesse dell’astrofisica comprende le proprietà fisiche (densità, temperatura, composizione chimica e nucleare della materia, luminosità e forma dello spettro emesso, proprietà di eventuali particelle emesse) di stelle, galassie, mezzo interstellare e mezzo intergalattico, e di eventuali altre forme di materia presenti nell’universo.
Ma accanto a questa definizione più tradizionale, negli ultimi anni ha assunto sempre più importanza un’altra definizione dell’astrofisica: quella che utilizza il cosmo come un laboratorio non per investigare le proprietà degli oggetti celesti sulla base di teorie fisiche ben note da esperimenti di laboratorio bensì per determinare nuove leggi della fisica che non possono altrimenti essere investigate nei laboratori terrestri. Si parla allora di fisica fondamentale nello spazio, un campo il cui primo problema (le proprietà del neutrino) ha ricevuto recentemente il suggello del premio Nobel.
La ricerca astrofisica, più di qualunque altro settore della fisica, richiede la padronanza di tutte le discipline fisiche: la meccanica dei corpi solidi e dei fluidi, la magnetoidrodinamica, l’elettromagnetismo e il trasporto della radiazione, la meccanica statistica, la relatività speciale e generale, la fisica nucleare e delle particelle elementari, e perfino alcuni campi avanzati della fisica della materia quali superconduttività e superfluidità. È possibile caratterizzare l’attività di ricerca in astrofisica sulla base della distinzione in astrofisica osservativa (spesso chiamata anche astronomia), astrofisica di laboratorio e astrofisica teorica. Sebbene l’astronomia sia tanto antica quanto la storia stessa, per lungo tempo fu tenuta separata dallo studio della fisica. Nella visione aristotelica del mondo, il mondo celeste tendeva verso la perfezione – laddove i corpi nel cielo sembravano essere sfere perfette muoventesi su orbite perfettamente circolari — mentre il mondo terreno sembrava destinato all’imperfezione; questi due regni non venivano visti come correlati. Aristarco di Samo (c. 310–250 a.C.) per primo propose la nozione che i moti dei corpi celesti potrebbero essere spiegati supponendo che la Terra e tutti gli altri pianeti nel Sistema Solare orbitassero attorno al Sole. Sfortunatamente, nel mondo geocentrico del tempo, la teoria eliocentrica di Aristarco venne giudicata assurda ed eretica, e per secoli, l’apparente visione dovuta al senso comune che il Sole e gli altri pianeti girassero attorno alla Terra venne quasi ritenuta indiscussa fino allo sviluppo dell’eliocentrismo copernicano nel XVI secolo. Ciò fu dovuto al predominio del modello geocentrico sviluppato da Tolomeo (83-161 ca. d.C.), un astronomo ellenizzato dell’Egitto romano, nel suo trattato Almagesto. Il solo sostenitore noto di Aristarco fu Seleuco di Seleucia, un astronomo babilonese il quale si disse avesse dimostrato già nel II secolo a.C. l’eliocentrismo attraverso il ragionamento. Questo può avere coinvolto il fenomeno delle maree, che egli correttamente teorizzò essere causate dall’attrazione esercitata dalla Luna, notando inoltre che l’altezza delle maree dipende dalla posizione della Luna rispetto al Sole. In alternativa, egli può avere determinato le costanti di un modello geometrico riguardo alla teoria eliocentrica, servendosene per sviluppare metodi per calcolare le posizioni dei pianeti, possibilmente usando i primi metodi trigonometrici che erano allora disponibili, pressappoco come Copernico. Alcuni hanno anche interpretato i modelli planetari sviluppati da Aryabhata (476-550), un astronomo indiano, e Ja’far ibn Muhammad Abu Ma’shar al-Balkhi (787-886), un astronomo persiano, come dei modelli eliocentrici. Nel IX secolo, il fisico ed astronomo persiano, Ja’far Muhammad ibn Mūsā ibn Shākir, ipotizzò che i corpi del cielo e le sfere celesti fossero soggetti alla stessa legge fisica della Terra, diversamente dagli antichi i quali credevano che le sfere celesti seguissero le loro leggi fisiche diverse da quelle della Terra. Egli propose anche che ci fosse una attrazione di forza fra i “corpi celesti”, vagamente prefigurando la legge di gravità. All’inizio dell’XI secolo, Ibn al-Haytham (Alhazen) scrive il Maqala fi daw al-qamar (Sulla luce della Luna) poco prima del 1021. Questo fu il primo tentativo di successo nel combinare l’astronomia matematica con la fisica, e il primo tentativo di applicare il metodo sperimentale all’astronomia e astrofisica. Egli confutò l’opinione universalmente accreditata che la luna riflettesse la luce solare come uno specchio e correttamente concluse che essa “emette luce da quelle porzioni della sua superficie laddove la luce del sole batte”. Per provare che la “luce viene emessa da ogni punto della superficie illuminata della luna”, egli costruì un “ingegnoso marchingegno sperimentale”. Ibn al-Haytham formulò una chiara concezione della relazione fra un ideale modello matematico e il complesso dei fenomeni osservabili; in particolare, fu il primo a fare un uso sistematico del metodo variando le condizioni sperimentali in una costante ed uniforme maniera, in un esperimento mostrante che l’intensità della poca quantità di luce (light-spot) formata tramite la proiezione della luce lunare attraverso due piccole aperture sopra un paravento diminuisce costantemente come una delle aperture viene gradualmente ostruita. Nel XIV secolo, Ibn al-Shatir realizzò il primo modello di moto lunare che misurava le osservazioni fisiche, e che fu più tardi usato da Copernico. Dal XIII al XV secolo, Tusi e Ali Kuşçu fornirono la primissima evidenza empirica riguardante la rotazione della Terra, utilizzando il fenomeno delle comete per confutare la pretesa tolemaica che la stazionarietà della Terra poteva essere determinata attraverso l’osservazione. Kuşçu inoltre rigettò la fisica aristotelica e la filosofia naturale, permettendo all’astronomia e alla fisica di diventare empirica e matematica invece che filosofica. Agli inizi del XVI secolo, il dibattito sul moto della Terra fu proseguito da Al-Birjandi (d. 1528), il quale analizzando cosa poteva succedere se la terra fosse rotante, sviluppa un’ipotesi simile alla nozione di Galileo Galilei di “inerzia circolare”. Successivamente l’eliocentrismo fu rivisitato da Niccolò Copernico nel XVI secolo, Galileo Galilei scoprì le quattro più luminose lune di Giove nel 1609, e documentò le loro orbite rispetto a quel pianeta, contraddicendo il dogma geocentrico della Chiesa cattolica del tempo, e scampando a gravi pene solo per il fatto di sostenere che la sua astronomia fu un lavoro di matematica, non di filosofia naturale (fisica), e perciò puramente astratta. La disponibilità di accurati dati tratti dall’osservazione (principalmente dall’osservatorio di Tycho Brahe) condusse la ricerca verso spiegazioni teoriche per i comportamenti osservati. Per prima, solo le regole empiriche furono scoperte, come le leggi di Keplero sul moto planetario, all’inizio del XVII secolo. Dopo questo secolo, Isaac Newton colmò le lacune fra le leggi di Keplero e la dinamica di Galileo, scoprendo che le stesse leggi regolanti la dinamica degli oggetti sulla Terra regolano il moto dei pianeti e della luna. La meccanica celeste, l’applicazione della gravità newtoniana e le leggi di Newton per spiegare le leggi di Keplero sul moto planetario, furono la prima unificazione fra fisica ed astronomia. Dopo che Isaac Newton pubblicò il suo libro, Philosophiæ Naturalis Principia Mathematica, la navigazione marittima venne trasformata. Partendo intorno al 1670, il mondo intero fu misurato usando essenzialmente gli strumenti di latitudine moderni e i migliori orologi disponibili. La necessità di navigare diede impulso a sempre più accurate osservazioni e strumenti astronomici, fornendo agli scienziati un ambiente propizio e sempre più dati disponibili. Alla fine del XIX secolo fu scoperto che scomponendo la luce del Sole si potevano osservare una moltitudine di linee spettrali (regioni dove c’era poca o nessuna luce). Gli esperimenti con gas caldi mostrò che le stesse linee possono essere osservate negli spettri dei gas, linee specifiche corrispondenti ad elementi chimici unici. In questo modo fu provato che gli elementi chimici trovati nel Sole (principalmente idrogeno) furono anche trovati sulla Terra. In verità, l’elemento elio fu il primo scoperto nello spettro del Sole e solo più tardi sulla Terra, da qui il suo nome. Durante il XX secolo, la spettroscopia (lo studio di queste linee spettrali) progredì, particolarmente in conseguenza della l’avvento della fisica quantistica che fu necessaria per capire osservazioni ed esperimenti astronomici. Dallo spazio riceviamo principalmente radiazione elettromagnetica (fotoni), ma anche alcune particelle (raggi cosmici e neutrini). La radiazione elettromagnetica si distingue sulla base della sua lunghezza d’onda; le tecniche osservative e gli oggetti osservati variano fortemente a seconda della lunghezza d’onda di osservazione. La radioastronomia studia la radiazione con lunghezza d’onda superiore a qualche millimetro. Il fondatore della disciplina fu Karl Jansky, che nel 1933 annunciò che un’antenna da lui costruita riceveva emissione dalla nostra galassia, la Via Lattea. Emettono in questa banda due tipi di sorgenti: quelle molto fredde come il mezzo interstellare, le nubi molecolari e la polvere interstellare, che hanno temperature ben inferiori a 1000 K, e gli elettroni relativistici che si muovono nel debole campo magnetico delle galassie. Altre importanti sorgenti nella banda radio sono le cosiddette sorgenti non termiche, e cioè quelle il cui spettro non è uno spettro termico; fra queste le più importanti sono le pulsar e i nuclei galattici attivi (AGN). L’astronomia millimetrica studia la radiazione con lunghezza d’onda attorno al millimetro. La fonte principale di emissione in questa banda è la radiazione cosmica di fondo (CMBR, da cosmic microwave backgroung radiation), ma anche la polvere emette in maniera significativa in questo intervallo di lunghezze d’onda.  L’astronomia dell’infrarosso (IR) studia la radiazione con lunghezza compresa fra una frazione di millimetro e circa 780 nm, ove inizia la radiazione visibile. In questo intervallo sono visibili sia sorgenti termiche, come le stelle più fredde, sia sorgenti non termiche come gli AGN. Sono inoltri fortemente visibili le polveri presenti in tutte le galassie a spirali. L’astronomia ottica è ovviamente la più antica, e la nostra fondamentale fonte di conoscenza astronomica. Deve il suo primato alla congiunzione di tre fatti: il primo è che la radiazione visibile penetra facilmente l’atmosfera terrestre; il secondo è che gli oggetti più comuni nell’universo, e dunque la maggior parte dell’emissione nell’universo, sono concentrati in questa banda; infine, la maggior parte degli elementi comuni nell’universo hanno righe di emissione soprattutto in questa banda, il che rende lo studio delle proprietà fisiche (temperatura e densità) e chimiche (composizione e livello di ionizzazione) precipuamente conducibile sulla base di queste osservazioni. Si noti che la maggior parte delle righe di emissione, come viene determinato in laboratorio, è prodotta nella regione ultravioletta (UV), ma queste righe di emissione vengono facilmente assorbite nello spazio interstellare, e dunque sono fondamentalmente inosservabili. Le righe prodotte nell’ottico sono invece righe proibite o semi-proibite, il che rende il loro assorbimento lungo il loro cammino verso di noi molto più improbabile. Una quarta circostanza favorevole, infine, è che, almeno fino a non molti anni fa, era in questa banda di osservazione che i nostri strumenti raggiungevano la massima risoluzione angolare possibile; questo però non è più vero. Le sorgenti precipue in questa banda sono innanzitutto la maggior parte delle stelle (restano escluse quelle molto fredde) e tutte le galassie. L’astronomia ultravioletta (UV) studia l’emissione compresa fra la radiazione visibile (che ha al massimo lunghezza d’onda di circa 300 nm) e quella X, che ha lunghezza d’onda 100 volte minore. La maggior parte delle righe di emissione si trova in questa regione, ma, come detto sopra, viene assorbita prima di arrivare a noi. Questa banda consente lo studio del mezzo interstellare, e delle stelle più calde. L’astronomia X e gamma ha avuto il suo inizio nel 1962, quando il razzo disegnato da un’ equipe guidata da Riccardo Giacconi scoprì la prima sorgente X, Sco X-1. La scoperta delle prime sorgenti nella regione gamma seguì a poco. A queste lunghezze d’onda sono rivelabili prima di tutto sorgenti non termiche, come pulsar X, AGN, gamma ray burst (GRB), buchi neri con disco di accrescimento; è possibile osservare anche la componente più calda del mezzo intergalattico, che emette nella regione dei raggi X più soffici (e cioè più vicina alla regione UV). L’astronomia TeV rivela i fotoni con le massime energie che possono giungere a noi (a causa di un fenomeno di assorbimento, fotoni con energie molto superiori vengono facilmente assorbiti nell’universo, e sono dunque invisibili per noi). Si tratta di una nuova disciplina, che si è sviluppata solo negli ultimi anni grazie a telescopi terrestri di nuova concezione come Magic. Le sorgenti osservabili sono le sorgenti più estreme note, come BL Lac (una sottoclasse degli AGN) e forse GRB. Una ulteriore distinzione fra queste tecniche osservative riguarda la localizzazione dei telescopi. Infatti, l’atmosfera terrestre assorbe tutta la radiazione UV, X, gamma e buona parte di quella millimetrica e IR. Ne consegue che i telescopi radio, ottici, alcuni IR e quelli nella regione TeV sono sulla Terra, mentre quelli IR, UV, X e gamma sono portati fuori dall’atmosfera da satelliti. Nel millimetro e in certe regioni IR si sfrutta il fatto che basta alzarsi in volo su un aereo (IR) o su un pallone sonda (millimetro) per riuscire a vedere le sorgenti cosmiche. Oltre ai fotoni, la Terra è bombardata da sciami di particelle di varia origine, chiamate raggi cosmici. Si tratta di particelle di vario tipo (principalmente protoni, elettroni, e alcuni nuclei, ma anche antiprotoni), che eseguono complicati moti nella nostra galassia, a causa della presenza del campo magnetico (che invece non influenza i fotoni). Per questo motivo è impossibile stabilire quale sia l’oggetto che dà origine ai raggi cosmici, il che ha finora impedito la nascita di una vera astronomia dei raggi cosmici, e cioè una disciplina che metta in relazione la radiazione (materiale) che riceviamo a Terra con le proprietà fisiche delle loro sorgenti. Tuttavia, queste particelle svolgono un ruolo fondamentale nella generazione della radiazione elettromagnetica osservata a Terra (per esempio, nel radio, X, e gamma); è necessario perciò studiare le proprietà dei raggi cosmici (il loro numero e la loro distribuzione in energia) per conoscere la materia che emette la radiazione non termica che osserviamo. L’altra categoria di particelle che riveliamo a Terra sono i neutrini, che non vengono deflessi dal campo magnetico, e che dunque possono essere facilmente messi in connessione con le loro sorgenti. A tutt’oggi, solo due sorgenti di neutrini sono state stabilite con certezza (il Sole, grazie alla sua prossimità, e la supernova 1987A), ma è in corso la realizzazione di ulteriori ‘telescopi a neutrini’, con la capacità di rivelare molte altre sorgenti nell’universo, quali supernove e GRB. È inoltre possibile che esistano altri sciami di particelle che inondano la Terra e che per il momento non sono state rivelate. Da una parte, si tratta di onde gravitazionali (gravitoni), la cui esistenza viene considerata ampiamente probabile sulla base della Relatività generale, ma che sono troppo deboli per essere state rivelate con la tecnologia esistente. E dall’altra, esiste la possibilità che la cosiddetta materia oscura sia costituita da tipi di particelle non ancora identificate, e forse neanche postulate; sono operativi, o in costruzione, numerosi ‘telescopi’ per queste nuove particelle. Sebbene si possa dire, in un certo senso, che tutta la fisica appartenga all’astrofisica di laboratorio, ci sono alcuni argomenti della fisica di fondamentale, e forse ora esclusivo, interesse dell’astrofisica. Si tratta primariamente di: ogni misura spettroscopica: delle probabilità di eccitazione o diseccitazione collisionale di tutte le transizioni elettromagnetiche, dagli ioni alle molecole anche complesse; ogni misura nucleare, incluse le sezioni d’urto per tutte le specie nucleari, anche le più pesanti; ogni misura relativa alla polvere intergalattica, e in particolare la sua resistenza al bombardamento particellare e fotonica che permea il mezzo interstellare, e le sue proprietà elettromagnetiche. La maggior parte dei fenomeni astrofisici non è direttamente osservabile: si pensi per esempio ai processi che forniscono l’energia che il Sole irradia nello spazio, che avvengono nelle zone più profonde del Sole, oppure al Big Bang, che è avvenuto circa 13,7 miliardi di anni fa. Per questo motivo l’astrofisica ricorre frequentemente al supporto di modelli teorici, e cioè rappresentazioni idealizzate dei processi allo studio, le cui conseguenze sono però calcolabili con precisione grazie alle teorie fisiche esistenti. Sono precisamente queste conseguenze (chiamate predizioni), che confrontate con le osservazioni, a permettere di stabilire la correttezza (o l’erroneità) dei modelli stessi. Questi modelli consentono talvolta dei calcoli analitici (e cioè, con carta e penna), ma nella maggior parte delle situazioni si fa ricorso al computer, che consente calcoli numerici assai più complessi di quelli analitici: si parla allora di simulazioni, che vengono usate specialmente in cosmologia. Problemi classici dell’astrofisica teorica sono: la struttura e l’evoluzione stellare (comprese le fase di nascita e morte delle stelle, che sono al momento quelle peggio comprese), la dinamica delle stelle all’interno delle galassie, l’evoluzione chimica delle galassie, le proprietà del mezzo interstellare, la formazione delle galassie nell’universo e l’evoluzione della struttura su larga scala, le proprietà di alcuni oggetti particolari (pulsar, buchi neri e AGN) che richiedono l’applicazione delle teorie fisiche terrestri (soprattutto la Relatività generale) a regimi che non sono riproducibili (perché troppo grandi/troppo caldi/…) nei laboratori terrestri, le proprietà dei raggi cosmici. Ma accanto a questi problemi, la cui soluzione richiede (probabilmente) null’altro che la fisica già nota, ce ne sono altri che invece richiedono modifiche della fisica come noi la conosciamo. Il primo esempio è il flusso dei neutrini a Terra, la cui osservazione aveva mostrato una deficienza, rispetto ai modelli teorici, di circa un fattore 3; questa discrepanza fra modelli e osservazioni, a lungo considerata il frutto di un’incompleta comprensione di alcuni aspetti dell’ astrofisica di base (la rotazione del Sole, o le sue proprietà convettive) oppure della fisica nucleare sulla quale i modelli sono basati, si è invece scoperto essere dovuta ad un fenomeno nuovo e interessante, le oscillazioni dei neutrini, che sono tipiche di alcune particelle elementari, e che non era assolutamente possibile prevedere al momento della costruzione del primo esperimento. Altri esempi famosi sono la presenza della materia oscura, rivelata da semplici misure astronomiche (circa il 90% di tutta la massa dell’universo è in una forma a noi ignota) e la ancor più misteriosa energia del vuoto, che è ciò che genera l’accelerazione nell’espansione dell’universo recentemente.
Tratto da Wikipedia

La consapevolezza delle distanze

L’aggettivo “astronomico” è spesso usato per indicare valori eccezionalmente alti, in campi che non hanno nulla a che fare con la scienza, come: “ho speso una cifra astronomica” o “gli ascolti hanno toccato valori astronomici”. In effetti gli astronomi hanno a che fare con valori estremi di temperatura, pressione, massa, e, ovviamente, lunghezza. Esistono diverse unità di misura per esprimere le distanze da capogiro che separano i corpi celesti, ma i semplici numeri bastano a farci comprendere davvero le entità che descrivono? Le distanze diciamo così “brevi” si esprimono tranquillamente in chilometri, il che conferisce alle misure una certa normalità: ad esempio, la Terra dista dalla Luna circa 380.000 km. Suona ancora abbastanza familiare, anche se, pensandoci bene, si tratta già di una distanza ragguardevole, circa 55 volte il percorso tra Roma e New York. Per raggiungere il Sole, dobbiamo percorrere quasi 150 milioni di km. Parliamo di milioni di chilometri! Per semplificare le cose, gli astronomi hanno pensato di creare l’ Unità Astronomica (UA), che equivale appunto alla distanza Terra-Sole. La nostra stella deve essere davvero assai rovente e luminosa per trasmetterci tanto calore e tanta luce da così lontano. Ma il Sole è poi veramente “lontano”.  Le UA funzionano molto bene fino ai limiti del Sistema Solare. Ad esempio, Plutone orbita in media a 39 UA dal Sole, dal quale la nostra stella appare tenue come la Luna piena sulla Terra. Ma proseguiamo il nostro tour spaziale verso la stella più vicina al sistema solare, Proxima Centauri. Prepariamoci per un lungo viaggio… ci aspetta un volo di circa 40.681.440.000.000 Km (quarantamilaseicentoottantuno miliardi quattrocentoquaranta milioni di chilometri), ovvero 271.210 UA. E dire che si tratta della stella più vicina! Per praticità, per distanze interstellari gli astronomi hanno introdotto una ulteriore unità di lunghezza, l’anno luce. L’anno luce, che nonostante il suo nome ingannevole è una unità di lunghezza e non di tempo, si definisce come il percorso che compie la luce in un anno. Viaggiando a 300.000 km al secondo (attenzione, al secondo, non all’ora!), in un anno un fotone percorre quasi diecimila miliardi di chilometri, o circa 63.241 UA. Risulta quindi semplice esprimere la distanza da Proxima Centauri come 4,3 anni luce. Un numero così piccolo però pare quasi riduttivo, poiché in qualche modo maschera l’immensità della reale distanza. Dire che la stella è a 4,3 anni luce da noi, infatti, significa che la sua luce ha impiegato ben oltre 4 anni per arrivare sulla Terra. Ma l’Universo è vasto e il nostro viaggio continua. Lasciamo le prime stelle, quelle “vicine”, e avventuriamoci al di fuori della nostra galassia, la Via Lattea. Per raggiungere Andromeda, la galassia più vicina nell’emisfero nord visibile anche ad occhio nudo, un astronauta molto longevo dovrà percorrere circa 2 milioni di anni luce. Per visitare galassie ancora più lontane, poi, gli anni luce diventano centinaia di milioni, o miliardi. In alternativa all’anno luce, per descrivere le enormi distanze interstellari e intergalattiche gli astronomi utilizzano anche il parsec (PC) e i suoi multipli, il Kiloparsec (KPC = mille PC) e il Megaparsec (Mpc = un milione di PC). Il parsec si definisce come la distanza alla quale una Unità Astronomica sottende un angolo di 1 secondo d’arco, ed equivale a 3,26 anni luce. Il Megaparsec è certamente l’unità di lunghezza più appropriata per la cosmologia, poiché consente di esprimere le vertiginose distanze cosmiche con numeri relativamente piccoli, evitando ingombranti sfilze di zeri. Questo facilita i calcoli e rende senza dubbio più semplice l’approccio all’astronomia; ma se ci si sofferma un momento su questi numeri, se si tenta di comprenderne il vero significato, si rischia di perdersi nella vastità che esprimono, una realtà che la mente umana non può interiorizzare appieno, probabilmente nemmeno la mente dei grandi scienziati che la studiano e la conoscono intimamente. Noi terrestri, che consideriamo l’aeroplano un mezzo rapidissimo (1000 km/h), come possiamo percepire veramente la vastità dello spazio profondo? Se pensiamo che con un aereo impiegheremmo 16 giorni a raggiungere la Luna, o più di 17 anni per arrivare al Sole, non rischiamo di smarrirci nei meandri della nostra mente? La sonda Voyager 2, che sta sfrecciando nello spazio a una velocità 50 volte maggiore degli aeroplani, impiegherà 40.000 anni solo per raggiungere Proxima Centauri. Questa affermazione è chiara, ma ne comprendiamo il vero significato senza provare una sensazione quasi surreale? Eppure, nonostante l’immensità inafferrabile degli spazi che ci circondano, da millenni noi piccoli terrestri abbiamo sviluppato la capacità di esplorarli, partendo dai pianeti più vicini e spingendoci, gradualmente, sempre un pochino più in là.
di Francesco Diodati (Astronomia.com) del 26 novembre 2007
Vedi anche l’articolo pubblicato sul nostro sito “Nuova vita per l’Unità Astronomica” del 17 settembre 2012.

Voci precedenti più vecchie