Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I...

87
Clade Mundus Plinius Prof. Francesco Fiume già direttore della Sezione di Biologia, Fisiologia e Difesa degli Istituti di Ricerca e Sperimentazione Agraria del MiPAF e dirigente di Ricerca del CRA - Roma L’inquadramento del clade Mundus Plinius da un punto di vista tassonomico e dendrometrico è riportato nella figura 1. Figura 1 – Inquadramento del clade Mundus. Mondus include Caelum, Astra, Particles, Naturalia ed Arctefacta. In particolare, il cielo che si trova al di sopra della superficie terrestre e che tutti possiamo osservare alzando gli occhi è costituito dalle costellazioni. Una costellazione è ognuna delle 88 parti in cui la sfera celeste è convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce alcun reale significato. Infatti: nello spazio tridimensionale le stelle possono essere separate anche da distanze enormi, così come diverse possono essere le dimensioni e la luminosità, viceversa, due o più stelle che sulla sfera celeste appaiono magari lontanissime tra di loro, nello spazio tridimensionale possono essere al contrario separate da distanze minori di quelle che le separano dalle altre stelle della propria costellazione, durante un ipotetico viaggio interstellare non riusciremmo più ad identificare alcuna costellazione e ogni sosta vicino a qualunque stella ce ne farebbe identificare semmai di nuove, visibili solo da tale nuova prospettiva. nel corso del tempo sono state definite costellazioni differenti, alcune sono state aggiunte, altre sono state unite tra di loro. L'uomo eccelle nel trovare schemi regolari (pareidolia) e attraverso la storia ha raggruppato le stelle che appaiono vicine in costellazioni.

Transcript of Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I...

Page 1: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

Clade Mundus Plinius Prof. Francesco Fiume

già direttore della Sezione di Biologia, Fisiologia e Difesa degli Istituti di Ricerca e Sperimentazione Agraria del MiPAF e dirigente di Ricerca del CRA - Roma

L’inquadramento del clade Mundus Plinius da un punto di vista tassonomico e dendrometrico è riportato nella figura 1.

Figura 1 – Inquadramento del clade Mundus.

Mondus include Caelum, Astra, Particles, Naturalia ed Arctefacta. In particolare, il cielo che si trova al di sopra della superficie terrestre e che tutti possiamo osservare alzando gli occhi è costituito dalle costellazioni. Una costellazione è ognuna delle 88 parti in cui la sfera celeste è convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce alcun reale significato. Infatti: • nello spazio tridimensionale le stelle possono essere separate anche da distanze enormi, così

come diverse possono essere le dimensioni e la luminosità, • viceversa, due o più stelle che sulla sfera celeste appaiono magari lontanissime tra di loro, nello

spazio tridimensionale possono essere al contrario separate da distanze minori di quelle che le separano dalle altre stelle della propria costellazione,

• durante un ipotetico viaggio interstellare non riusciremmo più ad identificare alcuna costellazione e ogni sosta vicino a qualunque stella ce ne farebbe identificare semmai di nuove, visibili solo da tale nuova prospettiva.

• nel corso del tempo sono state definite costellazioni differenti, alcune sono state aggiunte, altre sono state unite tra di loro.

L'uomo eccelle nel trovare schemi regolari (pareidolia) e attraverso la storia ha raggruppato le stelle che appaiono vicine in costellazioni.

Page 2: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

2

Con il sostantivo Mundus (figura 2) si usa designare il luogo primigenio degli esseri umani che ne comprende tutti gli abitanti e le cose create. Si distingue dal concetto di Terra in quanto essa ricopre il significato di mera entità fisica, sulla quale gli esseri che popolano il mondo vivono e che è distinta dagli altri pianeti e oggetti fisici o metafisici che costellano l'Universo.

Figura 2 – Globo terrestre. Detto anche, impropriamente, mappamondo, è una riproduzione in scala del pianeta Terra, sufficientemente fedele. Il termine indica genericamente un oggetto sferico e, per antonomasia, la Terra stessa. Nonostante questa abbia forma ellissoidale, o, più propriamente, di "geoide", il globo costi- tuisce, infatti, una buona approssimazione. Un globo rappresenta una riproduzione in piccola scala di alcune caratteristiche della Terra; perciò, date le dimensioni, su di esso possono essere riportate solo le caratteristiche generali della superficie del pianeta, indicate con una grafica convenzionale.

Il prototipo di globo terrestre, definito "Globo terrestre di Norimberga", venne costruito tra il 1490 ed il 1492 dallo studioso tedesco Martin Behaim, che utilizzò una scala 1:40 milioni (ancor oggi questa è la scala più comune nella costruzione di tale strumento). Esistono tipologie diverse di globi, riportanti, secondo i casi, le caratteristiche fisiche del pianeta, in alcuni esemplari anche in rilievo, o i confini politici, o altre proprietà politico-economiche. Alcuni globi sono luminosi, per effetto di una lampada interna: l'accensione o spegnimento della lampada può rendere possibile la visualizzazione di caratteristiche diverse. I globi, solitamente in materiale plastico, sono generalmente montati su supporto che rende con buona approssimazione l'effettiva inclinazione dell'asse terrestre. L'uso dei globi è per lo più didattico, ma non mancano gli scopi ornamentali. Esistono anche globi antichizzati, che riportano le mappe della terra come si realizzavano in epoche precedenti. Oltre ad essere poco maneggevoli, i globi non consentono di raffigurare la superficie terrestre con quella ricchezza di particolari che è necessaria negli studi geografici, per i quali sono più idonee le carte geografiche di scala più ampia. Tuttavia il globo geografico rimane la rappresentazione più realistica della Terra. La Terra, quindi, rappresenta solo parzialmente il concetto di Mundus, poiché essa è il planisfero, la carta geografica che rappresenta tutta la sua superficie, utilizzando diversi tipi di proiezioni cartografiche. Scopo del planisfero è quello di fornire una rappresentazione piana della superficie sferica della Terra (figura 3). Poiché è impossibile riprodurre su una superficie bidimensionale una superficie tridimensionale come quella sferica della Terra, a seconda che vogliano essere rispettati gli angoli o le superfici o le distanze, vengono usate proiezioni diverse. Nell'antichità quasi tutti pensavano che la terra fosse piatta, solo oggi grazie a sostanziali prove sappiamo che è sferica. La terra presenta uno schiacciamento ai poli perciò assomiglia di più ad un ellissoide di rotazione. Considerando anche le irregolarità superficiali, si nota che la sua forma non coincide con nessun solido geometrico. Si è introdotto quindi il termine geoide ossia il solido costruito dall'insieme degli infiniti piani perpendicolari alla direzione del filo a piombo. Il geoide è quindi la forma che terra avrebbe se fosse ricoperta interametne d'acqua. La prima misurazione della Terra fu realizzata da Eratostene di Cirene, della scuola d'Alessandria, con estrema precisione. Solo nel seicento nacque la geodesia, la scienza che si occupa di misurare le dimensioni della Terra. Esse consentirono di calcolare la circonferenza terrestre, lo schiacciamento polare, e introdussero il metro: unità di misura della lunghezza, inizialmente definita come quarantamilionesima parte del

Page 3: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

3

meridiano terrestre. Venne adottato internazionalmente nel 1793 e viene definito come la distanza percorsa dalla luce nel vuoto nel tempo di 1/299.792.458 s. Il reticolato geografico è composto da due serie di linee immaginarie che s'incrociano in angolo retto: sono i meridiani le semicirconferenze, tutte uguali tra loro, che uniscono il polo Nord e il polo Sud, sono 360 (180 est - 180 ovest), la loro numerazione parte dal meridiano zero (meridiano fondamentale) passante per Greenwich. I paralleli sono tutti i circoli, di lunghezza via via decrescente, tracciati parallelamente all'equatore (definito come la circonferenza perpendicolare all'asse terrestre che divide la Terra in due emisferi, Boreale e Australe). Sono 180, 90 a sud, 90 a nord (figura 2). Per definire la posizione di un punto su un piano usiamo gli assi cartesiani, due rette tra loro perpendicolari. Così la posizione di un punto si ricava dall'incrocio di due coordinate geografiche, ascissa e ordinata. Chiamiamo latitudine la distanza angolare, misurata in gradi, primi e secondi, di un punto dall'equatore. Chiamiamo longitudine la distanza angolare di un punto dal meridiano fondamentale. Definiamo altitudine (o profondità quando siamo in acqua) la distanza verticale dal punto al livello medio del mare. La direzione in cui sorge apparentemente il sole si chiama levante od oriente (est) mentre quella del tramonto ponente od occidente (ovest). Nord (quando il sole è a metà della sua traiettoria) mezzogiorno, sud settentrione. La terra compie un movimento di rotazione su se stessa, da ovest verso est, avendo come perno una linea immaginaria, l'asse terrestre, che passa dal suo centro ed emerge al polo Nord e al polo Sud. La rotazione avviene con una velocità angolare, uguale a tutte le latitudini pari a 15° il giorno.

Figura 3 – Planisfero. Rappresentazione politica della terra.

La crosta terrestre (chiamata comunemente superficie terrestre), in geologia e in geofisica, è uno degli involucri concentrici di cui è costituita la Terra: per la precisione, si intende lo strato più esterno della Terra solida, limitata inferiormente dalla Discontinuità di Mohorovičić, avente uno spessore medio variabile fra 4 (crosta oceanica) e 70 chilometri (crosta continentale). Il nostro pianeta è formato da gusci concentrici di materiale diverso: la Crosta terrestre, suddivisibile in continentale e oceanica, costituisce lo strato più esterno; al di sotto c'è il mantello terrestre, che si estende fino a 2890 km di profondità; ancora al di sotto, e fino al centro della Terra (6371 km dalla superficie) è il nucleo. Il mantello litosferico, la parte più superficiale del mantello, è saldato alla crosta e la crosta terrestre, unita al mantello litosferico, costituisce quella che viene definita litosfera. Fra la litosfera e il mantello inferiore (detto mesosfera) vi è l'astenosfera: uno strato sottile di mantello parzialmente fuso che permette alla litosfera sovrastante di muoversi, alla velocità di pochi centimetri l'anno.

Page 4: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

4

Il limite superiore è dato dalla superficie terrestre che la mette in contatto con l'atmosfera o l'idrosfera. Il limite inferiore della crosta terrestre è una superficie ben definita e marcata da cambiamenti sia fisici (cambiamenti di proprietà meccaniche) che chimici (cambiamenti nella composizione). L'interfaccia crosta-mantello viene definita, da un punto di vista petrografico, come il passaggio tra rocce che contengono feldspati (sopra) e quelle che non ne contengono (sotto). Il limite non è netto, ma sfumato e in rocce di crosta oceanica è doppio, in quanto la seconda superficie è data dal passaggio tra cumuli ultramafici e hartzburgiti, osservabile direttamente in alcune ofioliti, ad esempio, in Italia, nel complesso Ivrea-Verbano. La crosta si distingue, perciò, dal mantello perché le sue rocce cristalline sono prevalentemente acide o basiche, mentre quelle del mantello sono ultrabasiche. La crosta è, ovviamente, l'unica parte della Terra a contenere rocce sedimentarie. Esiste anche una discontinuità fisica che separa la crosta dal mantello: si tratta di una zona di transizione tra rocce a bassa velocità di propagazione delle onde sismiche (nella crosta) e rocce ad elevata velocità (nel mantello); tale discontinuità è denominata discontinuità di Mohorovičić, spesso abbreviata in Moho. La crosta terrestre è l'unico strato del pianeta a possedere una marcata eterogeneità laterale. Fondamentale è la distinzione tra: • crosta continentale, con spessori che sono generalmente attorno ai 35 km (per la crosta stabile)

ma che possono raggiungere anche 70 o addirittura 90 km in corrispondenza delle catene montuose. La sua caratteristica fondamentale, dal punto di vista geodinamico, è la sua relativa bassa densità rispetto a quella del mantello sottostante, poiché le sue rocce cristalline sono prevalentemente granitiche;

• una crosta oceanica con spessori che variano da zero a 10 km e con una densità uguale, se non superiore a quella del mantello sottostante, in quanto costituita prevalentemente da rocce ultrabasiche e basiche.

Tabella 1 – Percentuali in peso dei principali composti della crosta terrestre.

È da notare che l'estensione (areale) della crosta continentale è maggiore dell'estensione delle terre emerse, in quanto comprende anche tutti i territori sommersi a profondità inferiori ai 2500 metri. Il gradino morfologico che marca il passaggio tra crosta continentale e crosta oceanica è detto scarpata continentale. La gran maggioranza delle rocce che compongono la crosta terrestre sono ossidi; le sole eccezioni rilevanti sono i cloruri, i solfuri e i fluoruri, in quantità che nella gran parte delle rocce non supera l'1 %. Il 47 % della crosta terrestre è costituita da ossigeno e silicio, presente sotto forma di ossidi, di cui i principali sono la silice (SiO2), l'ossido di alluminio (Al2O3), l'ossido di calcio (CaO), l'ossido di potassio (K2O), l'ossido di ferro (FeO) e l'ossido di sodio (Na2O). Dopo aver analizzato 1.672 tipi di rocce e tenendo conto della loro diffusione, F. W. Clarke ha ottenuto per la crosta terrestre le seguenti percentuali in peso (tabella 1).

Interessante è il concetto di discontinuità di Conrad che corrisponde ad un piano sub-orizzontale che si trova nella crosta continentale dove la velocità delle onde sismiche aumenta in modo discontinuo. Questo piano è osservato in varie regioni continentali ad una profondità che va da 15 a

Page 5: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

5

20 km, ma non è stato trovato nelle regioni della crosta oceanica. La velocità di propagazione delle onde sismiche P, nella crosta superiore, oscilla tra 5,6 e 7,6 km/s mentre, al di sotto della discontinuità di Conrad, l'intervallo di oscillazione passa a 6,5-7,6 km/s. Tale variazione è dovuta ad un lieve incremento della densità del materiale roccioso della crosta inferiore. Esiste anche una discontinuità fisica che separa la crosta dal mantello: si tratta di una zona di transizione tra rocce a bassa velocità di propagazione delle onde sismiche (nella crosta) e rocce ad elevata velocità (nel mantello); tale discontinuità è denominata discontinuità di Mohorovičić, spesso abbreviata in Moho. La discontinuità di Conrad (così chiamata dal nome del sismologo austriaco Victor Conrad) non è così espressiva come la discontinuità di Mohorovičić ed è assente in alcune regioni continentali (Lowrie, 1997). Si pensa che la discontinuità si trovi al confine tra la crosta continentale superiore e quella inferiore. Fino alla metà del XX secolo, si ipotizzava che nelle regioni continentali, la crosta superiore fosse costituita da rocce felsiche come il granito, cosiddette SiAl (formate da silicio e alluminio) mentre quella inferiore fosse formata da rocce mafiche come il basalto, il cosiddetto SiMa (silicio e magnesio). I sismologi del tempo ritenevano che la discontinuità di Conrad corrispondesse al brusco contatto tra i due strati chimicamente distinti, vale a dire, SiAl e SiMa (Kearey et al., 2009). A partire dagli anni '60 tra i geologi cominciarono a sorgere forti dubbi verso questa supposizione, anche se l'esatto significato geologico della discontinuità di Conrad non è stato ancora chiarito. La possibilità che rappresenti la transizione dalla facies anfibolitica a quella granulitica ha ricevuto qualche supporto dal sollevamento della parte centrale del cratere di Vredefort e il circostante cratone di Kaapvaal.(Muundjua et al., 2007). I cratoni sono le parti più rigide, antiche e stabili della crosta continentale. Le zone a fusione parziale disseminate nella crosta continentale potrebbero fornire un'altra spiegazione. La discontinuità di Conrad, proprio perché non sempre identificabile al passaggio tra crosta superiore e crosta inferiore, tra le quali il passaggio è spesso di tipo "transizionale", viene definita discontinuità di "seconda specie". La crosta terrestre (chiamata comunemente superficie terrestre), in geologia e in geofisica, è uno degli involucri concentrici di cui è costituita la Terra: cioè, lo strato più esterno della Terra solida, limitata inferiormente dalla discontinuità di Mohorovičić, avente uno spessore medio variabile fra 4 (crosta oceanica) e 70 chilometri (crosta continentale). Il nostro pianeta è formato da gusci concentrici di materiale diverso (figura 4): • la crosta terrestre, suddivisibile in continentale e oceanica, costituisce lo strato più esterno; • al di sotto c'è il mantello terrestre, che si estende fino a 2890 km di profondità; • ancora al di sotto e fino al centro della Terra (6371 km dalla superficie) è il nucleo. Il mantello litosferico, la parte più superficiale del mantello, è saldato alla crosta e la crosta terrestre, unita al mantello litosferico, costituisce quella che viene definita litosfera. Fra la litosfera e il mantello inferiore (detto mesosfera) vi è l'astenosfera: uno strato sottile di mantello parzialmente fuso che permette alla litosfera sovrastante di muoversi, alla velocità di pochi cm l'anno. Il limite superiore è dato dalla superficie terrestre che la mette in contatto con l'atmosfera o l'idrosfera. Il limite inferiore della crosta terrestre è una superficie ben definita e marcata da cambiamenti sia fisici (cambiamenti di proprietà meccaniche), sia chimici (cambiamenti nella composizione). L'interfaccia crosta-mantello viene definita, da un punto di vista petrografico, come il passaggio tra rocce che contengono feldspati (nella parte superiore) e quelle che non ne contengono (nella parte inferiore). Il limite non è netto, ma sfumato nelle rocce della crosta oceanica è doppio, in quanto la seconda superficie è data dal passaggio tra cumuli ultramafici e hartzburgiti (intrusioni basiche stratificat), osservabile direttamente in alcune ofioliti ad esempio, in Italia, nel complesso Ivrea-Verbano. Per inciso, laa sezione di crosta profonda della zona Ivrea-Verbano (Alpi occidentali) è uno dei migliori esempi di sottorivestimento magmatico continentale. Recenti studi hanno

Page 6: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

6

evidenziato la presenza di una "zona tipo-Sesia" (l’area centrale) e di una "zona tipo-Finero" (l’area settentrionale), che hanno subito evoluzioni magmatiche e tettoniche diverse. Nella zona tipo-Sesia, l'enorme plutone gabbroico (complesso basico), si è intruso in età Permiana all’interno della crosta profonda del sudalpino formata da una sequenza di paragneiss e di corpi intercalati di peridotiti di mantello fertile (lherzoliti). Il contesto magmatico dell’intrusione è rimasto poco chiaro, fino a quando è stato dimostrato che la messa in posto del complesso basico era coeva con un vulcanismo acido superficiale, comprendente estesi depositi di caldera e, con la crescita, di plutoni acidi nella crosta superiore dell’adiacente "serie dei laghi". Il sistema magmatico del Sesia costituisce un’esposizione senza precedenti del sistema di alimentazione di una caldera dalla superficie, ad una profondità di circa 25 km. In questo quadro, il complesso basico registra i processi che avvengono nella crosta profonda al di sotto della caldera. La zona tipo-Finero è caratterizzata dalla presenza dell’unico esempio al mondo di un corpo di mantello meta somatizzato, costituito da rocce ultramafiche contenenti flogopite. L'unità di mantello è circondata da un’intrusione stratiforme femica-ultrafemica ricca in anfibolo, il complesso basico di Finero, che mostra caratteristiche litologiche, geochimiche, strutturali e geocronologiche diverse da quello della Val Sesia. Recenti datazioni U-Pb su zirconi indicano un età di intrusione medio-triassica per il complesso basico di Finero, che quindi non può essere più considerato come parte del complesso basico Permiano affiorante nell’area della Val Sesia. Diversamente, zirconi di orizzonti cromititici del corpo peridotitico di mantello forniscono età U-Pb del Giurassico Inferiore. Questa marcata differenza di età suggerisce che il complesso basico di Finero ed il corpo di mantello associato hanno subito una diversa evoluzione geodinamica, almeno fino al Giurassico Inferiore. L’escursione intende così illustrare la sequenza pressoché completa di crosta continentale della zona tipo-Sesia muovendosi dai settori crostali profondi prossimi al mantello fino alla caldera del supervulcano e mostrare le differenze litologiche e strutturali che intercorrono fra la zona tipo-Sesia e quella tipo-Finero. Ritornando allo studio sulla crosta terrestre, essa si distingue dal mantello perché le sue rocce cristalline sono prevalentemente acide o basiche, mentre quelle del mantello sono ultrabasiche. La crosta è, ovviamente, l'unica parte della Terra a contenere rocce sedimentarie.

Struttura interna della Terra La Terra non ha una struttura omogenea: la densità della crosta terrestre è di circa 2,7-2,8 g/cm3 e quella media del pianeta è di 5,52 g/cm3: dunque l'interno della Terra deve avere una densità ben maggiore dell'involucro esterno. La struttura interna della Terra, simile ad altri pianeti terrestri, ha una disposizione a strati che possono essere definiti sia da proprietà chimiche che reologiche. La Terra ha una crosta esterna solida di silicati, un mantello estremamente viscoso, un nucleo esterno liquido che è molto meno viscoso del mantello e un nucleo solido. La comprensione scientifica della struttura interna della Terra è basata sulle estrapolazioni di evidenza fisica scaturita dai primi pochi chilometri distanti dalla superficie terrestre, dai campioni portati alla superficie dalle più remote profondità tramite l'attività vulcanica e dalle analisi delle onde sismiche che l'hanno attraversata (figura 4). La forza esercitata dalla gravità della Terra può essere usata per calcolare la sua massa e stimare il volume del pianeta, oltre a poter calcolare la sua densità media. L'astronomia può calcolare anche la massa della Terra in base alla sua orbita e agli effetti prodotti sui vicini corpi planetari. L'osservazione di rocce, masse d'acqua e atmosfera permette di fare una stima della sua massa, volume e densità delle rocce a una certa profondità. La massa rimanente deve trovarsi negli strati più profondi. Con l'aumentare della profondità aumenta la temperatura, mediamente, in una litosfera continentale stabile e a partire dalla superficie, la temperatura aumenta di 3° ogni 100 metri (circa 30° ogni chilometro); questo aumento rimane costante più o meno fino all'isoterma 1300 °C, a profondità

Page 7: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

7

maggiori, nel mantello convettivo, la temperatura rimane quasi costante risentendo solo dell'aumento adiabatico (correlato all'aumento di pressione). Dal limite del nucleo - mantello (segnato dalla discontinuità di Gutenberg) in giù la temperatura ricomincia ad aumentare fino a raggiungere i circa 6000 °C nel centro del pianeta, ma gli elementi sono allo stato solido a causa della pressione. Anche la pressione aumenta con la profondità, anche se l'andamento non è ancora bene conosciuto ed è, comunque, variabile da luogo a luogo: proprio questo gradiente pressorio tende a opporsi al passaggio di stato (da solido a liquido, da liquido a gassoso) indotto dall'aumento di temperatura.

Figura 4 - Rappresentazione schematica degli strati concentrici di cui è fatta la terra.

Non potendo osservare direttamente la struttura dei livelli interni del pianeta (le maggiori profondità raggiunte con miniere, gallerie, perforazioni o carotaggi non superano i 20 km - risultato raggiunto solo nel 2007 - cioè meno di 1/400 del raggio terrestre). Partendo dal nucleo centrale, che ha un raggio di 1216 km, si trova il nucleo esterno, fino a 2270 km, una zona convettiva dove lo spostamento di materia avviene per convezione, ovvero per movimenti del materiale fluido e caldo. Poi vi è la zona di subduzione, il mantello, l'astenosfera, la litosfera, il mantello superiore, la crosta oceanica e infine la crosta continentale. Molto spesso, soprattutto dopo lo sviluppo della teoria della tettonica globale, anziché distinguere tra crosta e mantello terrestre, si preferisce parlare di "litosfera", strato superficiale solido, rigido comprendente tutta la crosta e parte del sottostante mantello sino a una profondità di circa 100 km, "astenosfera", allo stato plastico, viscoso sulla quale la litosfera "galleggerebbe" mentre il mantello vero e proprio viene suddiviso in superiore e inferiore. Il nucleo esterno della Terra è uno strato fluido di circa 2300 km di spessore composto prevalentemente di ferro e solfuro di ferro (FeS2) che si trova tra il nucleo solido della Terra ed il mantello. Il suo confine esterno si trova approssimativamente 2900 km al di sotto della superficie terrestre. Anche zolfo ed ossigeno potrebbero essere presenti nel nucleo esterno, ma in percentuali minime.

Page 8: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

8

La temperatura del nucleo esterno oscilla da circa 3000 °C nelle regioni più esterne fino a circa 6000 °C vicino al nucleo interno. Sebbene abbia una composizione simile a quella del nucleo interno la pressione nel nucleo esterno non è abbastanza alta per lo stato solido della lega, così esso rimane fluido, sede di correnti di eddy (correnti parassite o correnti di Foucault), legate alla variazione del campo magnetico terrestre. Nel nucleo esterno risiede la sorgente principale del campo magnetico terrestre: si tratta, infatti, di una fonte di energia che mantiene in moto il metallo fuso, generando così un sistema di correnti elettriche che alimentano il campo geomagnetico.

Discontinuità della terra. Dentro il globo terrestre, esistono zone dove si osservano alcune modificazioni brusche della velocità di propagazione delle onde sismiche; queste zone corrispondono a dei cambiamenti fisici del mezzo percorso. Le discontinuità fisiche delimitano i differenti grandi involucri della Terra. Le principali discontinuità individuate sono (figura 5): • la discontinuità di Conrad, corrispondente a un piano sub-orizzontale nella crosta continentale ad

una profondità che va da 15 a 20 km • la discontinuità di Mohorovičić (normalmente abbreviata in Moho), situata ad una profondità

compresa fra 5 e 90 km, che segna il limite fra la crosta (oceanica o continentale) ed il mantello, e mostra una variazione della natura dei materiali. La Moho è compresa fra 0 e 15 km sotto la crosta oceanica, 30 km sotto una crosta continentale di tipo zoccolo e ad una più grande profondità (fino a 80 km) sotto le catene di montagne recenti.

• la discontinuità di Gutenberg, situata a 2900 km, marca il limite fra il mantello inferiore e il nucleo esterno - che si comporta come un liquido.

• la discontinuità di Lehmann, situata a 5100 km di profondità, delimita il nucleo esterno e il nucleo interno (detto anche "seme solido").

Oltre a queste, sono state identificate altre discontinuità minori, per lo più localizzate in qualche specifica zona su un ambito territoriale regionale o relativamente ristretto.

Figura 5 – Discontinuità della Terra, con i principali strati concentrici che ne formano il profili.

Page 9: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

9

Gli anelli concentrici ed altre caratteristiche profonde (figura 6), superficiali ed esterne del Mundus sono di seguito indicate in maniera dettagliata: 1. Crosta continentale, solida, costituita da rocce essenzialmente granitiche in profondità e da rocce

sedimentarie in superficie. La crosta oceanica è la più spessa (da 30 km a 100 km, al di sotto delle catene montuose). Essa rappresenta circa 1,5% del volume della terra. Precedentemente nota come SiAl (silicio + alluminio).

2. Crosta oceanica, solida, composta principalmente da rocce basaltiche. Relativamente sottile (circa 5 km) e chiamato anche SiMa (silicio + di magnesio ).

3. Zona subduzione (è quella dove una placca oceanica scivola e va sotto un altra placca oceanica), dove una piastra affonda a volte fino a diverse centinaia di chilometri nel mantello.

4. Mantello superiore che è più viscoso del mantello inferiore. Consiste essenzialmente di rocce come la peridotite, costituite per il 60% in volume da peridoto, i cui minerali sono l'olivina, i pirosseni, il granito . Il contatto tra la crosta e mantello superiore a volte può scoprire una zona chiamata LVZ (Low Velocity Zone).

5. Eruzioni sulle aree di vulcanismo attivo. Due tipi di vulcanismo sono indicati, il più profondo dei due si chiama "punto di conflitto". Sarebbe costituito da magma di vulcani che proviene dalle profondità del mantello, vicino al confine con la roccia liquida di base. Questi vulcani, poiché non sono collegati a placche tettoniche e seguendo così i movimenti della crosta terrestre, sarebbero quasi immobili sulla superficie del globo, formando gli arcipelaghi di isole come Tahiti.

6. Mantello inferiore, che ha le proprietà di un solido elastico . Il mantello non è liquido come si potrebbe pensare guardando la lava che fluisce dalle eruzioni vulcaniche, ma meno "duro" rispetto agli altri livelli. Il mantello rappresenta 84% del volume della Terra.

7. Superficie della terra più calda che ha origine dal confine con il nucleo parzialmente fuso e produce vulcanismo in punti contrastanti.

8. Nucleo esterno liquido (NiFe), composto principalmente da ferro (circa 80%) e nichel più alcuni elementi più leggeri. La viscosità di questo nucleo è simile a quella dell'acqua, la temperatura media raggiunge i 4000 °C ed una densità di 10. Questa enorme quantità di metallo fuso viene rimossa (per convezione, ma anche in risposta ai vari movimenti quali la rotazione e precessione del mondo). La precessione è la rotazione dell'asse di rotazione di un corpo attorno ad un asse; esistono due tipi di precessione, qulla torque-free e quella giroscopica (o torque-induced). Variazioni di ferro liquido sono in grado di generare correnti elettriche che danno origine a campi magnetici. La massa liquida del nucleo è dunque l'origine del campo magnetico terrestre.

9. Nucleo interno, solido, essenzialmente composto da progressiva cristallizzazione del nucleo esterno. La pressione mantiene tale nucleo allo stato solido, nonostante una temperatura superiore a 5000 °C e una densità di circa 13. Il nucleo interno ed esterno rappresentano il 15% in volume della Terra.

10. Cellule del mantello di convezione che si muove lentamente. Il mantello è sede di correnti di convezione che trasferiscono la maggior parte dell'energia termica dal nucleo della Terra alla superficie. Queste correnti provocano la deriva dei continenti, ma le loro caratteristiche precise (velocità, ampiezza, localizzazione) sono ancora poco conosciute.

11. Litosfera, costituita da crosta ( placche tettoniche ) ed una parte del mantello superiore. Il limite inferiore della litosfera giace ad una profondità compresa tra 100 e 200 km, il limite dove le peridotiti sono vicine al loro punto di fusione. Tale limite, talvolta, si trova alla base della litosfera, in una zona chiamata LVZ o Low Velocity Zone, dove la diminuzione della velocità e attenuazione delle onde sismiche è marcato. Questo fenomeno è dovuto alla parziale fusione delle peridotiti e comporta una maggiore fluidità. LVZ è generalmente presente nelle radici delle gamme di crosta continentale di montagna.

12. Astenosfera, si trova sotto mantello superiore, sotto la litosfera. 13. Discontinuità di Gutenberg , è la zona di transizione dal mantello al nucleo.

Page 10: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

10

14. Discontinuità di Mohorovicic è la zona di transizione tra la crosta ed il mantello, è, quindi, parte della litosfera.

Figura 6 - Anelli concentrici ed altre caratteristiche profonde, superficiali ed esterne della Terra

Campo magnetico terrestre. Già nel 1600, si sosteneva che "tutta la Terra fosse un grosso magnete", che genera un campo magnetico che fa sentire i suoi effetti sul piccolo magnete dell'ago della bussola, così da allinearlo secondo l'asse nord-sud. Oggi la maggioranza degli studiosi crede che il campo magnetico terrestre possa essere paragonato a quello di una sfera uniformemente magnetizzata, caratterizzata da due poli magnetici, che non coincidono, però, con i due poli Nord e Sud geografici (figura 7).

Figura 7 – Campo magnetico terrestre.

La struttura del campo magnetico terrestre mostra che esso può considerarsi generato prevalentemente da un dipolo magnetico, situato nel centro della Terra e inclinato di 11° 30' rispetto all'asse terrestre. I punti in cui l'asse del dipolo incontra la superficie terrestre sono detti poli geomagnetici. Il polo geomagnetico situato nell'emisfero boreale si indica convenzionalmente con B e si trova a 78° 30' N, 69° W; il polo geomagnetico situato nell'emisfero australe si indica convenzionalmente con A e si trova a 78° 30' S, 111° E. In realtà, l'origine del campo magnetico non è ancora del tutto chiarita e attualmente si ipotizza che esso possa essere generato dal movimento di cariche elettriche (ipotesi della dinamo ad autoeccitazione).

Si può applicare alla Terra il modello della dinamo, immaginando: a. la presenza iniziale di un debole campo magnetico non uniforme; b. la presenza di un nucleo fuso, buon conduttore; c. la possibilità di movimenti nel nucleo stesso.

Page 11: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

11

I movimenti nel nucleo fuso inducono una corrente che produce un campo magnetico nuovo, che a sua volta induce una nuova corrente nel nucleo, che da parte sua provoca un nuovo campo magnetico e così via. Date queste caratteristiche, il modello è stato chiamato della "dinamo ad autoeccitazione". Si pensa che le sorgenti di energia più probabili per mantenere il movimento all'interno del nucleo siano dei movimenti di calore all'interno del nucleo, paragonabili a quelli che si sviluppano in un liquido messo a bollire (moti convettivi).

Il paleomagnetismo. Studi compiuti negli anni Cinquanta evidenziarono che in passato si sono verificate variazioni dell'intensità e anche inversioni di polarità del campo magnetico terrestre. Lo studio di tali cambiamenti prende il nome di paleomagnetismo, o magnetismo fossile, e ha contribuito in modo rilevante alla scoperta dell'espansione dei fondali oceanici e alla formulazione della teoria della tettonica a placche. In particolare, si sono fatte alcune scoperte. • Il campo magnetico della Terra si è invertito varie volte rispetto a quello attuale, come se i poli si

fossero scambiati di posto; le inversioni di polarità si riconoscono quando, in colate basaltiche successive, in corrispondenza delle dorsali medio-oceaniche (sorta di fessure sul fondale oceanico, da cui fuoriesce magma proveniente dall'astenosfera), si riscontrano direzioni del campo magnetico divergenti di 180°. Tale fenomeno è una prova utilizzata a favore dell'espansione dei fondi oceanici.

• Il campo magnetico ha subito rilevanti migrazioni rispetto alla crosta terrestre, suffragando così l'ipotesi della migrazione dei poli. Così sembrerebbe che il polo nord magnetico si sia spostato verso nord per un lungo periodo di tempo a partire dal Permiano (circa 320 milioni di anni fa), quando si trovava alla latitudine di 5° N.

• Le interpretazioni paleomagnetiche tratte da rocce coeve in diversi continenti hanno indicato diverse posizioni dei poli, suggerendo la probabilità di una deriva dei continenti da quando le rocce si sono formate. Informazioni riguardo al magnetismo fossile si ottengono dallo studio di molte rocce ignee (lave basaltiche) e sedimentarie (arenarie rosse), contenenti minerali magnetici che registrano fedelmente la direzione del campo magnetico presente al momento della loro formazione. Quando la temperatura di un magma scende al di sotto di un valore detto punto di Curie (diverso a seconda del minerale), i minerali magnetizzabili (per esempio, la magnetite) cristallizzano, magnetizzandosi secondo la direzione del campo magnetico esistente in quel momento. Ciò può avvenire sia quando un magma solidifica in profondità, dando origine a una roccia intrusiva, sia quando una lava effusa si raffredda sulla superficie terrestre. Nel caso di rocce sedimentarie clastiche, quando avviene la deposizione del materiale detritico sul fondo di un bacino sedimentario (per esempio, un lago), le particelle di minerali magnetizzabili presenti si orientano secondo la direzione del campo magnetico presente in quel momento sulla Terra.

Dagli studi effettuati, si è potuto stabilire che l'inversione dei poli magnetici sia avvenuta circa ogni 500.000-600.000 anni; tuttavia, non sono ancora state chiarite le cause e le modalità del fenomeno. Alcuni scienziati ipotizzano che l'inversione dei poli magnetici abbia una grande importanza per la sopravvivenza di interi gruppi di organismi. Infatti, nei momenti di inversione la schermatura magnetica, che normalmente protegge la Terra da alcune radiazioni solari, è meno efficace e quindi aumentano d'intensità gli effetti nocivi di alcune radiazioni solari su interi gruppi di organismi viventi. Proprio per ciò, molti studiosi collegano le estinzioni di intere famiglie faunistiche, come i dinosauri o le ammoniti, con momenti di inversione del campo magnetico terrestre. La Terra è sede di un campo magnetico la cui origine, e soprattutto il suo mantenimento, è dovuta alla dinamica del ferro fluido presente nel nucleo esterno del pianeta. Il campo magnetico terrestre non si espande liberamente nello spazio interplanetario ma è confinato dal vento solare entro una precisa regione di spazio che prende il nome di magnetosfera terrestre. Conseguenza dell’interazione tra il vento solare e la magnetosfera è la formazione di un complesso sistema di correnti magnetosferiche responsabili della generazione di campi magnetici secondari. Il campo magnetico misurato sulla superficie del nostro pianeta è pertanto la sovrapposizione di campi di origine interna alla Terra, come quelli prodotti nel nucleo e nella crosta terrestre, e campi

Page 12: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

12

di origine esterna, come quelli dovuti alle correnti elettriche che circolano nella ionosfera e nella magnetosfera. La registrazione continua degli elementi del campo magnetico terrestre consente quindi da un lato, di comprendere le proprietà fondamentali del campo e, dall’altro, di studiare le diverse sorgenti all’origine del campo stesso. L’obiettivo principale del gruppo di geomagnetismo dell’INGV è di monitorare il campo magnetico terrestre tanto su territorio italiano quanto su quello antartico e di utilizzare i dati raccolti per studi scientifici.

Elementi del campo magnetico. Il campo magnetico terrestre è un campo vettoriale rappresentato da un vettore, funzione del punto di osservazione e del tempo, generalmente indicato con F. Introducendo una terna cartesiana levogira con origine nel luogo di osservazione e assi orientati come in figura, si definiscono i seguenti elementi magnetici (figura 8):

Figura 8 – Rappresentazione vettoriale del campo magnetico terrestre.

L’unità di misura del campo magnetico terrestre per convenzione internazionale è abitualmente espressa in termini del vettore d’induzione. La sua unità nel Sistema Internazionale (SI) è il tesla (T), ma nella pratica viene usato un suo sottomultiplo (nT) pari a 10-9 T. Sulla superficie terrestre, il valore del campo varia in intensità, dall’equatore ai poli, da circa 20.000 nT a 70.000 nT. Un modo comune di descrivere il campo magnetico terrestre è quello di riportare su delle mappe i valori che gli elementi magnetici hanno sulla superficie terrestre. Si ottengono in questo modo le carte isomagnetiche, cioè mappe in cui punti di uguale intensità sono uniti attraverso delle linee chiuse. Il nome di queste carte varia ovviamente a seconda dell’elemento magnetico considerato, si

Page 13: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

13

parla di carte isocline nel caso in cui vengano riportati i valori dell’inclinazione I, di carte isodinamiche, qualora sia graficata una qualunque componente intensiva (X, Y, Z, H, F) del campo (figura 9) ed, infine, di carte isogone nel caso della declinazione D.

Figura 9 - Carta isodinamica dell’intensità totale (F) del campo magnetico terrestre (espressa in nT), relativa all’anno

2005. Riscaldamento globale. L'espressione riscaldamento globale (dall'inglese global warming, tradotto talvolta con riscaldamento climatico o surriscaldamento climatico) indica il mutamento del clima terrestre sviluppatosi nel corso del XX secolo e tuttora in corso. Tale mutamento è attribuito in larga misura alle emissioni in atmosfera di crescenti quantità di gas serra e ad altri fattori comunque dovuti all'attività umana. Nel corso della storia della Terra si sono registrate diverse variazioni del clima che hanno condotto il pianeta ad attraversare diverse ere glaciali, alternate a periodi più caldi detti ere interglaciali. Queste variazioni sono riconducibili principalmente a mutamenti periodici dell'assetto orbitale del nostro pianeta (cicli di Milanković), con perturbazioni dovute all'andamento periodico dell'attività solare ed alle eruzioni vulcaniche, per emissione di CO2 e di polveri. Per riscaldamento globale s'intende invece un fenomeno di incremento delle temperature medie della superficie della Terra non riconducibile a cause naturali e riscontrato a partire dall'inizio del XX secolo. Secondo il quarto rapporto dell’Intergovernmental Panel on Climate Change del 2007, la temperatura media della superficie terrestre è aumentata di 0,74 ± 0,18 °C durante il XX secolo (IPCC, 2007). La maggior parte degli incrementi di temperatura sono stati osservati a partire dalla metà del XX secolo e sono attribuiti all'incremento della concentrazione atmosferica dei gas serra, in particolare dell'anidride carbonica (riscaldamento globale). Questo incremento è il risultato dell'attività umana, in particolare della generazione di energia per mezzo di combustibili fossili e della deforestazione, e genera a sua volta un incremento dell'effetto serra (The National Academies, 2008). L'oscuramento globale, causato dall'incremento della concentrazione in atmosfera di aerosol, blocca i raggi del sole, per cui, in parte, potrebbe mitigare gli effetti del riscaldamento globale. I reports dell'IPCC (IPCC, 2014) suggeriscono che durante il XXI secolo la temperatura media della Terra potrà aumentare ulteriormente rispetto ai valori attuali, da 1,1 a 6,4 °C in più, a seconda del modello climatico utilizzato e dello scenario di emissione (figura 10).

Page 14: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

14

Figura 10 - La maggior parte dell'aumento delle temperature medie globali osservate dalla metà del XX secolo, molto probabilmente, è causato dall'aumento, di origine antropica, delle concentrazioni di gas in serra.

L'aumento delle temperature sta causando importanti perdite di ghiaccio e l'aumento del livello del mare. Sono visibili anche conseguenze sulle strutture e intensità delle precipitazioni, con modifiche di conseguenti nella posizione e nelle dimensioni dei deserti subtropicali (Lu et al., 2007). La maggioranza dei modelli previsionali prevede che il riscaldamento sarà maggiore nella zona artica e comporterà una riduzione dei ghiacciai, del permafrost e dei mari ghiacciati, con possibili modifiche alla rete biologica e all'agricoltura. Il riscaldamento climatico avrà effetti diversi da regione a regione e le sue influenze a livello locale sono molto difficili da prevedere (IPCC, 2007, a) Come risultato dell'incremento nell’atmosfera dell’anidride carbonica, gli oceani potrebbero diventare più acidi (EPA, Environmental Protection Agency, 2010; NOAA – ,2010) La comunità scientifica è sostanzialmente concorde nel ritenere che la causa del riscaldamento globale sia di origine antropica (Oreskes, 2004; Joint Science Academies' Statement, 2010; The National Academies, 2008). Ciò nonostante è in essere un ampio dibattito scientifico e politico che coinvolge anche l'opinione pubblica. Il protocollo di Kyoto vuole mirare alla riduzione dei gas serra prodotti dall'uomo. Alla data di novembre 2009 187 paesi avevano sottoscritto e ratificato il protocollo (Kyoto Protocol, 2009). I cambiamenti recenti del clima sono stati analizzati più in dettaglio solo a partire dagli ultimi 50 anni, cioè da quando le attività umane sono cresciute esponenzialmente ed è diventata possibile l'osservazione dell'alta troposfera. Tutti i principali fattori ai quali è attribuito il cambiamento climatico sono legati alle attività dell'uomo. In particolare questi sono (IPCC; 2007): • incremento della concentrazione di gas serra nell'atmosfera; • cambiamenti sulla superficie terrestre come la deforestazione; • incremento degli aerosol; • allevamento intensivo. Un rapporto dell’Intergovernmental Panel on Climate Change (IPCC) conclude che la maggior parte degli incrementi di temperatura osservati dalla metà del XX secolo è, con molta probabilità, da imputare all'incremento di gas serra prodotti dall'uomo; mentre è molto improbabile (si stima

Page 15: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

15

sotto il 5%) che le variazioni climatiche possano essere spiegate ricorrendo solo a cause naturali. Il riscaldamento interessa sia l'oceano sia l'atmosfera. Influenza della variazione dell'attività solare ed altri fattori cosmici. Variazioni nelle emissioni solari sono state concausa, in passato, dei cambiamenti climatici (National Research Council, 1994). Gli effetti sul clima dei cambiamenti delle emissioni solari negli ultimi decenni sono incerti (Lockwood e Fröhlich, 2008) d'altro canto alcuni studi suggeriscono che tali effetti siano minimi (Phillips T., 2013; DuffyP.B., Santer B.D. e Wigley T.M.L., 2009; Hansen., 2002; 2005). Gas serra e raggi solari incidono sulle temperature in modo diverso. Sebbene entrambi tendano a riscaldare la superficie terrestre e l'immediata porzione di troposfera che poggia su di essa, l'incremento dell'attività solare dovrebbe riscaldare la stratosfera mentre i gas serra la dovrebbero raffreddare. Le osservazioni della stratosfera mostrano come la temperatura si è andata abbassando a partire dal 1979, da quando è possibile la misurazione della stessa tramite i satelliti. Le stesse radiosonde, usate prima dei satelliti, mostrano un raffreddamento della stratosfera a partire dal 1958 sebbene vi siano alcuni dubbi sulle prime misurazioni effettuate con questi dispositivi (Randel et al., 2009). Un'ipotesi correlata, proposta da Henrik Svensmark, è che l'attività magnetica del sole devii i raggi cosmici che possono così influenzare la formazione di nubi di condensa e causare quindi degli effetti sul clima (Marsh. e Svensmark, 2000). Altre ricerche invece non rilevano legami tra il riscaldamento climatico e i raggi cosmici (Lockwood e Fröhlich, 2007; Sloan e Wolfendale, 2008). L'influenza dei raggi cosmici sulle nubi ha tuttavia un'incidenza cento volte più bassa di quella necessaria a spiegare i cambiamenti osservati nelle masse nuvolose o per contribuire significativamente al riscaldamento climatico (Pierce e Adams, 2009). Influenza dei gas serra nell'atmosfera. L'effetto serra è l'insieme dei meccanismi che rende la temperatura superficiale di un pianeta superiore a quella che si avrebbe per puro equilibrio radiattivo, calcolato secondo la legge di Stefan-Boltzmann. Tale concetto è stato proposto per la prima volta da Joseph Fourier nel 1827 ed è stato studiato poi da Svante Arrhenius nel 1896 (Weart, 2008). L'effetto serra produce sulla superficie terrestre un aumento di temperatura di circa 33 °C, dato calcolato considerando la temperatura media terrestre nel 1850 (IPCC, 2007). I principali gas serra sono: il vapore acqueo, responsabile dell'effetto serra in una percentuale variabile tra il 36–70%; l'anidride carbonica (CO2), che incide per il 9-26%; il metano (CH4), che incide per il 4-9%; l'ozono (O3), che incide tra il 3-7% (Kiehl e Trenberth, 1997; Schmidt, 2005; Russell, 2007). L'attività dell'uomo, già dalla rivoluzione industriale, ha incrementato l'ammontare di gas serra nell'atmosfera modificando l'equilibrio radiativo e la partizione energetica superficiale (atmosfera radiativa-convettiva). La concentrazione di CO2 e metano ha subito un incremento rispettivamente del 36% e del 148% dal 1750 (EPA, 2007). Queste concentrazioni sono tra le più alte degli ultimi 650.000 anni, periodo che è misurabile in base ai dati estratti da carotaggi nel ghiaccio (Spahni et al., 2005; Siegenthaler et al., 2005; Petit et al.,1999). Tale incremento di circa 2 ppm all'anno è legato principalmente all'uso di combustibili fossili che durante il periodo carbonifero (tra 345 e 280 milioni di anni fa) avevano fissato la CO2 nel sottosuolo, trasformandola dalla forma gassosa a quella solida o liquida di petrolio, carbone o gas naturale. Negli ultimi 150-200 anni, a partire dalla rivoluzione industriale, la combustione dei giacimenti fossili ha invertito il processo avvenuto durante il periodo carbonifero liberando grandi quantità di anidride carbonica pari a circa 27 miliardi di tonnellate all'anno. Secondo le stime, il pianeta riuscirebbe oggi a riassorbire, mediante la fotosintesi clorofilliana e l'azione delle alghe degli oceani, meno della metà di tali emissioni, anche a causa della deforestazione (Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change, 2001). Alcuni indizi di carattere geologico indicano che gli attuali valori di CO2 sono più alti di quelli di 20 milioni di anni fa (Pearson e Palmer, 2000). Il bruciare i combustibili fossili ha prodotto circa 3/4 dell'incremento di anidride carbonica negli ultimi 20 anni. La restante parte di incremento è largamente dovuta all'uso

Page 16: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

16

che l'uomo ha fatto della superficie terrestre, come nel caso della deforestazione (IPCC, 2001). L'attività umana ha, infatti, ridotto la biomassa vegetale in grado di assorbire la CO2 fin dalla rivoluzione agricola neolitica, trasformando i boschi in campi o città. Oggi la deforestazione (in particolare in Amazzonia) continua ad aumentare ed aggrava ulteriormente la situazione. A contribuire ulteriormente vi è la maggior produzione di metano dovuto a fermentazione tipico dell'allevamento anch'esso cresciuto in modo significativo e delle colture a sommersione (ad esempio il riso). Secondo il comitato di esperti delle Nazioni Unite (Intergovernmental Panel on Climate Change) l'attuale riscaldamento non può essere spiegato se non attribuendo un ruolo significativo anche a questo aumento di concentrazione di CO2 nell'atmosfera (Anthropogenic teory, Global Warming). Nell'arco degli ultimi tre decenni del XX secolo, la crescita del PIL procapite e la crescita della popolazione sono stati i volani dell'aumento dell'emissione di gas serra (Rogner et al. (2007; National Research Council, 2008; World Bank, World Development Report, 2010). Alla luce di questi studi sono stati creati degli strumenti per prevedere gli scenari futuri. Gli Special Report on Emissions Scenarios redatti dall'IPCC disegnano il possibile scenario per il 2100: la concentrazione di CO2 in atmosfera potrebbe variare tra 541 e 970 ppm.(Prentice et al., 2001). Questo significa un incremento del 90-250% di concentrazione di anidride carbonica rispetto al 1750. Le riserve di combustibile fossile sono sufficienti per raggiungere questi livelli e andare anche oltre il 2100 (Nakicenovic et al., 2001). Ozono. La distruzione dell'ozono presente nella stratosfera a causa dei clorofluorocarburi svolge un ruolo importante in relazione al riscaldamento globale (figura 11 e figura 12).

Figura 11 - Le emissioni di superficie dei precursori dell'ozono e l’andamento della quantità di metano in funzione del

tempo (sopra). La media annua globale delle emissioni dei precursori (asse a sinistra) e l’andamento del metano sono mostrati (asse di destra). Le emissioni regionali medie annuali di NOx, un esempio di quelle usate per i vari precursori (sotto). Le emissioni sono basate sul lavoro di van Aardenne et al., 2001 nei Tg/anno: N per NOx, CO per monossido di carbonio e C per idrocarburi non metanici. Il metano è stato previsto in superficie con la media globale totale indicata sopra ed una variante con la latitudine simile alle osservazioni attuali, creando un gradiente interemisferico del 5,5% in più in NH rispetto ai valori medi di SH. Nella legenda, CSI è il Commonwealth degli Stati indipendenti (ex Unione Sovietica) e Dey è l’area dell’Asia in via di sviluppo. I simboli sono dati per anni. Nelle ordinate, i valori sono espressi in Tg/anno, teragrammi/anno (1 Tg = 1012 g), mentre in ascissa si riporta il tempo in anni.

Page 17: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

17

Figura 12 - Cambiamento di ozono troposferico calcolato secondo il modello chimico-

climatico (in alto). Conseguenze istantanee della forzatura della tropopausa radiativa utilizzata nelle simulazioni climatiche transitorie, che sono guidate da imposti andamenti dell’ozono troposferico (in basso). I cambiamenti di ozono sono dati sia dalla colonna della media globale troposferica (> 150 ppb di ozono), sia dal carico troposferico (inferiore a 150 millibar). L’ozono nell’asse delle ordinate a sinistra in alto è misurato in unità di Dobson (DU), per cui unità di Dobson equivale ad uno strato di ozono puro dello spessore di 0,01 mm alla densità che questo gas possiede alla pressione esistente all’altezza del suolo. La quantità di ozono che ci sovrasta alle latitudini temperate è pari a circa 350 DU. Per effetto delle correnti stratosferiche, l’ozono viene trasportato dalle regioni tropicali a quelle polari. Nell’asse delle ordinate, a destra in alto, l’ozono è misurato in Teragrammi (Tg) pari a 1012 grammi. Nell’asse delle ordinate, nel grafico in basso, si riporta l’emittenza radiante o emittenza energetica (radiant exitance) che è il flusso radiante emesso da una sorgente estesa per unità di area che, nel sistema internazionale, si misura in W/m2 (watt per metro quadrato).

Tuttavia il legame non è così forte, poiché la riduzione della fascia di ozono ha effetti raffreddanti (Ramaswamy, 1992). L'ozono presente nella troposfera (cioè nella parte più bassa dell'atmosfera terrestre) contribuisce invece al riscaldamento della superficie della Terra. (Shindell et al, 2006). Le tendenze di forcing radiativo erano non lineare nel tempo. Poi si separano in due periodi quasi lineari: prima e dopo il 1950. Pertanto, le analisi del riscaldamento terrestre sono concentrate in gran parte sulle tendenze durante la prima e la seconda metà del XX secolo. Il modello spaziale dei cambiamenti di ozono durante questi due periodi, ciascuno di 50 anni, riguarda la superficie, un

Page 18: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

18

livello vicino alla tropopausa, e la colonna totale nella figura 13. La superficie mostra la maggior parte della distribuzione disomogenea, con aumenti di ozono chiaramente localizzati vicino le regioni industrializzate (e in misura minore per la combustione di biomasse), in particolare durante la prima metà del il secolo. Gli aumenti sono più uniformemente distribuiti in direzione delle aree con livelli più alti, come ci si aspetterebbe dalla prevalente circolazione e dai tempi chimici più lunghi a queste altitudini. Sia la superficie sia il livello di ozono della tropopausa, nonché la colonna, mostrano gli incrementi maggiori nelle latitudini del centro nord. Oltre l’Africa, tuttavia, gli aumenti sono grandi quasi tutti fino all'equatore. Negli oceani, gli aumenti sono stati di grandi dimensioni sopra l'Atlantico e, soprattutto, sopra l'Oceano Indiano, ma minori sopra il Pacifico.

Figura 13 - Cambiamenti di ozono prima e dopo il 1950. I valori sono presentati (in alto), per il livello di superficie

(ppb), (al centro) per il livello centrale intornoa 280 hPa (ppb), e (in basso) per la colonna troposferico (DU). Nota che le prime due righe condividono la stessa barra di colore e che le scale delle parcelle sulla destra sono il doppio di quelle a sinistra. I valori in alto a destra di ogni parcella danno il valore medio globale nelle stesse unità.

Page 19: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

19

Le osservazioni sono state prese presso stazioni che vanno da un’altitudine sul livello del mare da 400 a 3.450 m, con i più alti siti di campionamento dell’aria in cima alle montagne di superficie superiore a alla superficie del modello come la topografia GCM è mediata sopra i relativamente grandi volumi della griglia. Sono stati, inoltre, calcolati i valori di ozono medio del modello nel secondo strato, che ha mostrato il valore di 28 ppbv nel 1930. Sembra quindi che il modello produce un buon lavoro nella cattura dei valori di ozono. Ampi confronti attuali indicati in precedenza (Shindell et al., 2003) indicano anche una elevata qualità della simulazione, che porta a concludere che le tendenze di ozono sono abbastanza plausibili in base ai limitati dati disponibili del modello storico. Si nota, tuttavia, che le prime misurazioni dell'ozono si estendono dalla fine del 1930 attraverso 1950. Se invece si utilizza il modello 1950 dei valori di superficie, le tendenze sono troppo piccole per soddisfare tali osservazioni. Allo stesso modo, se si confrontano le osservazioni di Montsouris alla fine del XIX secolo (Volz e Kley, 1988) con il modello, la superficie di ozono del modello è troppo grande (circa 10-15 ppbv). La tendenza del modello dovrebbe avere un aumento di circa il 50%. Poiché questo è solo un singolo dato di osservazione quantitativamente affidabile del XIX secolo e che richiede anche una correzione incerta per contaminazione da aerosol, potrebbe non essere rappresentativo. Da quando è stato preso appena fuori Parigi, la quantità di ozono nel XIX secolo è scarsamente vincolata da osservazioni. Analogamente, gli studi del modello dipendono dalle emissioni che non sono inoltre ben note. Un primo esempio sono le emissioni dalla combustione della biomassa. Si tratta in parte di emissioni di origine antropica e in parte naturale. Tuttavia, anche la componente naturale è stata colpita da pratiche di gestione degli incendi boschivi. Le emissioni di combustione da masse preindustriali non sono ben note e anche le stime delle emissioni attuali variano considerevolmente. Il set dei dati che è stato utilizzato (van Aardenne et al., 2001) ha mostrato 290 Tg CO/anno nel 1990 dalla combustione della biomassa, per esempio, mentre nel 1990 (Benkovitz et al., 1996), le emissioni dichiarate dall’Inventario delle Attività Globali delle Emissioni (Global Emissions Inventory Activity, GEIA) e nel 2000 (Van der Werf et al., 2003) dal Database Globale delle Emissioni del Fuoco (Global Fire Emissions Database, GFED) mostrano 490 e 467 Tg CO/anno, rispettivamente. In un precedente studio, confrontando il modello CO con le osservazioni dello strumento satellitare MOPITT (Shindell et al., 2005), è stato trovato il miglior accordo utilizzando gli inventari più grandi. Assumendo la stessa dipendenza dal tempo (in percentuale), come nei dati di van Aardenne et al., 2001, i dati di questa grande emissione attuale sono circa il doppio nelle emissioni del XX secolo per la combustione della biomassa. Vi è, quindi, notevole incertezza per quanto riguarda la presenza pre-industriale di ozono troposferico ad oggi. Sulla base del confronto dei dati, l’emissioni ottenuta dalla combustione della biomassa sembra possibile riflettere un limite inferiore. Questo è in accordo con altri studi che suggeriscono che il cambiamento totale potrebbe essere più grande per uno dei due fattori rispetto ai valori ottenuti dal modello di studi che si basa sulle stime delle emissioni convenzionali (Mickley et al., 2001) e sulle analisi di set multipli dei dati iniziali (Shindell e Faluvegi, 2002). Si possono anche confrontare con altri modelli gli studi che hanno valutato i cambiamenti di ozono troposferico oltre lo stesso periodo di tempo. Uno studio ha utilizzato lo stesso intervallo di tempo, dipendente dalle emissioni antropiche di precursori dell'ozono, per guidare le simulazioni chimiche con il modello MOZART-2 (Lamarque et al., 2005), mentre un altro studio ha usato un modello simile, in parte derivato, del set di emissioni all'interno di OsloCTM-1 (Berntsen et al., 2000). I carichi di ozono troposferico per entrambi i modelli aumentano abbastanza lentamente dal 1890 attraverso il 1950, dopo di che il

Page 20: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

20

tasso di crescita aumenta notevolmente, in conseguenza dell’andamento quasi lineare nei due secoli mezzo (figura 12). Per le specie in tracce relativamente di breve durata come l'ozono, i tempi di trasporto separano la troposfera in tre regioni: i tropici e le due aree extratropicali (Bowman e Erukhimova, 2004). L'insieme della media globale annuale, tropicale (24 S-24 N), NH e dell'emisfero meridionale (SH) extratropicale mostra le le tendenze della temperatura superficiale media annua in risposta agli aumenti di ozono troposferico (figura 14). Mentre una quantità considerevole di variabilità multidecadale è presente per l'oceano, specialmente in un'altalena nel trasporto di calore tra le due regioni extratropicali, è tuttavia evidente che la risposta al clima spazialmente è molto disomogenea.

Figura 14 - Variazione della temperatura superficiale media annua in risposta alla modificazione di ozono della

troposfera tempo-dipendente. I risultati sono la media di oltre cinque membri dell'ensemble per il nord e il sud degli extratropici, i tropici e l'intero globo, tutti calcolati come media di 10 anni consecutivi. I valori sono espressi rispetto alla media 1880-1890.

Gli extratropici SH non mostrano virtualmente alcuna tendenza, i tropici sono sostanzialmente caldi e il NH extratropicale si riscalda abbastanza rapidamente. Le tendenze lineari per il XX secolo sono 0,03 °C ± 0,01 °C, 0,14 °C ± 0,01 °C e 0,18 °C ± 0,01 °C, rispettivamente (2% di probabilità). Il maggiore riscaldamento di NH extratropici è coerente con la distribuzione spaziale delle variazioni di ozono (figura 13). L'efficienza della produzione di ozono da NOx, definita come il rapporto tra l'aumento del carico di ozono troposferico e l'aumento delle emissioni di NOx, relative al 1890, è stato più grande di circa il 20% del 1950 diminuendo da allora in poi, ma rimanendo pressoché costante dal 1970 (figura 15). Questi cambiamenti temporali sono simili alla studio MOZART-2 eccetto che la forte riduzione dell’efficienza era iniziata circa 20 anni prima nelle simulazioni effettuate. Le variazioni frazionali sono state maggiori in questo studio, tuttavia, dove l'efficienza è stata ridotta di circa il 33% (se è stata calcolata la variazione del carico di ozono solo al di sotto di 400 hPa, in questo caso, che limita il confronto ed anche i limiti del confronto della grandezza della efficienza produttiva in i due modelli).

Page 21: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

21

Anche le discrepanze sono molto probabilmente relative alle diverse emissioni naturali ed al limite superiore delle specifiche tecniche. In un altro studio che ha utilizzato un diverso modello di trasporto chimico, l'efficienza odierna di produzione di ozono nelle emissioni di NOx è stato trovato essere circa il 50% del valore preindustriale (Wang e Jacob, 1998). Anche se tale calcolo copre un intervallo di tempo leggermente più lungo, dagli studi risulta che l'ampiezza della variazione dell’efficienza non è quantitativamente robusta. In generale, però, i tempi ed i modelli spaziali in tutta la troposfera sono ampiamente coerenti per i modelli Mozart-2, OsloCTM-1 e GISS, anche se l'entità dei cambiamenti quantitativi di ozono e la conseguente forzatura mostrano considerevoli variazioni da modello a modello.

Figura 15 - Efficienza produttiva normalizzata di ozono in funzione del tempo. L'efficienza

è definita come il rapporto tra la aumento del carico di ozono troposferico e l'aumento delle emissioni di NOx, rispetto al 1890. Il carico troposferico di ozono è stato calcolato utilizzando la soglia di ozono di 150 ppb (parti per bilione) per l'aria stratosferico; l'efficienza senza unità è stata normalizzata per il valore del 1980 di 4.4). I punti indicano gli anni in cui le simulazioni sono state eseguite.

In sintesi, lo strato di ozono è una regione dell’atmosfera che rappresenta il naturale schermo della Terra alle radiazioni solari essendo in grado di filtrare le pericolose radiazioni ultraviolette contenute nella luce solare prima che queste raggiungano la superficie terrestre causando danni all’uomo e alle altre forme di vita. Di conseguenza la comparsa di un “buco” di rilevanti dimensioni nello strato di ozono al di sopra dell’Antartide rappresenta uno dei più gravi pericoli per l’ambiente. La quantità totale di ozono che ci sovrasta in qualsiasi punto dell’atmosfera è espressa in termini di unità di Dobson (DU); una unità di Dobson equivale ad uno strato di ozono puro dello spessore di 0.01 mm alla densità che questo gas possiede alla pressione esistente all’altezza del suolo (figura 16). La quantità di ozono che ci sovrasta alle latitudini temperate è pari a circa 350 DU. Per effetto delle correnti stratosferiche, l’ozono viene trasportato dalle regioni tropicali a quelle polari.

Page 22: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

22

Quindi vicino all’Equatore lo strato di ozono che ci protegge dalle radiazioni ultraviolette è minore. La concentrazione di ozono ai tropici mediamente è pari a 250 DU mentre quelle nelle regioni subpolari è circa 450 DU, eccetto le zone sovrastate dal buco dell’ozono.

Figura 16 – Strati dell’atmosfera con le varie molecole CFC (clorofluorocarburi, che tendono a

ridurre lo strato di ozono), O (ossigeno atomico o ossigeno allo stato nascente), O2 (ossigeno molecolare, quello che compone l’atmosfera per circa il 20%), O3 (ozono), Cl (cloro atomico) e ClO (monossido di cloro che si forma a seguito della reazione dell’ozono con il cloro).

Vapore acqueo. Il principale gas ad effetto serra è il vapore acqueo (H2O), responsabile di un intervallo che va dal 36 al 70% dell'effetto serra.(Gavin, 2005; Kiehl e Trenberth, 1997) Nell'atmosfera, le molecole di acqua catturano il calore irradiato dalla superficie terrestre diramandolo in tutte le direzioni, riscaldando così la superficie della terra prima di essere irradiato nuovamente nello spazio. Il vapore acqueo atmosferico è parte del ciclo idrologico, un sistema chiuso di circolazione dell'acqua dagli oceani e dai continenti verso l'atmosfera in un ciclo continuo di evaporazione, traspirazione, condensazione e precipitazione. Tuttavia l'aria calda può assorbire molta più umidità e, di conseguenza, le temperature in aumento intensificano ulteriormente l'aumento di vapore acqueo in atmosfera e quindi il cambiamento climatico in quello che a livello teorico è chiamato effetto serra a valanga. Anidride carbonica. L'anidride carbonica (CO2) è responsabile per il 9-26% .(Gavin, 2005; Kiehl e Trenberth, 1997) dell'effetto serra ed interagisce con l'atmosfera per cause naturali e antropiche: i serbatoi naturali della CO2 sono gli oceani (che contengono il 78% della CO2), i sedimenti fossili (22%), la biosfera terrestre (6%), l'atmosfera (1%). Gran parte dell'anidride carbonica degli ecosistemi viene immessa in atmosfera. Un certo numero di organismi hanno la capacità di assimilare la CO2 atmosferica. Il carbonio, grazie alla fotosintesi delle piante, che combina l'anidride carbonica e l'acqua in presenza di energia solare, entra nei composti organici e quindi nella catena alimentare, ritornando infine in atmosfera attraverso la respirazione. Si possono individuare delle variazioni annuali della concentrazione di CO2

Page 23: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

23

atmosferica: durante l'inverno si registra un aumento di concentrazione dovuto al fatto che nelle piante a foglia caduca prevale la respirazione; durante l'estate invece la concentrazione di CO2 atmosferica diminuisce per l'aumento complessivo della fotosintesi ovvero la fase attiva di accumulo di carbonio. Gli oceani hanno un ruolo fondamentale nel bilancio del carbonio: costituiscono una vera e propria riserva di carbonio sotto forma di ione bicarbonato e contengono quantità enormi di CO2, fino al 79% di quella naturale. Gli oceani possono rilasciare o assorbire CO2 in quanto è solubile in acqua. L'incremento di temperatura dell'acqua diminuisce la solubilità del biossido di carbonio, pertanto l'aumento della temperatura degli oceani sposta CO2 dal mare all'atmosfera. Gli oceani, assorbendo la CO2 atmosferica, tendono a mantenere più stabile la sua concentrazione nell'atmosfera; se invece la concentrazione nell'atmosfera tende ad abbassarsi, gli oceani possono liberare anidride carbonica fungendo così da riequilibratori o feedback. Questo bilancio naturale tra emissioni da parte della biosfera e assorbimento da parte degli oceani, in assenza di attività antropica ed in prima approssimazione, è sempre in pareggio. Esso coinvolge valori di emissioni e assorbimenti maggiori rispetto alle emissioni antropiche. Tuttavia, per quanto piccole rispetto al totale, le emissioni antropiche sono sufficienti a squilibrare l'intero sistema. L'anidride carbonica si va così accumulando nell'atmosfera in quanto i processi di assorbimento da parte dello strato rimescolato dell'oceano non riescono a compensare l'aumento del flusso di carbonio entrante in atmosfera. Le emissioni legate all'attività umana sono dovute in primis all'uso di energia fossile come petrolio, carbone e gas naturale; la restante parte è dovuta a fenomeni di deforestazione e cambiamenti d'uso delle superfici agricole. Il contributo della deforestazione è peraltro molto incerto ed oggi al centro di molti dibattiti: le stime indicano valori compresi tra un minimo di 0.6 e un massimo di 2 miliardi di tonnellate di carbonio all'anno (rispettivamente 2.2 e 7.3 miliardi di tonnellate di CO2). Per quanto concerne la persistenza media in anni della CO2 in atmosfera, l'IPCC considera un intervallo compreso tra i 50 e i 200 anni, in dipendenza sostanzialmente dal mezzo di assorbimento. L'anidride carbonica nell'atmosfera è aumentata di circa il 25% dal 1960 ad oggi: la stazione di rilevazione di Mauna Loa (Hawaii) ha registrato in tale periodo una variazione da 320 ppm (1960) a 400 ppm (2014). Metano (CH4). Il metano è considerato responsabile dell'effetto serra per circa il 18%, essendo, infatti, la sua capacità nel trattenere il calore 21 volte maggiore rispetto a quella dell'anidride carbonica. La sua concentrazione atmosferica media sta aumentando con un tasso medio annuo valutato tra l'1,1% e l'1,4%. Il metano è il prodotto della degradazione di materiale organico in ambiente anaerobico. Le principali fonti di metano sono i terreni paludosi (25-170 Tg annui; 1 Tg o teragrammo = 1012 grammi, ossia 1 milione di tonnellate), le risaie (40-179 Tg), la fermentazione del concime organico (40-110 Tg), la combustione della biomassa (30-110 Tg), la produzione e la distribuzione di gas naturale (20-50 Tg), l'estrazione del carbone (10-40 Tg), le termiti (5-45 Tg) e, non ultimo, la fusione del permafrost (o permagelo, è un terreno tipico delle regioni dell'estremo nord perennemente ghiacciato, non necessariamente con presenza di masse di acqua congelata). Convenzionalmente con questo termine si indica un terreno ghiacciato da almeno due anni. È da rilevare il forte aumento delle emissioni di metano anche da parte delle discariche; inoltre si è avuto un aumento delle emissioni provenienti dal settore energetico e una diminuzione di quelle del settore agricolo. Radiazione ultravioletta (UV). La radiazione ultravioletta (radiazione UV) è quella porzione dello spettro elettromagnetico di lunghezze d´onda comprese tra 100 e 400 nm (nanometri) o, equivalentemente, tra 0,1 e 0,4 micron. Verso le lunghezze d´onda maggiori, la radiazione UV confina con la luce visibile di lunghezza d´onda più corta, percepita dall´uomo come viola, da cui la denominazione "radiazione ultravioletta" (figura 17).

Page 24: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

24

Figura 17 - Spettro elettromagnetico delle lunghezze d´onda.

La radiazione UV è suddivisa in tre bande di differenti lunghezze d´onda chiamate UVA, UVB e UVC. Le esatte lunghezze d´onda in base alle quali vengono definite le tre bande variano a seconda degli specifici ambiti di studio. La suddivisione più utilizzata è però la seguente: • UVA: 400-315 nm • UVB: 315-280 nm • UVC: 280-100 nm Le sorgenti di radiazione ultravioletta sono naturali ed artificiali. La sorgente naturale più importante è sicuramente il sole. Come tutti i corpi a temperature elevate, anche il sole emette una ampio spettro di onde elettromagnetiche che spaziano dall´infrarosso all´ultravioletto. Tale emissione è legata alla trasformazione dell´energia termica prodotta dalle numerose reazioni nucleari e chimiche che avvengono all´interno e sulla superficie della stella, in energia radiante.

Figura 18 – La lunghezza d’onda in nm in rapporto alla costante solare spettrale all’apice

dell’atmosfera ed al livello del mare. UV è la fascia della luce ultravioletta; PAR (photosynthetically active radiation)è la radiazione fotosinteticamente attiva,cioè quella misura dell'energia della radiazione solare intercettata dalla clorofilla a e b nelle piante; NIR (Non-Ionizing Radiations) si riferisce a qualunque tipo di radiazione elettromagnetica che non trasporta sufficiente energia per ionizzare atomi o molecole o per rimuovere completamente un elettrone da un atomo o molecola. Invece di produrre ioni carichi attraversando la materia, la radiazione elettromagnetica ha sufficiente energia solo per eccitare il movimento di un elettrone ad uno stato energetico superiore. Nondimeno diversi effetti biologici vengono osservati per diversi tipi di radiazioni non-ionizzanti.

L´atmosfera terrestre, tramite processi di assorbimento e diffusione, agisce come un filtro rispetto alle radiazioni provenienti dal sole (figura 19). In particolare:

Page 25: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

25

• la radiazione UVC (la più dannosa per la vita a causa del suo alto contenuto energetico) viene completamente assorbita dall´ozono e dall´ossigeno degli strati più alti dell´atmosfera;

• la radiazione UVB viene anch´essa in buona parte assorbita, ma una non trascurabile percentuale (circa il 15-20%) riesce a raggiungere la superficie terrestre;

• la radiazione UVA riesce in buona parte (circa il 55-60%) a raggiungere a superficie terrestre. In sintesi, la radiazione UV che raggiunge la superfice terrestre è circa il 9% (circa 120 Wm-2) della radiazione solare al top dell´atmosfera ed è distribuita tra UVA (90%) ed UVB (10%).

Figura 19 – Energia, misurata in W/m2 (watt per metro quadrato), dell’irradianza spettrale, in relazione alla lunghezza

d’onda (in nm) misurata all’equatore, al top dell’atmosfera ed al livello del mare, come UVC, UVB e UVA.

Le sorgenti artificiali sono di svariati tipi e ambiti di applicazione. Tra le più diffuse, ricordiamo le lampade germicide che sono usate per assicurare la sterilità di utensili e ambienti ospedalieri. Esse sono costituite da tubi di vetro al quarzo riempiti con una miscela gassosa di argon e vapori di mercurio a bassa pressione, attraverso i quali viene indotta una scarica elettrica. A differenza dello spettro solare, lo spettro di emissione di queste lampade è costituito da righe discrete, in corrispondenza alle frequenze di diseccitazione degli atomi di mercurio soggetti alla scarica elettrica. Per le lampade a mercurio la riga principale, che comprende da sola l´80% dell´energia emessa, si trova a 254 nm. Essa è vicinissima alla lunghezza d´onda di massimo assorbimento del DNA, a 260 nm, e questo spiega la particolare efficacia di queste lampade nell´indurre effetti di sterilizzazione. Un altro utilizzo delle lampade UV, oggi molto comune, è negli istituti di estetica per favorire l´abbronzatura. In questo caso la lampada deve essere opportunamente schermata per eliminare le componenti nocive e permettere la fuoriuscita della sola radiazione UVA che è quella ad effetto abbronzante. In campo artigianale ed industriale infine è frequente l´uso di saldatrici ad arco elettrico ed anche di alcuni laser che operano a lunghezze d´onda comprese nell´ultravioletto. La frazione di radiazione ultravioletta che raggiunge la superficie terrestre è influenzata da vari fattori. Tra questi i più importanti sono: • Copertura nuvolosa. La copertura nuvolosa, se spessa, può bloccare la radiazione UV. Una

nuvolosità fine o intervallata permette il passaggio quasi totale della radiazione UV. Se la nuvolosità è costituita da nubi isolate tipiche di condizioni di bel tempo, è possibile che la radiazione UV che raggiunge il suolo in un certo punto sia addirittura maggiore che in condizioni di cielo sereno.

• Ozono. L´ozono assorbe la radiazione UV. Maggiori quindi sono le concentrazioni di ozono, minore è la quantità di radiazione che raggiunge il suolo. Esso è presente sia nella troposfera (strato di atmosfera compreso tra il suolo e 10 km di quota) che nella stratosfera (strato di

Page 26: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

26

atmosfera compreso tra 10 e 40 km di quota). I livelli di ozono troposferico possono variare a seconda dell´ora del giorno, da giorno a giorno e da stagione a stagione. Diverso è il discorso per l´ozono stratosferico che è caratterizzato da variazioni molto più lente e in parte legate a mutazioni indotte dall´uomo. Si è infatti ormai certi che la riduzione dello strato di ozono stratosferico osservata negli ultimi decenni sia causata dai composti del fluoro, del cloro e del bromo, gas denominati Clorofluorocarburi (CFC) e Idrofluoruri (HCFC). Tali gas, prodotti ed immessi in atmosfera dall´uomo, sono capaci di distruggere le molecole di ozono anche a distanza di molti anni data la loro stabilità. Il primo effetto della distruzione dello strato di ozono è un aumento della radiazione UVB di origine solare che raggiunge la bassa atmosfera e la superficie terrestre. Grazie ai provvedimenti adottati a livello internazionale il problema della riduzione dello strato di ozono è in via di soluzione.

• Altitudine. La radiazione UV aumenta di circa il 10-12% ogni 1000 m a causa del minore spessore dell´atmosfera.

• Ora del giorno, latitudine e stagione. L´elevazione del sole è la causa comune dell´influenza dell´ora del giorno, della latitudine e della stagione sulla quantità di radiazione UV che raggiunge il suolo. Come per l´altitudine, il diverso assorbimento della radiazione UV è legato al diverso spessore dello strato di atmosfera che i raggi solari si trovano ad attraversare prima di raggiungere il suolo. I valori massimi di radiazione UV si registrano di conseguenza ai tropici, in estate e verso mezzogiorno.

• Caratteristiche della superficie. Per valutare i valori di esposizione dell´uomo alla radiazione UV si deve tener conto, oltre che della radiazione che arriva direttamente dall´atmosfera, anche di eventuali contributi dovuti a fenomeni di riflessione che dipendono dalle caratteristiche della superficie: i prati, il suolo nudo e l´acqua riflettono meno del 10% della radiazione incidente, la sabbia arriva ad un 25%, mentre la neve può arrivare anche all´80%.

Riscaldamento degli oceani. L'incremento della CO2 dovuto alle fonti fossili potrebbe essere amplificato dal conseguente riscaldamento degli oceani. Le acque marine contengono disciolta una grande quantità di CO2 ed il riscaldamento dei mari potrebbe causarne l'emissione in atmosfera. Inoltre il riscaldamento dovuto all'aumento della temperatura potrebbe produrre una maggior evaporazione dei mari liberando in atmosfera ulteriori quantità di vapore acqueo, il principale gas serra, accrescendo ulteriormente la temperatura globale. Le proiezioni del modello climatico adottato dall'IPCC indicano che la temperatura media superficiale del pianeta si dovrebbe innalzare di circa 1,1-6,4 °C durante il XXI secolo. Questo intervallo di valori risulta dall'impiego di vari scenari circa le emissioni future di gas serra, assieme a diversi valori di sensibilità climatica. Benché molti studi riguardano l'andamento nel XXI secolo, il riscaldamento e l'innalzamento del livello dei mari potrebbero continuare per più di un migliaio di anni, anche se i livelli di gas serra verranno stabilizzati. Il ritardo nel raggiungimento di un equilibrio sarebbe dovuto alla grande capacità termica degli oceani. Secondo alcuni studi (Lyman et al., 2010) la stasi delle temperature globali negli ultimi 10 anni (2000-2009) sarebbe imputabile proprio all'accumulo di calore da parte degli oceani, per le loro elevate capacità termiche, con conseguente riscaldamento anche degli strati sotto-superficiali come alcune evidenze sperimentali sembrano confermare. Retroazione. Quando una tendenza al riscaldamento provoca effetti che inducono ulteriore riscaldamento si parla di retroazione positiva, mentre quando gli effetti producono raffreddamento si parla di retroazione negativa. La principale retroazione positiva nel sistema climatico comprende il vapore acqueo, mentre la principale retroazione negativa è costituita dall'effetto della temperatura sulle emissioni di radiazione infrarossa: all'aumentare della temperatura di un corpo, la radiazione emessa aumenta in proporzione alla potenza quarta della sua temperatura assoluta (legge di Stefan-Boltzmann).

Page 27: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

27

Questo effetto fornisce una potente retroazione negativa che stabilizza il sistema climatico nel tempo. Uno degli effetti a retroazione positiva invece è in relazione con l'evaporazione dell'acqua. Se l'atmosfera è riscaldata, la pressione di saturazione del vapore aumenta e con essa aumenta la quantità di vapore acqueo nell'atmosfera. Poiché esso è un gas serra, il suo aumento rende l'atmosfera ancora più calda, e di conseguenza si ha una maggiore produzione di vapore acqueo. Questo processo continua fino a quando un altro fattore interviene per interrompere la retroazione. Il risultato è un effetto serra molto più grande di quello dovuto alla sola CO2, anche se l'umidità relativa dell'aria rimane quasi costante (Soden et Held, 2005). Gli effetti di retroazione dovuti alle nuvole sono attualmente un campo di ricerca. Viste dal basso, le nuvole emettono radiazione infrarossa verso la superficie, esercitando un effetto di riscaldamento; viste dall'alto, le nuvole riflettono la luce solare ed emettono radiazione verso lo spazio, con effetto opposto. La combinazione di questi effetti risultano in un raffreddamento o in un riscaldamento netto a seconda del tipo e dell'altezza delle nuvole. Queste caratteristiche sono difficili da includere nei modelli climatici, in parte a causa della piccola estensione delle stesse nei modelli simulativi (Soden et Held, 2005). Un effetto più sottile è costituito dai cambiamenti nel gradiente adiabatico mentre l'atmosfera si scalda. La temperatura atmosferica diminuisce con l'aumentare dell'altezza nella troposfera. Poiché l'emissione di radiazione infrarossa è legata alla quarta potenza del valore della temperatura, la radiazione emessa dall'atmosfera superiore è minore rispetto a quella emessa dall'atmosfera inferiore. La maggior parte della radiazione emessa dall'atmosfera superiore viene irradiata verso lo spazio mentre quella dell'atmosfera inferiore viene riassorbita dalla superficie o dall'atmosfera. Quindi l'intensità dell'effetto serra dipende da quanto la temperatura decresce con l'altezza: se essa è superiore, l'effetto serra sarà più intenso, mentre se è inferiore l'effetto sarà più debole. Queste misurazioni sono molto sensibili agli errori, rendendo difficile stabilire se i modelli climatici aderiscono alle osservazioni. Un altro importante processo a retroazione è costituito dall'albedo del ghiaccio (Stocker et al., 2001): quando la temperatura globale aumenta, i ghiacci polari si sciolgono ad un tasso superiore. Sia la superficie emersa che le acque riflettono meno la luce solare rispetto al ghiaccio, quindi la assorbono maggiormente (figura 20 e figura 21). Per questo motivo aumenta il riscaldamento globale, che incrementa la fusione dei ghiacci, facendo continuare il processo.

Figura 20 - Andamento dei ghiacci nell'emisfero settentrionale.

Page 28: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

28

Figura 21 - Andamento dei ghiacci nell'emisfero meridionale

Il riscaldamento è anche un fattore scatenante per il rilascio di metano da varie sorgenti presenti sia sulla terra che sui fondali oceanici. Il disgelo del permafrost, come nelle torbiere ghiacciate in Siberia creano una retroazione positiva a causa del rilascio di anidride carbonica e metano (Sample, 2005). Analogamente, l'aumento della temperatura degli oceani può rilasciare metano dai depositi di idrati di metano e clatrati di metano presenti nelle profondità in base all'ipotesi dei clatrati. Questi fenomeni sono attualmente oggetto di intense ricerche. Con il riscaldamento degli oceani si prevede inoltre un feedback positivo sulla concentrazione di CO2 in atmosfera a causa della diminuzione della capacità di assorbimento diretto per solubilità ed anche da parte degli ecosistemi oceanici. Infatti il livello mesopelagico (situato ad una profondità compresa tra 200 m e 1000 m) subisce una riduzione delle quantità di nutrienti che limitano la crescita delle diatomee in favore dello sviluppo del fitoplancton. Quest'ultimo è una pompa biologica del carbonio meno potente rispetto alle diatomee (Buesseler et al., 2007). Infine, un altro feedback climatico molto discusso è quello delle correnti oceaniche: la fusione dei ghiacci polari dovuto al riscaldamento globale porta ad un’alterazione della circolazione termoalina (la componente della circolazione globale oceanica causata dalla variazione di densità delle masse d'acqua.) e ad una conseguente alterazione del cosiddetto Nastro Trasportatore Oceanico, in particolare del ramo superficiale nord-atlantico ovvero la Corrente del Golfo, con effetto di raffreddamento sull'emisfero settentrionale, in particolare sul continente europeo, contrastando, annullando o addirittura invertendo il trend al riscaldamento degli ultimi decenni. Evoluzione delle temperature degli altri pianeti del sistema solare. Di recente è stato suggerito che alcuni dei pianeti e dei satelliti del sistema solare starebbero subendo un aumento della temperatura. Su Marte il supposto aumento della temperatura è ricavato da un articolo che studia il rapporto tra tempeste di sabbia ed albedo superficiale e basato su soli due punti, nel 1977 e 1997. Un'analisi di tutti i dati disponibili mostra un andamento erratico della temperatura, senza una tendenza ad un riscaldamento, e nel 2001 la temperatura globale marziana era inferiore a quella del 1977 (Szwast et al., 2006). Alcuni modelli prevedono un aumento della temperatura per il pianeta Giove di una decina di gradi nelle zone equatoriali, in seguito ad un aumento dell'attività meteorologica, ma non un aumento della temperatura media. Inoltre si tratta di una previsione, non osservata direttamente. Nei pianeti più lontani come Urano, Nettuno si constatano aumenti di temperatura, ma si tratta probabilmente di variazioni stagionali. Non conosciamo quasi nulla della meteorologia di questi pianeti, che sono stati osservato per un tempo limitato (Nettuno per circa

Page 29: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

29

mezzo periodo di rivoluzione). L'ipotesi che queste variazioni siano dovute a variazioni dell'attività solare è in contrasto con le debolissime variazioni misurate per l'irradianza solare.

Effetti del riscaldamento globale I modelli climatici elaborati dall'IPCC indicano un potenziale aumento della temperatura, durante il XXI secolo, compreso tra 1,4 e 5,8 °C. La Nasa con un breve video di 26 secondi mostra l'evoluzione del Global Warming negli ultimi 131 anni, evidenziando un'impennata delle temperature soprattutto negli ultimi 2 decenni (NASA, 2011). In generale, oltre alla fusione dei ghiacci nei ghiacciai e nelle calotte polari, con conseguente innalzamento del livello dei mari e riduzione delle terre emerse, un aumento della temperatura significa un aumento dell'energia presente nell'atmosfera e quindi eventi meteorologici estremi (quali cicloni, alluvioni, siccità, ondate di caldo e di gelo) di maggior numero, con una maggior violenza; l'alterazione chimica dell'atmosfera causa un'alterazione chimica di tutti gli ecosistemi. Risulta, tuttavia, tuttora molto difficile prevedere come realmente influirà sul sistema pianeta l'attuale riscaldamento globale. Il clima globale è un sistema non lineare multifattoriale, per cui la climatologia può stabilire delle tendenze, ma non eventi di dettaglio a breve periodo tipici invece delle analisi meteorologiche. Alcuni effetti sull'ambiente sono, almeno in parte, già attribuibili al riscaldamento del pianeta. Nel suo rapporto del 2001, l'IPCC suggerisce che il generale ritiro dei ghiacci continentali, l'arretramento della calotta polare artica, l'aumento del livello dei mari, in particolare in quelli con minori tassi di evaporazione, a causa dell'espansione termica e della fusione dei ghiacci continentali, oltre che dei ghiacciai montani, le modifiche nella distribuzione delle piogge e l'aumento nell'intensità e frequenza degli eventi meteorologici estremi sono attribuibili in parte al riscaldamento globale. La variazione dello spessore medio dei ghiacciai a livello mondiale è riportato nella figura 22.

Figura 22 - Andamento della variazione dello spessore medio dei ghiacciai a livello mondiale (WGMS-

UNEP).

La variazione dell’estensione dei ghiacciai e riportata nella figura 23.

Page 30: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

30

Figura 23 - Mappa con l'estensione del ghiaccio artico il 26 agosto 2012 (a destra), pari a 4.10 milioni Km2, ossia

inferiore di 70,000 km2 rispetto all'estensione misurata il 18 settembre 2007 (a sinistra). La linea arancione mostra l'estensione media dei ghiacci fra il 1979 ed il 2000 nel giorno cui si riferisce la mappa. La crocetta nera indica il Polo nord geografico.

Attualmente l'IPCC ritiene che il riscaldamento a livello meteorologico si stia manifestando e si manifesterà proprio attraverso un aumento della 'meridianizzazione' della circolazione atmosferica, ovvero con una spiccata predisposizione verso scambi meridiani con conseguente aumento della frequenza e dell'intensità di eventi estremi quali alluvioni, siccità, ondate di caldo e di gelo. Sempre secondo l'IPCC alcuni effetti, come l'aumento delle morti, degli esodi in massa e le perdite economiche, potrebbero essere esacerbati dall'aumento della densità di popolazione in alcune regioni del globo, nonostante il numero di vittime potrebbe essere mitigato per le conseguenze dei climi freddi. È tuttavia difficile collegare eventi specifici al riscaldamento globale. Per molte di queste predizioni infatti fonti diverse danno dati di supporto contrastanti come ad esempio per l'innalzamento dei livelli dei mari. I dati pubblicati dalla NASA mostrano un innalzamento superiore ai quindici centimetri a partire dal 1870. Il quarto e più recente rapporto dell'IPCC riporta alcuni dati sull'incremento nell'intensità dei cicloni tropicali nell'Oceano Atlantico settentrionale a partire dal 1970, correlato all'aumento delle temperature superficiali del mare, ma le previsioni a lungo termine sono complicate dalla qualità dei dati antecedenti l'inizio delle osservazioni satellitari. Il rapporto stesso afferma inoltre che non esiste un andamento chiaro nel numero annuale dei cicloni tropicali nel mondo (IPCC, 2007). Altri effetti paventati dall'IPCC comprendono l'innalzamento del livello dei mari di 180-590 mm nel 2090-2100, rispetto ai valori del periodo 1980-1999 (IPCC, 2007), ripercussioni sull'agricoltura, rallentamenti nella corrente nord-atlantica causati dalla diminuzione della salinità dell'oceano

Page 31: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

31

Atlantico (dovuta alla fusione dei ghiacci), riduzioni dello strato di ozono, aumento nell'intensità di eventi meteorologici estremi (Knutson, 2008), acidificazione degli oceani e la diffusione di malattie come la malaria e la dengue (Parry et al., 2007; United Nations Development Program, 2008). Uno studio prevede che di un campione di 1.103 specie di piante ed animali, dal 18% al 35% si estingueranno per il 2050, in base ai futuri mutamenti climatici (Thomas et al., 2004). Tuttavia, pochi studi hanno documentato una relazione diretta tra l'estinzione di specie e i mutamenti climatici (McLaughlin J.F. et al., 2002) e uno studio suggerisce che il tasso di estinzione è ancora incerto (Botkin et al., 2007).

Figura 24 - Variazione della temperatura globale e continentale. Confronto dei cambiamenti continentali e su scala

globale osservati della temperatura superficiale, con i risultati simulati dei modelli del clima, che considerano le azioni di modificazione naturali ed antropiche. Le medie decadali delle osservazioni si riferiscono al periodo 1906-2005 (linea nera), tracciata a confronto con la metà del decennio e rispetto alla media corrispondente al periodo 1901-1950. Le linee sono tratteggiate dove la copertura spaziale è inferiore al 50%. Le bande blu ombreggiate mostrano il range 5-95% per 19 simulazioni ottenute con 5 modelli climatici, usando solo la componente delle attività naturali quali l'attività solare e dei vulcani. Le bande rosse ombreggiate mostrano l'intervallo 5-95% per 58 simulazioni ottenute da 14 modelli climatici, usando entrambe le cause forzanti naturali e antropiche.

Gli effetti del riscaldamento climatico (figura 24) potrebbero essere più significativi se non vi fosse stata una relativa riduzione dell'irraggiamento solare dovuta all'inquinamento atmosferico, cioè al particolato atmosferico e ai solfati nel fenomeno noto come oscuramento globale. Paradossalmente,

Page 32: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

32

una riduzione dell'inquinamento (in particolare degli SOx e del particolato) potrebbe portare quindi ad un aumento delle temperature globali superiore a quanto inizialmente ipotizzato. Il riscaldamento rilevato negli ultimi anni sta inoltre sciogliendo i ghiacci artici, tanto che l'ESA il 14 settembre 2008 ha annunciato la riapertura del celeberrimo Passaggio a nord-ovest a settentrione del continente nord americano, per la fusione dei ghiacci. Si è aperto, inoltre, anche il passaggio a nord-est (a settentrione della Russia) nel Mare glaciale artico. Il primo precedente documentato risale al 1903 quando Roald Amundsen riuscì nell'impresa di traversare il passaggio a nord-ovest. Per il passaggio a nord-est si può risalire al 1878 ed alla spedizione del barone Adolf Erik Nordenskjöld (epoche in cui i rompighiaccio moderni non erano ancora disponibili). Nel settembre 2007 i ghiacci antartici hanno invece raggiunto la loro massima estensione (16,3 milioni di km², leggermente superiore alla media) da quando si effettuano le registrazioni (1978) sulla calotta glaciale dell'Antartico; viceversa, l'anno seguente, l'estensione è stata fra le minori mai registrate. La spedizione DAMOCLES (Developping Arctic Modelling and Observing Capabilities for Long-term Environmental Studies) in ogni caso prevede la fusione totale della calotta artica prima del 2020. La marina americana ritiene che, sebbene vi siano delle significative incertezze, il consenso scientifico corrente sia tale per cui l'artico sarà quasi completamente privo di ghiaccio in estate a partire da un anno tra il 2030 e il 2040. Ritiene pertanto che potrebbe essere necessario incrementare le sue capacità operative in tale regione. Molti altri fenomeni sono spesso citati come conseguenza del riscaldamento globale. Uno di essi è la riduzione del pH degli oceani per effetto dell'aumento della CO2 nell'atmosfera e di conseguenza l'aumento della quantità disciolta in acqua (NASA, 2005). Infatti, la CO2 disciolta in acqua forma acido carbonico, che ne aumenta l'acidità. Si stima che il valore del pH all'inizio dell'era industriale fosse pari a 8,25 e che sia diminuito a 8,14 nel 2004 (Jacobson M.Z., 2005), con proiezioni che prevedono un'ulteriore diminuzione del valore di una quantità variabile tra 0,14 e 0,5 per il 2100 (Caldeira e Wickett, 2005). Poiché molti organismi ed ecosistemi sono in grado di adattarsi solo ad uno stretto intervallo di valori del pH, è stato ipotizzato un possibile evento di estinzione, che distruggerebbe la catena alimentare (Raven et al., 2005). Tropicalizzazione meridionalizzazione del Mediterraneo e migrazione lessepsiana (ingresso e stabilizzazione di specie animali e vegetali dal Mar Rosso nelle acque del Mar Mediterraneo attraverso il Canale di Suez). Nel mar Mediterraneo si assiste da alcuni anni ad un ingresso di specie tropicali (tropicalizzazione), in molti casi lessepsiani ovvero penetrati dal mar Rosso attraverso il Canale di Suez. Nei bacini più settentrionali come quelli italiani si assiste invece ad un aumento delle specie termofile meridionali, prima presenti solo sulle coste nordafricane (meridionalizzazione del Mediterraneo): questi cambiamenti faunistici sono messi in relazione al riscaldamento climatico. Soprattutto nella parte orientale del Mediterraneo questi processi stanno avendo effetti consistenti sulle specie autoctone e si hanno esempi di gravi danni ecologici, come quello, molto noto, dell'invasione di Caulerpa taxifolia [(M. Vahl) C. Agardh 1817] e Caulerpa racemosa J. Agardh 1873, anche lungo le coste italiane. Alcuni economisti hanno cercato di stimare i costi economici aggregati netti dei danni causati dai mutamenti climatici. Tali stime sono lontane dal presentare conclusioni definitive: su circa un centinaio di stime, i valori variano da 10 dollari per tonnellata di carbonio (3 dollari per tonnellata di anidride carbonica) fino a 350 dollari (95 dollari per tonnellata di anidride carbonica), con una media di 43 dollari per tonnellata di carbonio (12 dollari per tonnellata di anidride carbonica). Lo Stern Review, un rapporto molto pubblicizzato sull'impatto economico potenziale, ha ipotizzato una riduzione del PIL globale di un punto percentuale a causa degli eventi meteorologici estremi e nello scenario peggiore la riduzione del 20% dei consumi globali pro capite (At-a-glance, 2006). La

Page 33: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

33

metodologia e le conclusioni di questa pubblicazione sono state criticate da molti economisti (Tol e Yohe, 2006), mentre altri hanno accolto favorevolmente il tentativo di quantificare il rischio economico ((Bradford De Long, 2007). Gli studi preliminari suggeriscono che i costi e i benefici della mitigazione del fenomeno di riscaldamento globale sono a grandi linee attorno alla stessa cifra (Barker, 2008). In base al programma ambientale delle Nazioni Unite (United Nations Environment Programme - UNEP), i settori economici che dovranno affrontare con maggiore probabilità gli effetti avversi del cambiamento climatico includono le banche, l'agricoltura e i trasporti (Dlugolecki et al., 2002). Le nazioni in via di sviluppo che sono dipendenti dall'agricoltura saranno particolarmente colpite. Misure correttive. Il consenso scientifico attorno al riscaldamento globale e le previsione di aumento delle temperature hanno convinto varie nazioni, aziende ed individui ad adottare delle misure per cercare di limitare questo fenomeno. Molti gruppi ambientalisti incoraggiano inoltre linee di condotta per i consumatori ed è stato suggerito l'impiego di quote sulla produzione mondiale di combustibili fossili, indicandoli come una fonte diretta di emissioni di CO2 (Monbiot, 2007). È stata altresì suggerita una tassa sulle emissioni di carbonio che eviterebbe l'imposizione di un sistema di quote sulle emissioni (quote che potrebbero essere allocate su base individuale o nazionale, e potrebbero essere commerciate tra i vari beneficiari). Una tassa sulle emissioni è in vigore in Danimarca dal 1990 e ha portato alla riduzione delle emissioni del 15% dal 1990 al 2008. Sono attualmente in progetto delle misure per ridurre le emissioni causate dalla deforestazione, specialmente nei paesi in via di sviluppo. In un tentativo di adattarsi al riscaldamento globale, è stato anche proposto di sviluppare delle metodologie di controllo meteorologico. Sono allo studio anche progetti di geoingegneria più ambiziosi ma che potrebbero avere degli effetti imprevisti, quali per esempio il rilascio su scala massiccia di solfati nell'atmosfera che dovrebbero ridurre l'irraggiamento solare oscurando leggermente il cielo (Launder e Thompson., 2008). Sempre per mitigare il riscaldamento globale, è stato proposto di introdurre nuove leggi che obblighino a costruire case più efficienti dal punto di vista energetico.

Protocollo di Kyōto .Il principale accordo internazionale per il controllo del riscaldamento globale è il Protocollo di Kyōto, un emendamento allo United Nations Framework Convention su Climate Change negoziato nel 1997 (figura 25). Il Protocollo copre 180 nazioni globalmente e più del 55% delle emissioni di gas serra globali. Fu messo in atto il 16 febbraio 2005 (Kyoto Protocol Status of Ratification, 2006). Solo gli Stati Uniti e il Kazakhstan non hanno ratificato il trattato. Il Presidente degli Stati Uniti George W. Bush ha contestato il Protocollo di Kyoto giudicandolo ingiusto ed inefficace per la soluzione del problema del riscaldamento globale, affermando che "esclude l'80% del mondo, tra i principali stati per popolazione come Cina e India e potrebbe costituire una seria minaccia per l'economia degli Stati Uniti" (Bush, 2001). Il governo statunitense ha invece proposto il miglioramento delle tecnologie per l'energia, mentre alcuni stati e città statunitensi hanno iniziato a supportare localmente il Protocollo di Kyoto, attraverso la Regional Greenhouse Gas Initiative. Lo U.S. Climate Change Science Program è, invece, un programma di cooperazione tra più di 20 agenzie federali per indagare sui cambiamenti climatici. "Gli Stati Uniti si impegnano a rafforzare la propria sicurezza energetica e a confrontarsi sul cambiamento climatico globale. Il miglior modo per l'America per raggiungere questi scopi è continuare a guidare lo sviluppo di una tecnologia più pulita ed efficiente energeticamente." L'Europa ha recentemente proposto come soluzione al riscaldamento globale, oltre al supporto al Protocollo di Kyoto, il cosiddetto "Pacchetto Clima 20-20-20", che prevede l'aumento del 20% nell'efficienza energetica, la riduzione del 20% delle emissioni di gas serra e l'aumento del 20% della quota di energie rinnovabili entro il 2020.

Page 34: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

34

Figura 25 - Emissioni mondiali di gas serra per persona nell'anno 2000. Cenni storici. Le principali tappe della comprensione scientifica del fenomeno del riscaldamento globale e del ruolo della CO2 sono le seguenti (Weart, 2008) • 1824 Joseph Fourier comprende che la Terra sarebbe molto più fredda se non avesse

un'atmosfera e conia il termine "effetto serra". • 1859 John Tyndall scopre che alcuni gas bloccano la radiazione infrarossa, suggerendo che

cambiamenti nella concentrazione dei gas, CO2 in particolare, potrebbe causare cambiamenti climatici.

• 1896 Svante Arrhenius pubblica il primo calcolo del riscaldamento globale da un aumento della CO2, e comprende il ruolo del vapor acqueo nell'amplificazione del fenomeno.

• 1901 Knut Ångström, sulla base di esperimenti possibili all'epoca, in contrasto con Arrhenius ritiene che l'effetto di assorbimento della radiazione infrarossa da parte della CO2 saturi rapidamente.

• 1938 Milutin Milankovitch propone la sua teoria astronomica dei cambiamenti orbitali per spiegare la causa delle ere glaciali.

• 1938 Guy Callendar argomenta sul riscaldamento globale da effetto serra in corso per l'aumento di CO2, in accordo con quanto predetto da Arrhenius.

• 1956 Gilbert Plass calcola il riscaldamento mediante un modello a strati dell'atmosfera. • 1957 Hans Suess identifica la traccia isotopica dei combustibili fossili in atmosfera. • 1960 Charles Keeling misura accuratamente la CO2 in atmosfera e ne rileva la crescita annuale. • 1963 Calcoli sul feedback da vapor acqueo mostrano che la sensibilità climatica al raddoppio

della CO2 poteva essere maggiore di quanto ritenuto fino ad allora. • 1967 Manabe e Wetherald sviluppano il primo modello al computer per simulare il clima

terrestre. • 1971 Rasool e Schneider modellizzano l'effetto di raffreddamento degli aerosol. • 1979 Prima conferenza mondiale sul clima, organizzata da WMO, UNEP, FAO, UNESCO e

WHO. • 1988 James Hansen presenta i risultati dei modelli climatici del NASA Goddard Institute che

predicono l'aumento del riscaldamento globale, testimoniando al Senato USA. • 1990 Primo rapporto dell'IPCC.

Page 35: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

35

Per analizzare in modo accurato le variazioni del clima, le Nazioni Unite hanno costituito nel 1988 una Commissione Intergovernativa sul Cambiamento Climatico (IPCC) che raccoglie accademici provenienti delle nazioni del G8. I rapporti dell'IPCC sono usciti in varie edizioni a partire dal 1991. Secondo quanto riportato dalla commissione, la temperatura superficiale globale del pianeta sarebbe aumentata di 0,74 ± 0,18 °C durante gli ultimi 100 anni, fino al 2005. L'IPCC ha inoltre concluso nei suoi "studi di attribuzione" delle cause (peso di ciascun contributo, antropico e naturale) che «la maggior parte dell'incremento osservato delle temperature medie globali a partire dalla metà del XX secolo è molto probabilmente da attribuire all'incremento osservato delle concentrazioni di gas serra antropogenici», attraverso un aumento dell'effetto serra. Viceversa, i fenomeni naturali, come le fluttuazioni solari e l'attività vulcanica, hanno contribuito marginalmente al riscaldamento nell'arco di tempo che intercorre tra il periodo pre-industriale e il 1950 ed hanno causato un lieve effetto di raffreddamento nel periodo dal 1950 all'ultimo decennio del XX secolo. Queste conclusioni sono state supportate da almeno 30 associazioni e accademie scientifiche, tra cui tutte le accademie nazionali della scienza dei paesi del G8. Le conclusioni raggiunte dall'IPCC sono basate anche da un'analisi di oltre 928 pubblicazioni scientifiche dal 1993 al 2007, in cui si osserva che il 75% degli articoli accetta, esplicitamente o implicitamente, la tesi scientifica del contributo antropico al riscaldamento, mentre il restante 25% degli articoli copre unicamente metodologie o paleoclimatologia per cui non esprime opinioni in merito. Secondo la Union of Concerned Scientists, circa 40 tra ricercatori e organizzazioni che contestano il ruolo umano nei fenomeni di riscaldamento globale sono stati finanziati dalla ExxonMobil, di cui fa parte l'italiana Esso. Nel dossier della UCS si legge che la Exxon ha finanziato campagne di contestazione del riscaldamento globale a matrice antropica elargendo, dal 1998 al 2005, 16 milioni di dollari a decine di organizzazioni, gruppi e ricercatori che si oppongono alla teoria. I finanziamenti della Exxon sono stati biasimati dalla Royal Society, l'accademia nazionale inglese delle scienze (Royal Society, 2006). GreenPeace ha avviato una campagna, denominata ExxonSecrets, per denunciare e tenere traccia dei finanziamenti erogati della Exxon. Il graduale incremento dei dati scientifici disponibili sul riscaldamento globale ha alimentato a partire dagli anni settanta un crescente dibattito politico che ha poi iniziato a considerare tra le sue priorità anche il contenimento delle emissioni dei gas serra e l'utilizzo di fonti energetiche alternative e rinnovabili. Nel 2007, alcune organizzazioni internazionali hanno riconosciuto l'importanza della sensibilizzazione sul riscaldamento globale in atto nel nostro pianeta. Per la prima volta l'orologio dell'apocalisse è stato modificato con una motivazione non inerente esclusivamente il pericolo nucleare, ma anche sul mutamento climatico. Il premio Nobel per la pace è stato assegnato al Comitato intergovernativo sul cambiamento climatico e ad Al Gore, quest'ultimo ha organizzato il Live Earth e girato “Una scomoda verità”, un film che ha ricevuto il premio Oscar al miglior documentario, anche se recentemente ha ricevuto molte critiche circa la sua attendibilità scientifica e la reale fondatezza di previsioni eccessivamente catastrofistiche. Anche a livello europeo, il riscaldamento climatico è diventata una priorità. Per la fine del 2008 erano attese una serie di misure legislative volte a ridurre del 20% i gas a effetto serra. Nel dicembre 2009 si è svolto il Vertice di Copenaghen, dove per la prima volta nella storia si è tentato di raggiungere, fra enormi difficoltà (Parlamento europeo, 2009), un punto di vista comune fra la maggior parte degli stati mondiali. Tuttavia, secondo molti osservatori, questo accordo, che di fatto riguarda Stati Uniti, Cina, India, Sudafrica e Brasile, dandosi degli obiettivi di massima (fra cui tentare di limitare a 2 °C l'aumento della temperatura globale media) ma non vincolanti, è solamente un primo passo cui dovranno seguirne altri affinché abbia una ragionevole efficacia.

Page 36: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

36

Oscuramento globale Con la locuzione oscuramento globale o offuscamento globale (in inglese: global dimming) viene indicata la riduzione graduale dell'irraggiamento solare sulla superficie terrestre, osservata a partire dagli anni 1950. Al rovescio è stato osservato un aumento di luminosità della Terra verso lo spazio tramite le apparecchiature (radiometri) in dote ai satelliti in orbita proprio per l'aumentata riflettanza dell'atmosfera. L'entità del fenomeno varia a livello geografico, ma globalmente è stata stimata una riduzione complessiva della radiazione solare al suolo tra il 2% ed il 5% nel periodo tra gli anni 1960 e gli anni 1990. Questa tendenza è rallentata nell'ultimo decennio, e localmente sembra essersi invertita. L'oscuramento globale potrebbe aver mascherato parzialmente gli effetti del riscaldamento globale e, analogamente, la recente inversione di tendenza potrebbe averli accentuati. Si pensa che la causa principale dell'oscuramento globale sia da imputare all'aumentata presenza in atmosfera di particolato sospeso in forma di aerosol come effetto dell'inquinamento. Questo particolato ha il doppio effetto di diffondere la luce, rifletterla parzialmente e di fungere da nucleo di condensazione per le gocce d'acqua che formano le nubi (Denman, 2007). L'aerosol e altri particolati assorbono la radiazione solare riflettendola parzialmente verso lo spazio; possono fungere, inoltre, da nuclei di condensazione per le gocce d'acqua che formano le nuvole. L'incremento dell'inquinamento atmosferico causa l'aumento di particelle sospese e la formazione di nuvole costituite da gocce di piccole dimensioni. Il conseguente maggior numero di punti di riflessione aumenta l'albedo dell'atmosfera. Le nuvole assorbono sia il calore irradiato dalla superficie terrestre che quello del Sole. L'effetto combinato di questi fattori varia, in modo complesso, a seconda dell'altitudine, della località, della luminosità e del tempo atmosferico (notte, giorno, stagioni). In genere durante il giorno predomina l'assorbimento della luce solare (con l'effetto di mitigare il riscaldamento sulla superficie terrestre); di notte invece la retroriflessione della radiazione terrestre rallenta la perdita di calore della Terra. Tra i primi a studiare gli effetti della radiazione solare sul clima vi fu Mikhail Ivanovich Budyko, nel 1969, che tramite semplici modelli climatici bidimensionali investigò l'impatto dell'albedo glaciale nel bilancio energetico atmosferico (Budyko, 1969). Budyko riscontrò una correlazione positiva tra l'aumento delle precipitazioni nevose e del ghiaccio, e la quantità di radiazione solare riflessa nello spazio. L'aumentata riflessione causa una diminuzione della temperatura globale del pianeta. Altre ricerche successive indagarono il ruolo nelle variazioni climatiche dell'inquinamento atmosferico e delle eruzioni vulcaniche (Rasool et al., 1971; Lockwood, 1979). Nel 1989, Atsumo Ohmura, geografo dell'ETH Zürich, pubblicò uno studio dove analizzava i dati statistici sull'irraggiamento solare della superficie terrestre, ed evidenziava una diminuzione del 10% avvenuta nel corso dei precedenti tre decenni (Ohmura e Lan, 1988). L'effetto della diminuzione avrebbe dovuto condurre ad un raffreddamento dell'atmosfera, un risultato apparentemente in contraddizione con gli effetti del riscaldamento globale. Ben presto furono effettuate nuove ricerche che confermarono il trend individuato da Ohmura (Russak, 1990; Liepert, 1994). Nel 1992, Gerry Stanhill descrisse per la prima volta il fenomeno con la parola dimming, cioè offuscamento, oscuramento (Stanhill e Moreshet, 2004). L'incidenza dell'oscuramento globale varia localmente e nel corso dell'anno, ma è stato stimato un aumento medio annuale dell'oscuramento di circa il 2-3% (Liepert, 2002) che è da considerare un valore di molto superiore alla riduzione della radiazione solare (Gilliland et al., 1982) fino agli anni 1990 quando il fenomeno ha mostrato una inversione di tendenza (Hegerl, 2007). Negli anni novanta fu effettuato un esperimento alle isole Maldive, in modo da comprovare che le cause dell'oscuramento fossero effettivamente dovute all'inquinamento atmosferico. Fu registrata una riduzione del 10% dell'irraggiamento (contro l'1% inizialmente previsto) nelle isole coperte dai venti stagionali (molto inquinati) provenienti dall'India meridionale (Srinivasan et al., 2002). Anche le scie di condensazione degli aeromobili hanno un impatto sul fenomeno: un'evidenza di questo la si è avuta durante gli attentati dell'11 settembre 2001. La sospensione dei voli aerei durante quella giornata è stata associata ad una diminuzione dell'emissione in atmosfera, dando

Page 37: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

37

evidenza empirica di un anomalo aumento dell'escursione termica tra notte e giorno (circa 1 °C) in alcune zone degli USA normalmente interessati da traffico aereo (Travis et al., 2002). Nel 2005 Wild, Pinker e altri hanno registrato una inversione dell'effetto (localmente fino al 4%), a partire dagli anni novanta (Wild et al., 2007; Pinker et alii, 2005; Ohmura e Makowski, 2007). Sembra che una fra le cause di ciò sia la diminuzione di particolato e SOx disperso in atmosfera (non di gas serra) che si è cominciato a registrare grazie a legislazioni favorevoli al contenimento dell'inquinamento, in particolare in Europa. Effetti sul clima. L'irraggiamento solare provoca il riscaldamento degli oceani e la conseguente evaporazione dell'acqua che ricade successivamente come pioggia. La riduzione dell'irraggiamento causata dalla presenza di aerosol nell'aria, può quindi avere un'influenza negativa sul ciclo idrogeologico del pianeta. L'offuscamento globale potrebbe avere perciò effetti su larga scala sul clima. Alcuni modelli climatici sembrano indicare che una riduzione dell'irraggiamento superficiale può aver contribuito alla mancata formazione dei monsoni nell'Africa subsahariana durante gli anni settanta e ottanta, con conseguenti carestie come quella provocata dalla tragica Siccità del Sahel. Allo stesso modo tramite l'offuscamento da parte degli aerosol si tende a spiegare buona parte del lieve raffreddamento climatico globale registrato nel trentennio compreso tra il 1945 e il 1975. Nel complesso sembra che l'oscuramento globale abbia contenuto i flussi energetici fra l'atmosfera e la superficie terrestre, con un relativo calo dell'evaporazione ed aumento dell'umidità atmosferica, ma una conseguente riduzione delle precipitazioni. Relazioni con il riscaldamento globale.Alcuni scienziati ritengono che l'offuscamento globale mascheri parzialmente gli effetti del riscaldamento globale (Liepert, 2002), al punto che una risoluzione dell'oscuramento globale potrebbe portare ad un aumento delle temperature superiore a quanto ipotizzato. La riduzione del particolato in atmosfera è relativamente veloce una volta fermata l'immissione degli inquinanti in atmosfera, mentre l'inerzia degli effetti del riscaldamento globale è molto superiore e più difficilmente controllabile. Il fenomeno è globale, ma i suoi effetti sono locali: infatti, mentre gran parte del globo si è riscaldata, le regioni investite da venti inquinati si sono raffreddate. Questo potrebbe spiegare il relativo raffrescamento della parte est degli Stati Uniti rispetto alla costa ovest.

Controversia sul cambiamento climatico La controversia sul riscaldamento globale è una disputa riguardante le cause, la natura e le conseguenza del riscaldamento globale. La disputa riguarda le cause dell'aumento della temperatura media dell'aria a livello globale, specialmente a partire dalla metà del XX secolo, se tale aumento sia senza precedenti o faccia parte delle normali variazioni climatiche, se l'umanità abbia contribuito a tale aumento, e se tale aumento sia parzialmente o completamente attribuibile a misurazioni errate. Ulteriori aree di discussione riguardano la stima della sensibilità del clima, le predizioni sul riscaldamento futuro del pianeta, e le conseguenze di un tale riscaldamento. Le controversie sono più vigorose nei mass media che nella letteratura scientifica. Il quadro di questo dibattito rende difficile una chiara percezione dei dati di fatto al grande pubblico. In particolare l'influenza antropica sembra percepita in maniera distorta; ad esempio è stato fatto un sondaggio su una disomogenea e vasta platea, mostrando che all'aumentare della competenza tecnica sono più frequenti le risposte positive alla domanda se «l'attività umana è un fattore significativo nel variare le temperature globale del pianeta» (Doran, 2009). Consenso scientifico. La teoria, secondo cui la temperatura media del globo si è alzata nelle ultime decadi e tale aumento medio è da attribuirsi in tutto o in parte all'attività umane, viene sostenuta da ogni accademia scientifica nazionale che abbia preso posizione sulla teoria stessa, incluse le accademie scientifiche dei paesi del G8 (Joint statement of sixteen national academies of science, 2001). Nel 2007, anche l'associazione dei geologi petroliferi americani ha riconosciuto l'influenza umana sui recenti cambiamenti climatici (Brigham-Grette et al., 2006).

Page 38: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

38

I gruppi ambientalisti, alcuni rapporti governativi e la maggior parte dei mass media spesso affermano che ci sia un sostegno quasi unanime della comunità scientifica al fatto che i cambiamenti climatici siano causati da attività umane. I contrari a tale tesi affermano che la maggioranza degli scienziati considera il riscaldamento globale "non provato", lo negano completamente, o sottolineano i pericoli di esaminare solo un punto di vista in un dibattito scientifico che ritengono ancora aperto o affermano che la scienza è basata sui fatti e non sui sondaggi (Crichton, 2003). Ci sono comunque ricercatori scettici sul ruolo antropico nell'attuale riscaldamento: essi rappresentano una minoranza nella comunità scientifica, sebbene negli ultimi anni il loro numero abbia conosciuto un significativo aumento. Tra questi "scettici" vi sono, tra gli altri, anche il premio Nobel Kary Mullis, oltre che ex membri dei vari comitati IPCC come i meteorologi Hajo Smit, Philip Lloyd e Roy Spencer, nonché fisici dell'atmosfera come Fred Singer e i climatologi John Christy e William D. Braswell. Le criticità espresse da tali ricercatori sono diverse e variano dalla politicizzazione ed estremizzazione dei documenti conclusivi dell'IPCC fino alle perplessità sulla possibilità di stabilire una relazione tra aumento di CO2 e riscaldamento globale. Alcuni di essi inoltre rimarcano il ruolo di altri fattori naturali sul clima tra cui il principale sarebbe la variazione dell'attività solare ma anche l'effetto dei raggi cosmici, che avrebbe un ruolo sul mutamento climatico. Le loro criticità trovano peraltro riscontro nella diminuzione della temperatura media globale che si è verificata approssimativamente tra il 1940 e il 1976 (D. Rapp, Assessing Climate Change, 2008), nonostante continuasse ad aumentare con la stessa costanza la concentrazione di CO2 nell'atmosfera nel medesimo intervallo di tempo, così come nell'abbassamento della temperatura globale osservato nell'ultimo decennio rispetto al picco del 1998. Viene in particolare messa in dubbio la validità degli attuali modelli climatici utilizzati che non sono in grado di ricostruire efficacemente il clima passato né sono stati in grado di predire il parziale raffreddamento dell'ultimo decennio (Zichichi, 2007). Il grande pubblico vuole sapere se è vero che le attività dell'uomo stanno portando a uno sconvolgimento delle caratteristiche climatiche di questo satellite del Sole. Per venire a capo di questo problema è stato istituito dall'Onu un Comitato permanente composto da oltre mille scienziati di tutte le Nazioni, l'Ipcc (Intergovernmental Panel for Climatic Changes), che ha lavorato per diversi anni portando l'opinione pubblica mondiale a credere che la Scienza ha capito tutto sul clima: presente, passato e futuro. Se fosse vero, il destino climatologico del nostro pianeta dovrebbe essere privo di incertezze e sotto il rigoroso controllo della Scienza. Non è così. La climatologia ha come fondamento matematico una struttura priva di soluzione analitica. Detto in modo semplice, non esiste l'equazione del clima. Detto in termini esatti, i modelli climatologici, sono un sistema di «equazioni differenziali non lineari fortemente accoppiate» che hanno come soluzioni soltanto approssimazioni numeriche per le quali è necessario l'uso di «parametri» liberi. Il padre di questa matematica, John von Neumann, metteva in guardia i suoi giovani collaboratori sull'uso di questi «parametri liberi» dicendo: se mi date quattro parametri liberi vi costruisco un modello matematico che descrive esattamente tutto quello che fa un elefante. Se mi date la libertà di aggiungere un quinto parametro, il modello da me costruito avrà come previsione che l'elefante vola. Stiamo parlando di modelli matematici le cui conseguenze si valutano in miliardi di dollari e coinvolgono la responsabilità di tutti i Governi del mondo. Il grande pubblico vuole sapere quali sono le conclusioni che il rigore scientifico può permettere di derivare dall'analisi delle misure fatte. Ecco le risposte. Esistono due Scuole di Pensiero. Una fa capo a Richard Lindzen del prestigioso Mit, che critica i modelli usati dagli scienziati dell'Ipcc. L'altra fa capo a Ants Leetmaa del Geophysical Fluid Dynamics Laboratory di Princeton, massimo esponente scientifico dell'Ipcc. Le misure dicono che è aumentata e su questo non c'è nulla da discutere. Ma i modelli dell'Ipcc prevedono che, con questo aumento, la temperatura avrebbe dovuto aumentare tre volte più di ciò che si misura. Gli scienziati della scuola di Lindzen sostengono che il mancante «tre volte più» è la prova di quanto siano poco credibili i modelli matematici dell'Ipcc. Gli scienziati dell'Ipcc

Page 39: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

39

rispondono dicendo che il motivo del mancante «tre volte più» risiede in «effetti» non ancora conosciuti, non in errori dei loro modelli. David Douglass, dell'Università di Rochester (Usa), ha fatto una prova usando un modello matematico che simula alcune parti dei modelli dell'Ipcc e ha trovato che una quantità importante (detta fattore «g») risulta essere per Pinatubo tre volte inferiore a quella relativa al Sole. Nei modelli dell'Ipcc i fattori «g» generati da emissioni vulcaniche e dal Sole sono presi eguali. Bisogna lavorare ancora molto e con maggiore rigore per migliorare i modelli matematici finora usati. Un'analisi sulle variazioni climatiche dei periodi trascorsi, da milioni di anni fino a pochi secoli fa, dimostra che i raggi cosmici influiscono molto sul destino del clima, ma nessun modello matematico ha finora introdotto questa variabile. Una critica ai modelli accettata dal massimo esponente dell'Ipcc riguarda la mancanza di «convergenza matematica» delle approssimazioni numeriche usate. Questo equivale a dire che tutte le previsioni potrebbero saltare in aria. Motivo: la matematica dei modelli è molto complicata. Perché? Risposta: è necessario descrivere lo strato d'aria che circonda questo satellite del Sole con tutte le interazioni tra atmosfera, oceani, venti, correnti marine e gas a effetto-serra. E poi ci sono le particelle di polvere, fuliggine e di altre sostanze che vengono continuamente iniettate nell'atmosfera senza che sia possibile un controllo accurato delle loro caratteristiche, sia in termini di quantità sia in termini di qualità. Eppure queste «polveri» hanno un ruolo importante nella termodinamica dell'atmosfera. Non bisogna scoraggiare i costruttori di modelli matematici. Bisogna incoraggiarli a far meglio, senza però avallare come perfettamente valide le loro previsioni, quando esse vanno al di là del prevedibile (Zichichi, 2007). Queste tesi sono state raccolte in un documentario della CBC. Il matematico e fisico teorico Freeman Dyson, che fin dagli anni 70 teorizzava la necessità di attuare il sequestro del carbonio piantando nuovi alberi in aree enormi, nel 2007 ha invece rivalutato la questione del riscaldamento globale affermando che «...l'allarmismo sul riscaldamento globale è fortemente esagerato» dopo aver calcolato che «...il problema dell'anidride carbonica nell'atmosfera è un problema di gestione del terreno, non un problema meteorologico». Secondo lo scienziato gli errori commessi sarebbero legati al fatto che nessun modello matematico atmosferico o oceanico è in grado di predire il modo in cui dovrebbe essere gestita la terra (Dyson, 2007). Infine, sottolinea che dovrebbero avere maggiore priorità altri problemi globali (Spencer, 2007). In particolare scienziato sostengono che il sistema terra ha in sé elementi stabilizzatori che tendono a reagire alle variazioni di temperatura in modo da mantenere quest'ultima costante o quasi. Un caso di questo genere è quello dell'"Ipotesi Iris", " di Richard Lindzen, la quale propone che mentre l'atmosfera tropicale si riscalda, i cirri nuvolosi diminuiscono, consentendo al calore della radiazione infrarossa di uscire dall'atmosfera verso lo spazio (Spencer, 2007). Di contro, come rilevato dallo stesso articolo di Science, la maggioranza degli scienziati concorda sul fatto che sia necessario trovare urgentemente sistemi di contenimento delle emissioni: tra essi, per quanto riguarda l'Italia, vi è il premio Nobel Carlo Rubbia. In quest'ottica il ricorso al solare termodinamico e all'energia nucleare garantirebbe un importante contributo nella diminuzione delle emissioni di gas serra. Molti sono gli scienziati che, pur riconoscendo il ruolo antropico, sono scettici riguardo alle misure adottate per contenere le emissioni e ritengono il protocollo di Kyōto sia troppo blando e poco incisivo in termini di risultati sul clima. Ad aumentare la perplessità vi è il fatto che i principali emettitori di anidride carbonica (USA e Cina) non lo applicheranno sulle proprie economie. È tutt'oggi tema di accese discussioni la reale entità e gli effetti del riscaldamento, dovute al fatto che il clima terrestre non è considerabile come un sistema statico, avendo presentato nella sua storia cambiamenti graduali ma intensi anche senza l'intervento dell'uomo. Sia ai tempi dell'Impero Romano che nel Medioevo le temperature medie sono state leggermente più alte che in altri periodi, permettendo la colonizzazione della Groenlandia e la coltivazione estesa di viti nell'Europa del Nord. Entrambi questi periodi sono stati seguiti da periodi di raffreddamento climatico: a Londra il fiume Tamigi gelava tanto da permetterne il passaggio a cavallo e lo svolgimento di mercati natalizi sulla sua superficie ghiacciata.

Page 40: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

40

Un altro elemento di controversia è la cosiddetta controversia dell'hockey stick in merito alla comparazione tra il riscaldamento attuale e l'optimum climatico medioevale. Il 20 novembre 2009 sono apparsi su internet alcuni file contenenti scambi di mail e modelli climatici provenienti dai server del Centro per la Ricerca Climatica (CRU) dell'Università dell'East Anglia. Questo centro di ricerca è uno dei più influenti tra quelli che studiano i cambiamenti climatici naturali e antropici e molti dei corrispondenti succitati fanno parte del Gruppo intergovernativo sul mutamento climatico. Il contenuto delle mail e l'analisi del software usato dall'istituto per le sue predizioni climatiche hanno destato vaste polemiche non ancora sopite. In particolare hanno suscitato scalpore diversi carteggi in cui ad esempio la CRU, guidata da Phil Jones, si accordava con l'editor di una rivista, per bloccare per circa un anno la pubblicazione di un articolo che denunciava l'inadeguatezza degli attuali modelli climatici nello spiegare la discrepanza tra la temperatura registrata al suolo e quella registrata nella bassa troposfera. Il ritardo era funzionale a permettere la contemporanea pubblicazione di un corposo controarticolo della CRU cui era stata offerta dall'editor una corsia preferenziale. Un altro elemento che ha fatto molto discutere è stata la reticenza dei ricercatori della CRU di fornire i dati su cui costruivano i propri modelli. Pur esistendo un dispositivo normativo che li obbligava a fornirli a chi ne avesse fatto richiesta (FOIA), i ricercatori inglesi li hanno forniti solo a scienziati allineati, negandoli in modo sistematico ai loro avversari, i critici verso il riscaldamento antropico. In ultimo il codice del software rinvenuto appariva al di sotto degli standard e presentava interventi e note in cui erano presenti evidenti manipolazioni ed aggiustamenti dei dati. La successiva inchiesta del governo inglese sull'affidabilità delle ricerche effettuate dagli scienziati della CRU hanno assolto gli scienziati coinvolti dall'accusa di aver alterato i dati o di aver esagerato la minaccia del cambiamento climatico. Diversi scienziati e gli stessi dirigenti dell'IPCC sono stati accusati di conflitti di interesse in quanto collegati a movimenti o aziende che potrebbero beneficiare di incentivi economici o ricadute di immagine positive grazie all'imposizione di restrizioni alle emissioni di CO2.

Considerazioni filosofiche su Mundus La definizione di mondo nella lingua italiana affonda nell'espressione latina locus mundus nella sua accezione di "luogo pulito, chiaro, visibile" ovvero quella porzione della Terra, ma anche del cielo, illuminata dalla luce e, quindi, visibile, identificabile e riconoscibile dall'essere umano. Ma aggiunge anche il valore di "ornamento" e di "elegante" inteso come il "luogo ordinato dove regna la bellezza", insito anche nel greco κόσµος (kósmos) con significato di "ordine, ornamento, bellezza", contrapposto al Χάος (kàos), che rimanda al pensiero pitagorico ellenistico. In un contesto metafisico, esso può anche fare riferimento a ogni cosa realizzata nella realtà del Creato, ovvero l'universo. In un senso più ristretto il mondo sta a significare quanto riferisce o afferisce a una particolare civiltà e a quanto da essa è o fu sviluppato nell'ambito dei suoi confini fisici o metafisici con riferimento alle sue Leggi, alla cultura, agli usi, ai costumi, alla filosofia, all'arte: il "mondo romano", il "mondo ellenistico", il "mondo cristiano", il "mondo arabo" o anche "il mondo d'oggi", inteso come la somma delle cose umane che contraddistinguono i tempi odierni; il mondo dell'Ottocento, il mondo della preistoria. Il mondo è anche, sempre nella medesima accezione, quanto prodotto e significato nei confini di una particolare attività o disciplina umana: il "mondo dell'arte", "della filosofia", "della scienza", "della religione", "del lavoro", "della politica", "della meteorologia", "del calcio", "dell'amore", "dell'urbanistica". Mundus è anche una categoria filosofica che ha assunto storicamente vari significati. Esso indica, nelle varie dottrine filosofiche: • La totalità delle cose esistenti, quale che sia il significato attribuito alla parola esistenza nelle

diverse ermeneutiche. In questo caso il Mondo rappresenta l'oggetto stesso dell'ontologia. • La totalità di un campo o più campi di indagine o di attività o di relazioni, come quando si dice

"Mondo fisico", "Mondo storico" "Mondo degli affari" e così via.

Page 41: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

41

I primi ad utilizzare il concetto di Mundus inteso come totalità furono gli Epicurei, ma solo nella filosofia moderna - ad esempio in Leibniz - questo concetto prevalse soppiantando quello di Mondo come "ordine" introdotto da Pitagora. Mundus va distinto come l'Universo a noi conosciuto, limitato nello spazio e nel tempo e Mundus come universo o «il mondo nella sua totalità». Nel primo caso, Mundus rappresenta l'oggetto di studio di un singolo campo del sapere scientifico, nel secondo caso è l'oggetto di studio dell'ontologia. Dal punto di vista ontologico, il mondo è un infinito potenziale, cui interezza è aperta e non chiusa, in quanto contiene lo sviluppo e ammette la novità, compresa quella che non nasce univocamente dalle condizioni esistenti, ma si costituisce hic et nunc (qui ed ora) nel determinato punto di biforcazione. L'infinito attuale del mondo è sempre limitato da un certo stato e non rappresenta l'unità omnicomprensiva assoluta. Il mondo dell'ontologo è una struttura attributiva (universale, categoriale), che stabilisce l'interezza e la possibilità di sviluppo di un insieme dell'essere dato e dell'essere che potrà essere dato dalla nostra esperienza. Una concezione del mondo, chiamato "filosofia dell'armonia in sviluppo" è l'antropocosmismo. I seguenti enunciati riassumono l'idea portante dell'antropocosmismo: 1. Concezione del mondo è un insieme di idee sullo stato del mondo, uomo e relazione dell'uomo

nei confronti del mondo. 2. Filosofia è riflessione categoriale della concezione del mondo. 3. Per poter motivare una concezione del mondo in grado di offrire una strategia di soluzione dei

problemi globali dell'attualità, la filosofia deve effettuare una sintesi degli aspetti positivi del precedente sviluppo delle correnti filosofiche, centrata non più sulla «lotta», ma sulla reciproca complementarità.

4. Questa sintesi si fonda su: • il principio ontoantropologico: gli attributi dell'uomo sono radicati negli attributi dell'essere

mondiale. • l'ontologia correlativa: esistere in qualità di qualcosa significa essere in relazione con

qualcosa. • l'integrità dell'essere: ogni essere è l'unità delle tre realtà (oggettiva, soggettiva e

trascendentale). Questi tipi della realtà non sono riducibili l'uno ad altro e si distinguono per le modalità di costituzione e per il ruolo svolto nell'integrità dell'essere. In questo modo si possono raccogliere i momenti positivi del materialismo e dell'idealismo soggettivo e oggettivo.

• l'idea dell'armonia in sviluppo come l'ideale dell'attività umana relativamente al mondo e l'uomo stesso: passando sul "filo del rasoio" tra l'assolutizzazione della stabilità e/o della mutabilità, rifiuto dell'orientamento al maximum in favore dell'orientamento all'optimum.

Sulla base di questi concetti vengono costruiti i sistemi categoriali dell'ontologia (dottrina sul mondo) e antropologia (dottrina sull'uomo), come unità della filosofia sociale e antropologia filosofica, gettando le fondamenta per la dottrina sulla relazione sostanziale dell'uomo nei confronti del mondo: teoria della conoscenza, assiologia, etica, estetica. Secondo l'antropocosmismo la concezione del mondo è un sistema di punti di vista sulla realtà oggettiva che costituisce una rappresentazione in termini del rapporto uomo-mondo e del dovuto, in quanto il soggetto di una determinata concezione del mondo vede il mondo e la collocazione dell'uomo in esso dal punto di vista dei propri ideali. Ciò significa che, sebbene la concezione del mondo comprenda le conoscenze (altrimenti rischia di rimanere un desiderio utopico), essa si basa sui valori, ossia le motivazioni interiori ed immutabili per il soggetto, che lo portano alla scelta dei mezzi e dei fini della propria attività.

Pluralità dei mondi La pluralità dei mondi abitati o semplicemente pluralità dei mondi è l'idea che al di fuori della Terra possano esistere numerosi altri mondi - come altri pianeti o altri universi - che ospitano la vita e, in

Page 42: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

42

particolare, esseri intelligenti. Il dibattito filosofico sulla pluralità dei mondi alimenta una speculazione che data almeno dai tempi di Talete (circa 600 a.C.) e che è continuata nel tempo, in forme molteplici, largamente influenzata dalle idee scientifiche di ciascun epoca, fino all'epoca moderna e contemporanea. In età greca il dibattito sulla pluralità dei mondi fu in gran parte filosofico e non conforme alle attuali nozioni di cosmologia. Era un corollario alle nozioni di infinito e la pretesa moltitudine di mondi culle di vita era più vicina al concetto di universi paralleli (sia compresenti nello spazio sia infinitamente ricorrenti nel tempo) che a sistemi solari differenti. Diogene Laerzio riferisce come Anassagora ritenesse la Luna abitata; nella sua cosmologia, i semi, unendosi e separandosi, formavano sistemi planetari simili al nostro, quindi esistevano altri corpi celesti analoghi al Sole, alla Luna e alla Terra. Nella sua opera De rerum natura (circa 70 a.C.), Lucrezio speculava apertamente della possibilità di vita su altri mondi: «Pertanto dobbiamo capire che esistono altri mondi in altre parti dell'Universo, con tipi differenti di uomini e di animali.» Dopo che Talete e il suo allievo Anassimandro ebbero aperto le porte a un universo infinito, da parte degli atomisti venne presa una posizione forte sulla pluralità, in particolare con Leucippo, Democrito ed Epicuro. Per quanto si trattasse di pensatori di spicco, i loro avversari - Platone e Aristotele - ebbero un'influenza maggiore; essi sostenevano che la Terra è unica e che non ci potessero essere altri sistemi di mondi (Darling, 1862), escludendo a priori il concetto in nome di una unità metafisica del mondo (Tanzella-Nitti, 2007). Pensatori cristiani. La presa di posizione di Aristotele, in seguito, combaciò spesso con la concezione dominante nel cristianesimo (Wiker, 2002), che si richiamava all'autorità del pensatore greco. Nel Medioevo venne completamente rigettato l'atomismo, visto come eretico dalla Chiesa, decretando la sconfitta di ogni immagine astronomica alternativa a quella avallata dalla Chiesa stessa. L'idea di pluralità dei mondi tuttavia non venne completamente soppressa e il dibattito continuò nel tempo, largamente influenzato dal contesto storico-scientifico del momento, sebbene la questione fosse trattata solo da pochi pensatori almeno fino all'invenzione del telescopio. L'idea generale nel Medioevo infatti era che le stelle e i pianeti - che apparivano come semplici punti luminosi fissati nel firmamento - non fossero veri e propri corpi fisici. Storicamente, l'unico intervento di un pontefice cristiano sulla questione risale ad una lettera di papa Zaccaria I (741-752), nella quale si menziona che un certo presbitero Virgilio stava insegnando una dottrina sulla pluralità di mondi abitati. Zaccaria riprova l'idea che vi siano abitanti agli antipodi, sulla Luna o sul Sole, per non porre in discussione l'unità del genere umano, rendendo più confusa la comprensione dei rapporti con Dio e con il peccato originale per quegli "uomini" che non fossero discendenti di Adamo. Sul tema della pluralità, il più grande filosofo e teologo tedesco del Medioevo Alberto Magno e il suo allievo Tommaso d'Aquino sostenevano tesi diverse, solo apparentemente in disaccordo fra loro: in realtà il primo sosteneva la plausibilità di altri mondi (altre terre), mentre il secondo negava quella di altri universi (diversi dall'unico creato da Dio). Il vescovo di Parigi Étienne Tempier nel 1277, nella sua lotta contro l'averroismo latino - uno dei luoghi storiografici più dibattuti nello studio del pensiero medievale nel corso del novecento, definizione introdotta da Ernest Renan - e nell'intento di portare un poco di quiete nel mondo intellettuale assai vivace e per questo propenso a litigi e agli scontri, nell'elenco di 219 proposizioni da rigettare poneva anche quella - di tradizione aristotelica - che negava a Dio la possibilità di aver creato o di creare altri mondi diversi dal nostro (art. 34). L'ammissione, dunque, di tale possibilità di "altri mondi" appare indirettamente una condizione per poter operare nell'ambito degli istituti della cultura del tempo (Campanini, 1989; Sorge, 1999; Todisco, 1999). Dante (1265-1321), nel suo Paradiso, descrive l'ascesa del suo narratore attraverso le sfere celesti della Luna, i pianeti da Mercurio a Saturno e di lì alla sfera delle stelle fisse e al cielo degli angeli. Dante presuppone che la luce dei pianeti sia una combinazione di luce impartita dalla volontà divina

Page 43: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

43

e dello splendore dei beati che abitano le sfere. Questi pianeti sono, tuttavia, del tutto eterei: possiedono luce ma nessuna forma fisica o geografia. Il cardinale e teologo Nicola Cusano, nella sua opera più importante De docta ignorantia del 1440, ammetteva la possibilità che Dio potesse avere creato altri mondi, con altri esseri razionali in uno spazio senza limiti. Anche questi esseri razionali, egli scriveva, sono creati ad immagine di Dio ed eredi delle promesse di Cristo. Il sistema geocentrico tolemaico-aristotelico venne infine sfidato e la pluralità ribadita, prima timidamente dai filosofi della tarda Scolastica (la filosofia cristiana medioevale) e da Guglielmo di Occam, poi con maggiore decisione dai seguaci di Niccolò Copernico. Il telescopio apparve a dimostrare che una moltitudine di vita era ragionevole ed era una espressione dell'onnipotenza creatrice di Dio; avversari teologici ancora potenti, nel frattempo, continuarono a insistere che, sebbene la Terra potesse essere stata spostata dal centro del cosmo, era ancora l'unico centro della creazione di Dio. Pensatori come Keplero erano disposti ad ammettere la possibilità della pluralità pur senza sostenerla veramente. Il filosofo e frate domenicano Giordano Bruno - condannato come eretico e messo al rogo nel 1600 - immaginava un universo infinito, popolato da un'infinità di stelle come il Sole, ciascuna circondata da pianeti su taluni dei quali crescono e prosperano esseri intelligenti; anzi, alcuni di questi mondi sono certamente più stupendi del nostro e con abitanti di gran lunga migliori dei terrestri. Non vi sono elementi per affermare che Bruno fu condannato per tale idea (che non è annoverata tra i capi d'accusa della sentenza). Il concetto che i pianeti fossero veri corpi fisici non venne preso seriamente fino a quando Galileo scoprì nel 1609-1610 che la Luna aveva rilievi nella sua superficie, e che gli altri pianeti avrebbero potuto quantomeno essere risolti in dischi. Nel 1543 Niccolò Copernico aveva già postulato che i pianeti orbitano intorno al Sole, come la Terra. La combinazione di questi due concetti condusse al pensiero che i pianeti avrebbero potuto essere "mondi" simili alla Terra. La possibilità di vita extraterrestre era un luogo comune del discorso dotto nel XVII secolo, grazie soprattutto alla diffusione del telescopio di Galileo. Da quando la pluralità di mondi abitati divenne "ragionevolmente possibile", il numero di teologi che si occuparono della questione divenne significativo a partire dal Settecento, specie in ambiente anglosassone, evangelico e anglicano. Ad esempio nel 1760 Vincenzo da Sant'Eraclio esaminò la questione nel suo esame teologico-fisico del sistema di chi sostiene abitati da ragionevoli creature i pianeti. Illuminismo. Nel corso della rivoluzione scientifica e della conseguente età dei lumi, la pluralità dei mondi divenne una possibilità considerata dall'opinione generale. Le Conversazioni sulla pluralità dei mondi (Entretiens sur la pluralité des mondes) di Bernard le Bovier de Fontenelle del 1686 fu un'opera divulgativa importante di questo periodo, che speculava sulla pluralità e descriveva la nuova cosmologia copernicana. In un viaggio fantastico attraverso il sistema solare, l'autore spiegava efficacemente le nuove concezioni scientifiche del tempo e narrava della presenza di civiltà su Mercurio, Venere e Saturno; rimase lo scritto più popolare del genere fino alla fine del XVIII secolo. La pluralità fu inoltre sostenuta da filosofi come John Locke, da astronomi come William Herschel e anche da politici, tra i quali John Adams e Benjamin Franklin. Allorquando un maggiore scetticismo e rigore scientifico vennero applicati alla questione, essa cessò di essere semplicemente una questione filosofica e teologica e venne opportunamente delimitata da astronomia e biologia. L'astronomo francese Camille Flammarion fu uno dei principali sostenitori della pluralità durante la seconda metà del XIX secolo. Il suo primo libro, La pluralità dei mondi abitati (1862), fu un grande successo popolare, con 33 edizioni nei vent'anni successivi alla sua prima pubblicazione. Flammarion fu tra i primi a proporre l'idea che gli esseri extraterrestri fossero davvero alieni, e non semplicemente variazioni delle creature terrestri. Pensiero scientifico moderno. Tra la fine dell'Ottocento e gli inizi del Novecento il dibattito strettamente filosofico-teologico sulla "pluralità dei mondi" venne superato dall'avanzare e

Page 44: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

44

diversificarsi della conoscenza scientifica e le speculazioni sulla vita extraterrestre si focalizzarono sui corpi particolari e osservazioni. Lo scenario filosofico-metafisico della pluralità dei mondi vede una possibile traduzione nel linguaggio della scienza moderna nella teoria della panspermia, proposta agli inizi del Novecento dal chimico e premio Nobel svedese Svante Arrhenius, il quale immaginava che la vita possa essere stata condotta in tutto il cosmo da spore (batteri intrappolati in proteine) presenti nello spazio. Nell'ultimo quarto del XX secolo a riprendere la teoria sono stati agli astronomi Fred Hoyle e Chandra Wickramasinghe. Nel primo decennio del XXI secolo la teoria ha ricevuto alcune prime conferme sperimentali nel ritrovamento, da parte della sonda spaziale Stardust, di tracce di ammine e lunghe catene carboniose nei materiali raccolti dalla cometa Wild 2. Negli anni settanta il premio Nobel Francis Crick per cercare di risolvere il problema del difficile insorgere spontaneo di una vita intelligente sulla Terra propose, con Leslie Orgel, un altro tipo di panspermia, la cosiddetta panspermia guidata (o diretta), che teorizza che le spore siano state seminate in luoghi adatti allo sviluppo della vita da una o più civiltà avanzate diffuse nell'universo (Adamo, 2002), benché in seguito lo stesso Crick abbia dichiarato di essere stato eccessivamente pessimista sulle possibilità di un'origine terrestre della vita (Orgel e Crick, 1993). Fu necessario attendere il 1920, anno del "Great Debate" (grande dibattito), per vedere degli astronomi riuniti a discutere con metodi scientifici sulla pluralità delle galassie, con tesi diverse sostenute da Harlow Shapley e Heber D. Curtis sulla scala dell'universo (Adamo, 2002). Curtis sosteneva che l'Universo fosse composto di molte galassie come la nostra, identificate dagli astronomi di allora come "nebulose a spirale". Shapley sosteneva che queste "nebulose" fossero semplici nubi di gas nelle immediate vicinanze e che l'Universo fosse composto da una sola grande Galassia. Nel modello di Shapley, il nostro Sole era lontano dal centro di questo grande universo/galassia. Curtis poneva al contrario il Sole vicino al centro della nostra galassia relativamente piccola (Curtis, 1920). Il dibattito ebbe una parziale soluzione alla metà degli anni venti, quando l'astronomo Edwin Hubble, utilizzando il più grande telescopio di allora, dimostrò che la distanza della galassia di Andromeda (M31) è superiore anche all'estensione proposta da Shapley della nostra, la Via Lattea, pertanto, quella di Andromeda era una galassia molto simile alla Via Lattea. Nel 1930, ulteriori scoperte portarono all'accettazione del fatto che le dimensioni della Via Lattea erano davvero state molto sottostimate e che il Sole non era vicino al suo centro. Shapley si dimostrò pertanto più corretto riguardo alle dimensioni della nostra Galassia e alla posizione del Sole in essa, mentre Curtis si dimostrò corretto sul fatto che il nostro Universo era composto da molte altre galassie, e che le "nebulose a spirale" erano davvero galassie come la nostra (Curtis, 1920). Il generale ottimismo sulla presenza di vita anche intelligente nell'universo si scontrò nel 1950 e negli anni seguenti con il cosiddetto paradosso di Fermi, attributo al fisico Enrico Fermi, che pone una fondamentale questione empirica: "Dove sono tutti quanti?" (Jones, 1985). Se ci sono così tante civiltà evolute, perché non sono ancora state ricevute prove di vita extraterrestre come trasmissioni di segnali radio, sonde o navi spaziali? Si considera pertanto che probabilmente le civiltà nell'universo siano abbastanza distanti tra di loro (ipotesi della rarità della Terra) e che due civiltà vicine assai difficilmente possano raggiungere nello stesso tempo uno stadio paragonabile di evoluzione, tale da riuscire a comunicare tra di loro. D'altro canto, nel 1961 venne formulata l'Equazione di Drake, che propone un metodo per stimare il numero di civiltà extraterrestri in grado di comunicare esistenti nella nostra galassia, giungendo a risultati piuttosto ottimisti e dando un argomento a favore della ricerca delle intelligenze extraterrestri tramite radiosegnali (progetto SETI); il problema è che i parametri di questa equazione si conoscono con troppa incertezza di misura (i valori correlati all'abitabilità planetaria, per esempio) o il loro valore allo stato attuale non è proprio determinabile empiricamente (non disponiamo di misurazioni statistiche della durata media di una civiltà evoluta), così diventa impossibile dare un numero senza che esso abbia un immenso errore assoluto. Il dibattito storico sulla "pluralità dei mondi" continua dunque ad avere un parallelo moderno: Carl Sagan e Frank Drake, ad esempio, sostenitori del principio di mediocrità,

Page 45: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

45

potrebbero essere considerati "pluralisti", mentre i sostenitori della rarità della Terra dei moderni scettici.

Origine della vita nel mondo Non è noto come e quando la vita comparve sul nostro pianeta. Le prime impronte della vita sono state riconosciute in rocce vecchie di circa 3,8 miliardi di anni e furono lasciate da microscopici organismi viventi che si possono considerare batteri che ricavavano l’energia necessaria ai loro processi vitali dalla trasformazione di composti dello zolfo, prodotti dall’attività vulcanica presente sul fondo degli oceani. Questi microrganismi sono di circa un miliardo di anni più giovani della Terra e non sono stati trovati altri reperti rocciosi più antichi nei quali è stato possibile individuare tracce di vita in epoca anteriore. Più tardi, circa 3 miliardi di anni fa, tali organismi acquistarono la capacità di procurarsi energia direttamente dalla luce solare e di accumulare azoto. Gli organismi più complessi dotati di organizzazione cellulare eucariotica non si sono evoluti fino a circa un miliardo e mezzo di anni fa. Per circa 2 miliardi di anni, pertanto, gli organismi unicellulari procariotici, i batteri, furono le sole forme di vita presenti sul nostro pianeta. Nella figura 26 è possibile osservare ipiù antichi fossili costituiti da batteri provvisti di una struttura molto semplice. Un momento fondamentale nella storia

della vita è rappresentato dalla comparsa dei cianobatteri, o alghe azzurre, che si accrebbero formando sul fondo strutture a strati analoghe a quelle tuttora visibili al largo delle coste australiane. I ciano-batteri si servirono dell’energia della luce solare per ricavare carboidrati dalla combinazione chimica dell’acqua con l’anidride carbonica. Tale processo, noto come fotosintesi, diede come prodotto di scarto l’ossigeno che, da 2,5 e sino a 1,75 miliardi di anni fa, si legò chimicamente col ferro, ossidandolo e formando sul fondo degli oceani depositi a strati di rocce ferrose. Il tappeto di alghe azzurre era anche in

Figura 26 – Sezione ultrasottile al microscopio elettronico dove si osservano le pareti trasversali delimitanti le singole cellule di batteri uniti in catenelle.

grado di intrappolare e creare strati di sostanze quali i fanghi di carbonato di calcio, che formarono le strutture note come stromatoliti. Non appena tutto il ferro fu legato chimicamente, l’ossigeno resosi disponibile cominciò ad accumularsi nell’acqua degli oceani e a diffondersi nell’atmosfera; qui costituì uno strato di ozono, che fece da scudo contro le dannosissime radiazioni ultraviolette provenienti dal sole che, altrimenti, avrebbero reso impossibile lo sviluppo della vita. Solo pochissimi fossili di organismi provengono dal Precambriano, anche dal più recente, e per la maggior parte sono costituiti da piante. Alghe calcaree si diffusero ampiamente nei mari dell’America (Montana, Alberta) e della Rhodesia; nella selce nera precambriana dell’Ontario e nelle rocce del Michigan, Minnesota, Inghilterra e Scozia, sono stati trovati primitivi funghi acquatici e alghe. Gli animali fossili sono rari; è stata scoperta una medusa nel Gran Cañion ed alcune tracce rinvenute nelle rocce del Montana testimoniano una possibile esistenza di esseri viventi. Un maggior numero di fossili sono stati ritrovati in Australia, in depositi recentemente scoperti. Sembra probabile che gli animali del Precambriano avessero il corpo privo di parti di una certa consistenza e perciò scarsamente conservabili sotto forma di fossile; solo in seguito, una grande quantità di differenti specie svilupparono parti ossee ed i loro fossili diventarono più comuni. Il

Page 46: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

46

paesaggio dell’epoca precambriana risulta al principio piuttosto desolato: uno sterile deserto di nuda roccia attorniato da mari poco profondi, da dove hanno inizio le prime forme di vita.

Origine della vita La comprensione della vita e della sua origine sul nostro pianeta è un problema che l’uomo ha sempre, invano, cercato di risolvere ed il notevole sviluppo delle diverse discipline biologiche che si è verificato negli ultimi cento anni ha permesso di affrontare, in modo sperimentale, l’approccio alla problematica. Anticamente, in assenza di conoscenze scientifiche e tecnologiche, la comprensione dell’origine della vita si è dimostrata di una tale difficoltà ed incertezza da ingenerare le più disparate interpretazioni metafisiche e filosofiche. Dalla mitologia classica si deduce questa grande confusione, per cui numerosi personaggi prendevano origine da piante ed animali o addirittura si supponevano vivificati dalla materia inanimata. Inoltre, la complessità della vita è giudicata tale che, come logica conseguenza, soltanto un Essere superiore può averla creata e molti scienziati ancora ammettono, in modo esplicito o implicito, l’esistenza di un creatore intelligente e soprannaturale la cui esistenza non è razionalmente descrivibile e dimostrabile attraverso una ricerca sperimentale. La corrente di pensiero che suppone che le funzioni connesse alla vita siano legate ad una invisibile ed intangibile forza vitale o spirituale è indicata con il termine di vitalismo. Questi punti di vista, che erano sostenuti fino a circa tre secoli addietro, si concretizzano, per esempio, nella teoria della generazione spontanea per la quale piante ed animali potevano prendere anguille e molti altri vermi prendessero origine dal fango o dalla terra umida, che i parassiti derivassero dal sudiciume e le larve della Sarcophaga carnaria, fossero prodotte dalla carne in via di decomposizione, scambiando, così, l’ambiente favorevole con la causa efficiente. L’ipotesi della generazione spontanea si esaurì con Francesco Redi, Lazzaro Spallanzani e Luigi Pasteur, i quali dimostrarono, con metodo sperimentale, rispettivamente per gli insetti, i protozoi ed i batteri, che la nascita degli organismi viventi deriva da altri viventi. L’approccio che consente l’applicazione del metodo scientifico attraverso la sperimentazione e la verifica dei risultati ottenuti è denominato meccanicismo. Va ancora detto, tuttavia, che i principi della teoria della generazione spontanea vengono ancora oggi chiamati in causa, sia pure su basi differenti, per spiegare e sostenere l’origine della vita sul pianeta terra. E’ opinione comune di molti studiosi del problema che, una volta che si è verificata l’evoluzione polimerica dei composti del carbonio, in determinate condizioni ambientali di estremo dinamismo è scoccata, dopo infiniti tentativi, la scintilla dell’evoluzione prebiotica che ha condotto alla comparsa delle prime forme viventi in un mondo senza vita. A tal proposito, numerose sono le ricerche che hanno tentato e cercano di stabilire non tanto i passi dell’evoluzione, dal momento che è impossibile la formulazione di qualunque ricostruzione storica dell’epoca primordiale, ma di stabilire quali possono essere state le caratteristiche fondamentali per la nascita della vita e di ottenere dati sperimentali sui principi fisici che hanno spianato la strada al processo della nascita e della prima evoluzione della vita. La conoscenza della fisica assume un’importanza fondamentale per lo studio dell’energia ed il suo trasferimento in strutture molecolari da cui si sono poi evolute le prime forme viventi. D’altra parte, numerosi scienziati, tra i quali S. Arrhenius, a cavallo dei due secoli precedenti, e F.H Crick, uno degli ideatori, nel 1953, del modello spaziale della doppia elica del DNA, ammettono che la vita non abbia mai avuto una propria origine e che essa sia sempre esistita come proprietà della materia. Particolari molecole e macromolecole provenienti dallo spazio possono moltiplicarsi e colonizzare i corpi celesti soltanto se su questi esistono condizioni ambientali compatibili con la vita intesa come macchina funzionante. L’evoluzione prebiotica I tentativi fatti per imitare la vita sono ancora poca cosa rispetto al tempo di tre miliardi e mezzo di anni, trascorso dalla sua origine. Nessuno può dire di sicuro quali fossero le condizioni atmosferiche o terrestri in quel momento o quale fosse la molecola che oltrepassò la soglia critica tra la chimica organica e la biologia.

Page 47: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

47

Una delle prime interessanti ricerche che ha avuto come obiettivo l’ottenimento di dati sperimentali sulle condizioni ambientali che possono aver determinato l’insorgere della vita è stata quella di S. L. Miller nel 1953, un neolaureato ventitreenne dell’Università di Chicago. Tra i numerosi e fondamentali problemi che bisogna prendere in considerazione nello studio dell’origine della vita, vi è il modo in cui possono essersi formate le prime proteine in un mondo privo di vita. In un apposito pallone, con all’interno due elettrodi, fu introdotta una miscela di metano, ammoniaca, idrogeno ed acqua, prodotti che probabilmente potevano costituire l’atmosfera terrestre primitiva (brodo primordiale). L’acqua del pallone fu portata all’ebollizione e la miscela di gas fu sottoposta per una settimana a continue scariche elettriche. Il vapore acqueo trascina con sé i prodotti che si sono formati dalla ceazione dei tre gas e sono raccolti in un apposito tubo. Dopo 24 ore dall’inizio dell’esperimento, circa la metà del carbonio originariamente presente nel gas metano è trasformato in aminoacidi ed in altre molecole organiche. Nella figura 27 è riportato schematicamente l’esperimento.

Figura 27 – Esperienza di Stanley Miller. Apparecchio originale in cui fu compiuto l’esperimento (A) e corrispondente

schema dell’apparecchio (B): fatto il vuoto nell’apparecchiatura, una miscela di metano, ammoniaca ed idrogeno viene introdotta nel pallone (2); l’acqua del pallone (1) viene portata all’ebollizione ed il vapore viene spinto nel senso delle frecce; nel pallone (2), contenente la miscela di gas che simula l’atmosfera primitiva, viene fatta passare una scarica elettrica per una settimana; il vapore d’acqua trascina con se i prodotti della reazione che subiscono un raffreddamento (3); i composti che si formano sono raccolti nel tubo a U (4), che può essere paragonato ad un oceano primordiale.

In questo modo fu ottenuta la sintesi di parecchi aminoacidi (i mattoni costitutivi delle principali macromolecole biologiche) e non può essere una coincidenza non significativa il fatto che proprio alcuni di questi sono quelli più importanti presenti negli organismi viventi. Numerosi altri studiosi hanno confermato questi esperimenti, con la scoperta che è possibile ottenere aminoacidi anche a seguito della modificazione della miscela iniziale, sostituendo ad esempio il metano con l’ossido di carbonio o l’anidride carbonica. É stata ottenuta la sintesi degli aminoacidi in condizioni abiologiche artificiali attraverso l’impiego di diversi tipi di radiazioni come quelle α, β, γ ed ultraviolette o con l’impiego del calore. Dal grande successo ottenuto con la sintesi artificiale degli aminoacidi con metodi diversi, si deduce che questi composti organici possono essersi formati in molti ambienti terrestri prima della nascita della vita.

Page 48: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

48

Se è stato relativamente semplice la dimostrazione che gli aminoacidi possono prodursi secondo procedimenti abiologici, molto più limitato è risultato l’ottenimento delle proteine per sintesi prebiologica. E’ stato dimostrato che un poli-α-aminoacido, costituito da residui di glicina, poteva ottenersi per condensazione di aminoacetonitrile senza formazione intermedia di aminoacidi ed è stato proposto che questa preproteina possa essere servita come precursore per la sintesi di polimeri molto più complessi, come le proteine. Tuttavia, nonostante sia stato possibile introdurre in questa proteina primordiale altre forme aminoacidiche, i prodotti ottenuti non si sono mai avvicinati alla complessità delle proteine oggi conosciute. Una convinzione che viene condivisa dalla maggior parte dei ricercatori è che la materia deve aver preso vita da una serie di tappe, tutte molto probabili. Questa interpretazione risale a Darwin il quale ipotizzò che la vita abbia avuto inizio quando alcune sostanze attivate dal calore, dalla luce o da scariche elettriche cominciarono a reagire con altre, generando composti organici di complessità via via crescente e suggerì una spiegazione del perché oggi non si possa veder balzare la vita fuori da sostanze inanimate. Un qualsiasi organismo primitivo, scrisse, verrebbe istantaneamente distrutto o assorbito da quelli più evoluti. La versione sostenuta da Miller è anch’essa esprimibile secondo i concetti darwiniani. La vita ebbe inizio quando alcuni composti, oppure una categoria di sostanze fu capace di replicarsi secondo un processo tale da dare origine, di tanto in tanto, a degli errori ereditabili, in conseguenza dei quali sono state prodotte nuove generazioni di molecole capaci di copiare se stesse con maggiore efficienza rispetto a quelle parentali. Negli anni che seguirono il classico esperimento di Miller, le proteine sembrarono essere i migliori candidati al ruolo di prime molecole in grado di autoreplicarsi, poiché erano in grado di riprodursi ed anche di organizzarsi. Un grande sostegno a questa ipotesi prese corpo verso la fine degli anni cinquanta quando S.W. Fox e K. Harada, scaldando a secco miscugli di aminoacidi con acido aspartico ed acido glutammico in sufficiente quantità, riuscirono ad ottenere delle aggregazioni sferiche costituite da polimeri contenenti 18 aminoacidi che si trovano comunemente nelle proteine. Tali polimeri, detti proteinoidi, hanno un elevato peso molecolare, sono digeribili dagli enzimi proteolitici e possiedono deboli proprietà catalitiche. Per tali caratteristiche e per altre ancora, i proteinoidi sono assimilabili qualitativamente alle attuali proteine. I proteinoidi , tuttavia, rimangono tali nel tempo e non riescono ad evolvere o a riprodursi. Diversi altri ricercatori, in particolare C.A. Ponnamperuma dell’Università del Maryland, ripartendo dagli studi di Fox e Harada hanno tentato di ottenere proteine in grado di replicarsi senza gli interventi di acidi nucleici. E’ opinione comune che gli acidi nucleici, come il DNA, siano da ritenersi, attualmente, i più idonei al ruolo di prime molecole capaci di autoreplicazione. La difficoltà è rappresentata dal fatto che il DNA non può svolgere i propri compiti, compresa la formazione di ulteriore DNA, senza la presenza di proteine catalitiche quali gli enzimi. In altre parole, le proteine non possono formarsi senza DNA, ma neppure il DNA può prendere origine senza la presenza di proteine. A questo dilemma dettero una plausibile risposta gli esperimenti condotti, all’inizio degli anno ottanta, dai biologi molecolari T.R. Cech dell’Università del Colorado e S. Altman della Yale University. Era stato ipotizzato che la prima ad autoreplicarsi possa essere stata una molecola di RNA, ma nessuno aveva dimostrato in che modo essa possa efficacemente dar luogo a delle copie di se stessa senza la presenza di enzimi. I due ricercatori scoprirono che certi tipi di RNA potevano comportarsi come enzimi nei confronti di se stessi, tagliandosi in due e ricucendosi nuovamente. Una tale scoperta valse ai due studiosi, nel 1989, il premio Nobel e fu subito colta dai ricercatori interessati al problema dell’origine della vita. Se le molecole di RNA possono agire come enzima, potrebbero anche replicarsi senza l’aiuto delle proteine. Fu introdotto, da W. Gilbert dell’Università di Harvard, il termine “mondo a RNA”, per cui i primi organismi consistevano di semplici molecole di RNA autoreplicantisi. La loro evoluzione indusse la capacità a sintetizzare le proteine, che favorivano una replicazione più rapida, ed i lipidi che potevano formare

Page 49: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

49

una membrana cellulare. Successivamente questi prebiotici ad RNA formarono le prime molecole di DNA che avrebbe costituito un più sicuro deposito di informazione genetica. In laboratorio sono stati riprodotti con successo i diversi momenti di questa evoluzione. J.W. Szostak ed altri ricercatori hanno costruito speciali molecole di RNA capaci di agire come enzimi di restrizione, ossia di tagliare e poi saldare tra loro le diverse molecole, loro stesse incluse, per molte volte di seguito. Altri ricercatori, in particolare M. Eigen del Max Planck Institut di Gottinga, dimostrano sperimentalmente come la molecola di RNA, protagonista in questa vicenda evolutiva dell’origine della vita sul nostro pianeta, sia capace di adattarsi e di evolversi e sia potenzialmente capace di generare nuovi elementi biologici.

Figura 28 – Possibile schema di evoluzione prebiotica attraverso un mondo a RNA.

Questo effetto è stato chiamato “evoluzione diretta” ed è schematicamente rappresentato nella figura 28, dove, attraverso un mondo a RNA, lo stesso acido ribonucleico si forma dal ribosio e da altri composti organici (a), si evolve apprendendo al capacità della replicazione (b), inizia a sintetizzare proteine dotate di capacità catalitiche (c), le quali aiutano il nucleotide a replicarsi ed a sintetizzare nuove proteine caratterizzate da una maggiore efficienza ed a costruire versioni a doppio filamento di se stesso che poi evolveranno in DNA (d), il quale assumerà una posizione preminente nell’utilizzare le molecole di RNA per costruire ulteriori proteine che, a loro volta, aiutano lo stesso DNA a produrre copie di se stesso ed a trasferire l’informazione genetica allo stesso RNA (e). Questo antico mondo prebiotico, formato da molecole di RNA poteva aver rappresentato un ponte tra la chimica dei composti semplici ed i prototipi di quelle cellule complesse, la cui sopravvivenza nel tempo è assicurata dal DNA che costituisce il patrimonio ereditario degli attuali organismi. Queste cellule, secondo alcune testimonianze fossili, sarebbero comparse durante il primo miliardo di anni che seguì la formazione del nostro pianeta, databile intorno a 4,5 miliardi di anni. L’attento esame della teoria del “mondo a RNA” pone il quesito principale di come possa essersi formato il primo RNA. La molecola di RNA ed i suoi componenti sono difficili da sintetizzare in laboratorio, anche nelle migliori condizioni sperimentali e tali difficoltà saranno state ampiamente amplificate in un mondo primordiale, prima dell’origine della vita. In particolare, la sintesi dello zucchero chiave dell’acido ribonucleico, il ribosio, produce tutta una serie di altri zuccheri che potrebbero inibire la replicazione dello stesso RNA. Inoltre, non è chiaro perché il fosforo, un elemento relativamente raro in natura, sia così fortemente rappresentato nella molecola di RNA e DNA. La sintesi in laboratorio di RNA può ottenersi, ma la sua replicazione può avvenire soltanto in determinate condizioni che non è detto che si siano verificate all’epoca dell’origine della vita.

Page 50: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

50

Alcuni ricercatori e tra questi L.E. Orgel ritengono che qualche molecola più semplice e forse del tutto diversa possa aver spianato la strada per la sintesi di RNA. L’identificazione di questo composto non è facile ed un gruppo di ricercatori, coordinato da J. Rebek, lavorando intorno a questo problema ha condotto un’ampia sperimentazione che ha portato, intorno alla metà degli anni novanta, alla sintesi di nuove molecole organiche in grado di autoreplicarsi. Molecole autoreplicanti Le molecole, naturali o sintetiche, riescono a replicarsi quando le loro forme e le loro proprietà chimiche sono dotate di complementarietà. Una molecola, in virtù di come occupa lo spazio e di come i suoi atomi o gruppi atomici sono distribuiti al suo interno, può posizionarsi nei recessi e negli angoli reconditi di un’altra molecola. L’adattamento ottimale tra due molecole complementari dipende così non soltanto dalla struttura spaziale delle molecole, ma anche dai differenti tipi di legami chimici che le tengono unite in gruppi. Questi gruppi o complessi si formano e si dissociano rapidamente, nello spazio di frazioni infinitesime di secondo, in tempi molto brevi ma sufficientemente lunghi da permettere lo svolgimento di reazioni chimiche. Le forze che tengono uniti i complessi, spesse volte più deboli dei legami covalenti che si stabiliscono tra gli atomi nelle molecole, sono costituiti dai legami idrogeno, dalle forze di van der Waals e dall’impilamento aromatico. Il legame a idrogeno o legame polare si forma quando un atomo di idrogeno dotato di una carica parziale positiva è attratto da una atomo di ossigeno che ha una carica parziale negativa. Le forze di van der Waals sono quelle che si stabiliscono tra due molecole, quando gli elettroni di una riescono a spostare quelli dell’altra, creando uno squilibrio di carica e stabilendo tra i due complessi delle forze di attrazione.

Figura 29 – Semplice accoppiamento di due molecole complementari con attrazioni elettrostatiche indicate con i segni

+ e -. Questo tipo di accoppiamento riproduce uno schema abbastanza diffuso di replicazione che è quello preferito dal DNA.

Il terzo tipo di attrazione, quello dell’impilamento aromatico, si stabilisce tra le superfici piane di molecole cicliche aromatiche le quali si avvicinano le une alle altre, ponendo a contatto diretto le loro facce piatte e venendo a stabilire una configurazione più stabile. Si viene a stabilire una repulsione per il solvente in cui tali molecole si trovano, per cui lo stesso solvente non può interporsi tra le superfici molecolari combacianti che risultano così protette, poiché solventi in grado di danneggiarle, acidi, basi, ossidanti in soluzione, non sono in grado di raggiungerle. Allora legami covalenti forti hanno il tempo di congiungere le parti complementari e, talvolta, soltanto due su tre molecole di un complesso formano un legame, mentre la terza serve semplicemente a facilitare il processo. Il ricorso a forme concave e convesse può essere utile per rappresentare schematicamente il tipo di accoppiamento descritto.

Page 51: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

51

Una superficie molecolare concava può riconoscere e circondare il proprio complemento convesso e può fungere da stampo per assemblare la molecola convessa a partire dalle sue parti componenti. Reciprocamente la molecola convessa può costituire uno stampo per riunire e fondere insieme le parti componenti della molecola concava. Si ottiene, in pratica, che ciascuna molecola forma l’altra e questi due tipi di replicazione costituiscono un bi-ciclo. Nella figura 29 è indicata la rappresentazione schematica del riconoscimento molecolare di due frammenti, con proprietà geometriche e chimiche complementari, fra i quali il solvente che s’interpone viene eliminato, con conseguente stabilizzazione del complesso neoformato. Si realizza un accoppiamento di due molecole complementari con attrazioni elettrostatiche dei segni opposti. Nella figura 30 è schematicamente rappresentato un bi-ciclo di replicazione coinvolgente due molecole che hanno forme complementari rappresentate da due elementi in cui il primo si inserisce nel secondo.

Figura 30 – Bi-ciclo di replicazione in cui l’elemento A raccoglie le due parti di B attorno a sé per formare un

complesso; le parti reagiscono tra loro formando un elemento B intero per poi dissociarsi velocemente (ciclo a sinistra). L’elemento B riunisce i frammenti dell’elemento A in modo che le due molecole complementari catalizzano ciascuna la formazione dell’altro (ciclo a destra).

Un modello alternativo di replicazione è rappresentato da due molecole complementari all’interno di un complesso che si uniscono in qualche punto che non si trova sulla superficie di iconoscimento, con la formazione di un’unica molecola di cui un’estremità è complementare dell’altra e l’insieme è complementare di se stesso.

Figura 31 – Se due molecole complementari A e B, anziché inserirsi l’una nell’altra come avviene in un bi-ciclo, si

uniscono in corrispondenza di un altro sito di reazione formando una molecola autocomplementare, ha luogo un’autoreplicazione. La molecola assembla copie delle forme originarie e le trattiene in modo che anch’esse possano reagire per dare origine ad una copia di sé stessa.

Page 52: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

52

Le superfici di riconoscimento alle estremità di questa nuova molecola autocomplementare sono ancora accessibili ad altre molecole e possono catturare, ciascuna, un frammento identico a quello che si trova all’altra estremità. Una volta catturate, queste due nuove componenti non possono più muoversi liberamente e si spostano insieme nello spazio e le probabilità che si uniscano l’una all’altra sono molto potenziate. In tal modo, l’entità autocomplementare produce una copia e, identicamente, molte copie di sé. Non sono necessari enzimi poiché è la stessa molecola che catalizza la propria formazione (figura 31).

Figura 32 – Una molecola autocomplementare (ARNI) riunisce i componenti di cui ha bisogno per replicarsi: una molecola di adeninribosio ed una molecola di naftalenimmide. Gli aloni colorati indicano gli atomi coinvolti nei legami a idrogeno.

É stato proprio questo il metodo che J. Rebek, nel 1994 ha utilizzato in laboratorio per produrre molecole che fossero in grado di reagire l’una con l’altra in modo da richiamare alla mente il mondo vivente. Quando sono associate insieme in un complesso, l’adenina e l’immide si uniscono mediante legame covalente e formano una molecola autocomplementare. L’inserimento tra l’adenina e l’immide di una molecola di naftalene (più voluminosa e più rigida) al posto della catena a legami singoli e di un gruppo di ribosio ciclico, quale unità di collegamento meno flessibile, ha lo scopo di impedire che la lunga catena di atomi di carbonio, quale risultante struttura autocomplementare, si ripiegasse su se stessa senza associarsi ad altre molecole e senza replicarsi. La nuova molecola ottenuta è stata l’adeninribosonaftalenimmide (ARNI) che offrì uno dei primi esempi di autoreplicazione (figura 32).

Page 53: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

53

Tuttavia, l’ARNI non andava incontro ad un accrescimento secondo una curva sigmoide, tipico degli acidi nucleici. Per ottenere ciò si è dovuto inserire una superficie per l’impilamento leggermente più lunga, cioè un bifenile al posto del naftalene per avere così una nuova molecola sintetica che si autoreplica autenticamente, cioè l’adeninribosobifenlimmide (ARBI). L’ARBI, però, pur essendo in grado di replicarsi, è una molecola capace di fare copie soltanto di se stessa, mentre un prodotto ereditabile tipico degli organismi viventi, affinché possa dar luogo ad un processo evolutivo, deve poter sintetizzare di tanto in tanto altre molecole in grado di svolgere una migliore attività duplicativa e dar luogo a variabilità. É stato necessario ottenere, per impostare uno schema che potesse dare un’idea di come la vita ha avuto origine sul nostro pianeta, una molecola che catalizzasse non soltanto la propria formazione, ma anche quella di una molecola di forma simile, tuttavia dotata di una maggiore capacità di replicazione. Rebek e collaboratori hanno progettato molecole in grado di fare “errori”, di subire, in altre parole, delle mutazioni, cioè delle modificazioni strutturali e biochimiche sotto l’azione di cause ambientali, come, per esempio, le radiazioni ultraviolette. Si trattava di simulare in laboratorio quello che probabilmente accadde sul nostro pianeta qualche miliardo di anni fa, quando si verificarono le condizioni che determinarono la nascita della vita. In chimica organica, si verifica un “errore” quando i reagenti non possiedono selettività. Per produrre un’ipotesi più o meno valida sulla nascita della vita bisognava disporre di una molecola che catalizzasse non soltanto la propria formazione, ma anche quella di una molecola di forma simile. Inoltre, almeno una di queste due molecole doveva essere in grado di trasformarsi in un’altra dotata di maggiore capacità di replicazione. Gli studi condotti sul DNA da Watson e Crick dimostrarono l’esistenza di due siti dell’adenina dove si formano i legami a idrogeno: un sito lungo il cosiddetto spigolo di Watson e Crick, che è interessato nella replicazione del DNA, ed un sito presente lungo lo spigolo di Hoogsteen, una parte del DNA che rimane normalmente esposta, anche se a volte è congiunta in eliche triple. Orbene, le immidi di Rebek possono attaccarsi in corrispondenza dell’uno o dell’altro spigolo e se uno degli idrogeni del gruppo amminico (–NH2) dell’adenina, per l’appunto interessato nel legame a idrogeno, viene sostituito da un gruppo di maggiori dimensioni, quest’ultimo blocca l’accesso allo spigolo di Watson e Crick, mentre lo spigolo di Hoogsteen rimane ampiamente accessibile. Infatti, quando un gruppo metilico (–CH3) si unisce all’adenina, si rileva che oltre 85% dei recettori delle immidi si lega lungo lo spigolo di Hoogsteen. Utilizzando il cambiamento della velocità di replicazione, conseguenza del blocco dello spigolo di Watson e Crick, sono state ottenute due diverse molecole di adenina: una con un gruppo benzilossicarbonilico (Z), bloccante nella sintesi delle proteine, ed un’altra con lo stesso gruppo al quale era stato aggiunto un radicale –NO2 (Z–NO2). Ciò allo scopo di assemblare sullo stampo una molecola alterata di adenina ed un’immide, con gruppi bloccanti penzolanti in siti lontani dal punto dove si forma il legame covalente, così che la sintesi potesse svolgersi indipendentemente dall’identità dei gruppi, poiché Z ad un’estremità non sapeva se il gruppo bloccante all’altra estremità poteva essere Z oppure Z-NO2. Prendendo ancora in considerazione la molecola autoreplicante ARBI, questa è stata modificata in ZARBI (con molecole di adenina contenenti il gruppo Z) e ZNARBI (con molecole di adenina provviste del gruppo Z-NO2), due molecole in grado di autoreplicarsi lentamente e di compiere “errori”. Infatti, una catalizza la propria formazione e funge da stampo per l’assemblaggio dell’altra, mentre quest’ultima catalizza la propria formazione e quella della prima. Va anche detto che l’addizione di molti gruppi può portare alla formazione di molecole autoreplicanti in grado di compiere “errori”, tuttavia –NO2 si comporta in modo particolare, poiché è facile rimuoverlo con irraggiamento mediante particolari lunghezze d’onda nell’ultravioletto. Una volta staccato il gruppo Z-NO2, lo spigolo di Watson e Crick diventa accessibile, la nuova molecola diventa più leggera ed è possibile trovare una corrispondenza oltre che lungo lo stesso spigolo anche verso quello di Hoogsteen con un raddoppiamento dell’efficienza di autoreplicazione.

Page 54: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

54

Le ricerche di Rebek e collaboratori hanno così portato alla realizzazione di una versione chimica della mutazione, con un cambiamento strutturale permanente, ereditabile, che influisce sulla capacità di sopravvivenza di un organismo o del suo analogo, come in questo caso, la molecola autoreplicante. Inoltre, come forse avvenne nelle condizioni ambientali all’origine della vita, le modificazioni nella struttura di una molecola autoreplicante possono essere causati da variazioni termiche, acidità, salinità, radiazioni e molti altri fattori. Facendo competere i derivati adeninici contenenti i gruppi Z e Z-NO2 per una quantità limitata del recettore bifenilico complementare, una volta avvenuto il consumo completo del recettore, il recipiente di reazione è stato irradiato con luce ultravioletta della lunghezza d’onda di 350 nm. Dopo alcune ore di irradiazione i gruppi bloccanti Z-NO2 sono stati tutti rimossi, sia dalle molecole autoreplicanti ZNARBI, sia dai loro progenitori adeninici. In altre parole, le molecole ZNARBI sono state tutte trasformate in molecole ARBI e le molecole di adenina contenenti i gruppi Z-NO2

sono diventate semplicemente adenina. Era stata ottenuta una vera mutazione, sollecitata da un cambiamento dell’ambiente. Le molecole ZARBI e la Z-adenina sono rimaste inalterate, ma a seguito dell’aggiunta di altro recettore bifenilico, la molecola ARBI, prodotto dell’irradiazione, diventa loro concorrente e prende il completo e rapido sopravvento nell’utilizzazione delle risorse del sistema, sia perché di forma più affusolata, sia per il vantaggio di replicarsi lungo lo spigolo di Watson e Crick e quello di Hoogsteen, ambedue privi di gruppi bloccanti. Nella figura 33 viene riportato lo schema di ottenimento di molecole autoreplicanti e mutanti, quando una molecola di adenina, provvista di un qualunque gruppo supplementare (ad esempio un gruppo Z o Z-NO2) si unisce con una molecola di bifenilimmide, formando una molecola autocomplementare. Diventa ora possibile proporre una semplice spiegazione evoluzionistica. Supponendo che la molecola ZARBI sia la molecola origine, la sua replicazione comporta necessariamente la presenza di una Z-adenina e del recettore bifenilico. Addizionando acido nitrico, alcune molecole di Z-adenina acquistano il gruppo Z-NO2 e vanno a costituire molecole ZNARBI le quali si autoreplicano con maggiore efficienza del predecessore ZARBI. Con l’irraggiamento di luce ultravioletta si verifica un’altra modificazione per la quale ZNARBI si trasforma nella molecola ARBI più semplice ed efficiente, poiché dimostra la migliore autoreplicazione. La mutazione è il fenomeno più efficiente in quasi tutti i processi evolutivi, ma anche la ricombinazione assume importanza fondamentale nell’evoluzione. Due cromosomi possono dividersi, scambiarsi filamenti di DNA e ricongiungersi, combinando in tal modo anche i loro caratteri. La mutazione induce piccoli singoli cambiamenti, mentre la ricombinazione permette l’ottenimento di ibridi che sono molto diversi dai loro genitori. Orbene, gli studi di Rebek e collaboratori, allo scopo di dimostrare la ricombinazione a livello molecolare, hanno condotto alla produzione di un insieme di molecole autoreplicanti completamente nuovo. Due molecole complementari vengono unite da un legame covalente per dare origine ad una struttura autocomplementare capace di agevolare la propria sintesi. Specificamente, sono state ottenute molecole autoreplicanti basate sull’adenina e sulla timina le quali, introdotte nello stesso reattore, sono state in grado di rimescolare le proprie componenti in nuove combinazioni ed alcuni dei prodotti della ricombinazione, la diamminotriazinxantentimina (DIXT) e l’adeninribosotimina (ART) hanno dimostrato di essere molecole dotate di autoreplicazione, in particolare la seconda è stata la molecola autoreplicante più prolifica mai incontrata, mentre un’altra, la diamminotriazinxantenbifenilimmide (DIXBI) non riusciva affatto a replicarsi, mostrando caratteristiche, per così dire, di sterilità.

Page 55: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

55

Figura 33 – Ottenimento di molecole mutanti autocomplementari a partire da adenina, provvista di un gruppo R, e da

bifenilimmide. R può essere un gruppo Z o Z-NO2, il che dà luogo ad una molecola ZARBI o NZARBI, rispettivamente. Quest’ultima può fissare una molecola di adenina soltanto lungo lo spigolo di Hoogsteen e non con lo spigolo di Watson e Crick, poiché questo è bloccato dal gruppo R, e fonderla con una molecola di bifenilimmide. La molecola NZARBI realizza così la catalisi della propria formazione, oltre a quella della molecola competitrice.

L’efficienza autoreplicante di ART si può spiegare col fatto che questa molecola assomiglia molto ad un segmento di DNA che, probabilmente, è la molecola che si auto replica nel migliore dei modi fra tutte quelle esistenti. Il ribosio di cui è provvista dà luogo ad una configurazione molto utile allo scopo, poiché rende le superfici di riconoscimento parallele le une alle altre. L’elevata affinità dell’adenina per la sua complementare timina permette, inoltre, la formazione di un complesso che si assembla senza difficoltà.

Page 56: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

56

Figura 34 – Rappresentazione di un albero genealogico di molecole capaci di autoreplicazione. L’adenin ribosio e la

bifenilimmide producono l’ARBI e se la soluzione, una sorta di brodo primordiale, contiene anche diamminotriazinxantene e timina avviene la sintesi anche di ART, DIXT e DIXBI. La prima molecola è la più prolifica delle quattro, mentre l’ultima è assolutamente sterile.

L’inefficienza nell’autoreplicazione di DIXBI è legata alla sua conformazione molecolare globale, poiché questa è costituita da due molecole a forma di U, unite da un distanziatore bifenilico rigido che induce una struttura complessiva a forma di C o a S.

Page 57: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

57

Nella prima forma le superfici di riconoscimento sono affacciate all’interno, dove non c’è spazio sufficiente per la formazione di un complesso autoreplicante. Nella seconda forma le superfici di riconoscimento sono molto distanziate, per cui, quando si forma un complesso, le parti reattive sono troppo distanti l’una dall’altra e non riescono ad unirsi tramite un legame covalente. Ciò spiega perché la DIXBI, pur essendo una molecola autocomplementare non è capace di autoreplicazione. Un insieme relativamente piccolo di molecole può, pertanto, originare un vero albero genealogico di molecole dotate della peculiarità dell’autoreplicazione. Nella figura 34 viene rappresentato lo schema di un albero genealogico di molecole autoreplicanti, per cui una soluzione con frammenti molecolari complementari può generare alcune molecole, che si autoreplicano, diverse tra loro. Alcune di queste molecole si autoreplicano con buona efficienza, mentre un ramo dell’albero si distingue per assenza della capacità autoreplicante. Molto interessante sarebbe la reale possibilità che le molecole sterili, frantumate in parti, potessero dar luogo a raggruppamenti chimici che le molecole con elevata capacità di autoreplicazione sarebbero in grado di utilizzare a loro vantaggio.

Dalle molecole autoreplicanti ad un modello di cellula primordiale Un altro evento importante per la comparsa della vita è la costruzione di una membrana capace di operare una separazione spaziale tra gli aggregati di molecole e l’ambiente. In altri termini, le conquiste evolutive, raggiunte da un sistema attraverso apposite sintesi biochimiche, sono vanificate se vi è la libera circolazione delle macromolecole e dei loro prodotti che altrimenti verrebbero condivisi dai loro competitori. La membrana impedisce, inoltre, la penetrazione dall’esterno di molecole in grado di disorganizzare il programma abbozzato, operando da barriera grazie alla sua continuità spaziale ed alla sua particolare struttura fisicochimica. La natura lipoproteica, infatti, rende la membrana altamente isolante ed impermeabile alle molecole idrofile ed a quelle di grosse dimensioni, anche se tale funzione di impermeabilizzazione non è assoluta, nel senso che la stessa membrana,con una certa selettività, può far passare o trasportare molecole appartenenti alle più diverse categorie, presupposto essenziale al mantenimento della vita della cellula. Gli eventi che hanno condotto alla formazione della membrana sono sconosciuti e tra le tante teorie ce n’è una che chiama in causa complessi che sono detti coacervati (figura 35). I coacervati, secondo A.I. Oparin possono ottenersi in laboratorio dissolvendo una proteina in acqua. Se si aggiunge un acido si osserva l’intorbidamento del liquido dovuto alla comparsa di migliaia di piccole goccioline, per l’appunto i coacervati, visibili al microscopio e del diametro compreso tra 0,5 e 2.000 nm, che si formano per l’esistenza sulle macromolecole di cariche elettriche che attirano l’acqua. I coacervati sono delimitati all’esterno da un evidente strato con carattere di membrana, attraverso il quale possono verificarsi scambi in maniera selettiva. Questi modelli di cellule sono molto interessanti, poiché è possibile che simili aggregati selettivi di macromolecole si siano formati negli oceani primordiali. S.W. Fox e S. Yuyama sono riusciti ad ottenere coacervati a partire da proteinoidi, preparati per via termica per immersione in soluzioni saline calde. Fenomeni analoghi, svoltisi in un cosiddetto brodo primordiale, avrebbero permesso la formazione di aggregati colloidali complessi e coacervati, le cui dimensioni avrebbero superato da 200 a 1.000 volte quelle delle singole macromolecole. Queste ultime si sarebbero concentrate in punti localizzati nella massa fluida, fino alla comparsa dell’individualità. Ciascun coacervato o microsfera o micella, gradualmente, avrebbe avuto a disposizione un proprio ambiente interno in cui sarebbero avvenute le principali reazioni chimiche attraverso l’assorbimento, regolato da una membrana rudimentale, di materiale organico dalla soluzione acquosa esterna. Ciascuna goccia, da questo momento, avrebbe seguito un differente cammino: avrebbe potuto evolversi o estinguersi (figura 36).

Page 58: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

58

Figura 35 – Gocce di coacervato, ottenuto mescolando gelatina e gomma arabica (a sinistra) ed

addizionando RNA ad un istone.

Figura 36 – Lo schema di formazione delle microsfere distinto in quattro

tappe. La prima comporta la presenza di gas costituenti l’atmosfera primordiale (anidride carbonica o metano, ammoniaca, acqua ed idrogeno); questi subiscono una condensazione e danno luogo alla seconda tappa con formazione di aminoacidi; un successivo addensamento degli amminoacidi genera la terza tappa con formazione dei proteinoidi; infine la quarta tappa che produce microsfere dotate di membrane limitanti e di gemme. Nelle due microfotografie è possibile osservare delle microsfere (A), ottenute da S.W. Fox, nelle quali è ben visibile la membrana, le quali stanno producendo un processo formativo delle gemme (B).

Page 59: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

59

La successiva evoluzione delle microsfere avrebbe portato ad intravedere i primi passi di un rudimentale metabolismo. Esse si sarebbero orientate verso una graduale organizzazione in semplici sistemi aperti, capaci di scambiare energia e materia mediante processi di diffusione ed osmosi attraverso le membrana, con passaggio preferenziale di alcune molecole come l’acqua, gli zuccheri semplici, gli aminoacidi, prefigurando così i primi processi nutritivi, probabilmente di tipo eterotrofo. Uno degli attributi chiave della vita è una delimitazione rappresentata dalla parete di un contenitore e, specificamente, di una cellula che separi l’interno dall’esterno ed impedisca alle molecole utili di essere portate via, mentre le molecole che non interessano vengono tenute sotto controllo. E’ noto che i virus utilizzano come contenitore un involucro proteico di molte copie identiche di una sola unità proteica. Le unità sono autocomplementari, ma le loro superfici di riconoscimento sono orientate in modo che esse si assemblano in un involucro chiuso. Il capside virale è costituito da molte copie identiche di una proteina, poiché il genoma virale non possiede una quantità di informazioni adeguata per il coinvolgimento di diverse molecole. Rebek e collaboratori hanno pensato ad un progetto molto semplice basato sulla struttura di una palla da tennis. Tagliata lungo la cucitura, essa dà luogo a due metà identiche, le cui estremità convesse sono complementari come forma alle parti centrali concave. E’ stata sintetizzata, in laboratorio, una struttura che imita le forme dei pezzi della palla da tennis e possiede una complementarietà chimica, con unità che si adattano bene tra loro con legami a idrogeno lungo la cucitura (figura 37). Una molecola sintetica è stata creata per adattarsi bene all’interno, tuttavia, altri ostacoli si interpongono affinché possa dimostrarsi sino in fondo che un simile progetto possa aver realmente dato luogo all’origine di una struttura vivente. In particolare, è molto difficile dimostrare come un simile pseudorganismo possa trarre energia e da dove, cioè dalla luce o da altre molecole, ed ancora ci si chiede come possono essere reintegrate le parti componenti delle molecole autoreplicanti ed i loro contenitori.

Figura 37 – Ipotesi della palla da tennis sull’origine della membrana cellulare, vale a dire di un

contenitore autoreplicante di molecole autoreplicanti in grado di separare l’interno dall’esterno. Sulla destra viene indicata la rappresentazione di una molecola che, assemblandosi con la propria gemella, dà origine ad una sfera cava in grado di contenere molecole autoreplicanti.

Questi esperimenti starebbero a significare che le conoscenze dei concetti intimi che stanno alla base della vita e della creazione siano prossimi ad essere svelati, mentre le cose non stanno proprio in questi termini e si può sostenere logicamente che la vita è così complessa che potrebbe essere stata creata da un inventore intelligente e la spiegazione possa essere ancora correlata all’esistenza di un Creatore. Anche se si riuscisse a creare in laboratorio qualcosa dotato di proprietà simili alla vita, rimarrebbe sempre in sospeso la domanda se le cose andarono effettivamente in quel modo. La risposta è molto difficile dal momento che la tettonica delle zolle, il vulcanismo e l’erosione hanno cancellato la maggior parte delle tracce risalenti al primo miliardo di anni del nostro pianeta. Basti pensare che

Page 60: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

60

per stimare l’età della Terra bisogna rivolgersi alle meteoriti che si presume siano relitti dell’era in cui il sistema solare si condensò da una nube di gas e polvere e che il tasso di decadimento radioattivo osservato nelle stesse meteoriti indica che esse, e così la Terra, hanno approssimativamente un’età di 4,5 miliardi di anni. La vita è il prodotto più straordinario scaturito dall’interazione tra sistemi complessi. Lo sviluppo di un organismo vivente è il frutto di una serie articolata di rapporti reciproci che coinvolgono un gran numero di componenti diverse. Queste componenti, o sottosistemi, sono a loro volta costituiti da elementi molecolari più piccoli, ciascuno dei quali, indipendentemente dagli altri, mostra un comportamento dinamico tipico, come, per esempio, la capacità di catalizzare reazioni chimiche. Quando questi elementi sono combinati insieme in unità funzionali più grandi ne scaturiscono nuove ed imprevedibili proprietà come la capacità di accrescersi, di nutrirsi, di moltiplicarsi e di reagire agli stimoli. L’unità funzionale dotata di queste caratteristiche e che rappresenta la chiave per capire come funziona la vita è la cellula ed il fenomeno per il quale diverse componenti si uniscono per formare strutture stabili più grandi, dotate di proprietà inedite rispetto a quelle delle singole componenti, è noto come autoassemblaggio. La cellula è l’unità fondamentale della vita, poiché tutti gli organismi viventi, siano essi batteri, animali o vegetali, sono costituiti da cellule e la loro conoscenza rappresenta la chiave per capire la struttura e la funzione delle piante e degli animali.

Formazione ed evoluzione del Mundus

Le teorie riguardanti la formazione e l'evoluzione del sistema solare sono varie e investono numerose discipline scientifiche, dall'astronomia alla fisica, alla geologia. Molte nei secoli sono state le teorie proposte per l'origine del sistema solare, è tuttavia dal XVIII secolo che iniziano a prendere forma le teorie moderne. L'inizio dell'era spaziale, le immagini di altri pianeti del sistema solare, i progressi nella fisica nucleare e nell'astrofisica hanno contribuito a modellare le attuali teorie sull'origine e sul destino del sistema solare. L'ipotesi sull'origine del sistema solare che attualmente gode di maggior credito è quella della nebulosa, proposta inizialmente da Immanuel Kant nel 1755 e indipendentemente da Pierre-Simon Laplace. La teoria nebulare afferma che il sistema solare ha avuto origine dal collasso gravitazionale di una nube gassosa, la nebulosa solare. Si calcola che la nebulosa avesse un diametro di circa 100 UA e una massa circa 2-3 volte quella del Sole. Si ipotizza che nel tempo una forza interferente (probabilmente una vicina supernova) abbia compresso la nebulosa spingendo materia verso il suo interno ed innescandone il collasso. Durante il collasso la nebulosa avrebbe iniziato a ruotare più rapidamente (secondo la legge di conservazione del momento angolare) ed a riscaldarsi. Col procedere dell'azione della gravità, della pressione, dei campi magnetici e della rotazione la nebulosa si sarebbe appiattita in un disco protoplanetario con una protostella al suo centro in via di contrazione. La teoria prosegue ipotizzando che da questa nube di gas e polveri si formarono i diversi pianeti. Si stima che il sistema solare interno fosse talmente caldo da impedire la condensazione di molecole volatili quali acqua e metano. Vi si formarono pertanto dei planetesimi relativamente piccoli (fino allo 0,6% della massa del disco) e formati principalmente da composti ad alto punto di fusione, quali silicati e metalli. Questi corpi rocciosi si sono evoluti successivamente nei pianeti di tipo terrestre. Più esternamente, oltre la frostline, si svilupparono invece i giganti gassosi Giove e Saturno, mentre Urano e Nettuno catturarono meno gas e si condensarono attorno a nuclei di ghiaccio. Grazie alla loro massa sufficientemente grande i Giganti gassosi hanno trattenuto l'atmosfera originaria sottratta alla nebulosa mentre i pianeti di tipo terrestre l'hanno perduta. La loro atmosfera è frutto di vulcanismo, impatti con altri corpi celesti e, nel caso della Terra, l'evoluzione della vita. Secondo questa teoria, dopo cento milioni di anni la pressione e la densità dell'idrogeno nel centro nella nebulosa divennero grandi a sufficienza per avviare la fusione nucleare nella protostella. Il

Page 61: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

61

vento solare prodotto dal neonato Sole spazzò via i gas e le polveri residui del disco allontanandoli nello spazio interstellare e fermando così il processo di crescita dei pianeti. Uno dei problemi è posto dal momento angolare. Con la concentrazione della grande maggioranza della massa del disco al suo centro, anche il momento angolare avrebbe dovuto concentrarsi allo stesso modo, invece, la velocità di rotazione del Sole è inferiore a quanto previsto dal modello teorico e i pianeti, pur rappresentando meno dell'1% della massa del sistema solare, contribuiscono a oltre il 90% del momento angolare totale. Una possibile spiegazione è che la rotazione del nucleo centrale della nebulosa sia stata rallentata dall'attrito con gas e polveri. Anche i pianeti "al posto sbagliato" sono un problema per il modello a nebulosa. Urano e Nettuno si trovano in una regione in cui la loro formazione è poco probabile, data la ridotta densità della nebulosa a tale distanza dal centro. Si introduce, pertanto, una successiva ipotesi secondo la quale le interazioni tra la nebulosa ed i planetesimi (oggetti rocciosi primordiali alla base della formazione dei pianeti, asteroidi e del sistema solare) avrebbero prodotto dei fenomeni di migrazione planetaria. Anche alcune proprietà dei pianeti pongono problemi. L'ipotesi della nebulosa prevede necessariamente che tutti i pianeti si formino esattamente sul piano dell'eclittica, invece le orbite dei pianeti presentano tutte delle inclinazioni (anche se piccole) rispetto a tale piano. Inoltre, questa prevede che sia i pianeti giganti sia le loro lune, siano tutti allineati al piano dell'eclittica. Al contrario di quanto prevede la teoria, le osservazioni mostrano che la maggior parte dei pianeti giganti ha un'apprezzabile inclinazione assiale. Urano ha addirittura una notevole inclinazione (98°) che fa sì che il pianeta "rotoli" sulla sua orbita. Un ulteriore elemento di incongruenza tra teoria ed osservazione è dato dalle grandi dimensioni della Luna terrestre e le orbite irregolari di altri satelliti che sono incompatibili col modello a nebulosa. Per giustificare la teoria si introduce una ulteriore ipotesi secondo la quale tali discrepanze siano il frutto di avvenimenti accaduti successivamente alla nascita del sistema solare. Stima dell'età. Attraverso misure radiometriche su delle meteoriti alcuni ricercatori hanno stimato che l'età del sistema solare sia di circa 4,5 miliardi di anni. Il nostro sistema solare ha iniziato a formarsi circa 4.5 miliardi di anni fa. I ricercatori hanno stabilito le date analizzando un particolare tipo di meteoriti, le condriti carbonacee, che risalgono alle prime fasi di esistenza del sistema. I ricercatori dell’Università della California a Davis hanno datato le prime fasi della formazione del sistema solare - quando la polvere microscopica interstellare è andata incontro al fenomeno di coalescenza formando masse rocciose - a 4568 milioni di anni fa con una accuratezza di 2,080 milioni di anni. Frederic Moynier, Qing-zhu Yin e Benjamin Jacobsen hanno stabilito le date analizzando un particolare tipo di meteorite, chiamata condrite carbonacea, che rappresenta un antico materiale che risale alla formazione del sistema solare. "La dinamica e la tempistica del primo stadio di formazione planetaria non sono ancora comprese nei dettagli", ha spiegato Yin. "Per questo motivo porre dei limiti temporali al processo potrebbe rappresentare un elemento importante per i modelli fisici che dovrebbero essere utilizzati per spiegare come è cominciato il tutto". Secondo le attuali conoscenze, in una seconda fase dell’evoluzione del sistema solare masse delle dimensioni, grossomodo, di una montagna terrestre si sono aggregate velocemente a formare una ventina di pianeti di dimensioni pari a quelle di Marte. In un terzo e ultimo stadio, questi piccoli pianeti si sono scontrati in una serie di collisioni gigantesche che hanno dato origine ai pianeti così come li conosciamo oggi. La scansione temporale di queste fasi è già stata stimata con sufficiente accuratezza, ma mancava finora una valutazione precisa della fase precedente. In quest’ultimo studio sono state considerate le condriti carbonacee, costituite da globuli di silice e grani di metalli immersi in una matrice di polveri interstellari in cui sono presenti molti composti organici. La matrice è relativamente ricca dell’elemento manganese, mentre i globuli sono ricchi di cromo. Grazie all’analisi di differenti tipi di meteoriti raccolti sulla Terra, i ricercatori hanno trovato

Page 62: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

62

una diretta correlazione tra tre grandezze: il rapporto manganese/cromo, la quantità di matrice nei meteoriti e l’abbondanza di cromo-53. “Queste meteoriti sono diventate grandi abbastanza per riscaldarsi per effetto del decadimento radioattivo e perciò si sono fuse”, ha continuato Yin. “Si tratta in sostanza di sedimenti cosmici.” Misurando la quantità di cromo-53 si è così potuto ricavare la quantità dell’isotopo manganese-53 inizialmente presente, il che ha fornito indicazioni circa la sua età. In seguito si è confrontato tale valore con la quantità di manganese-53 leggermente più giovane contenuta in meteoriti di età nota, chiamate angriti. I ricercatori dell’UC Davis stimano la formazione delle condriti carbonacee a 4568 milioni di anni fa, come riportato in un articolo pubblicato sulla rivista “Astrophysical Journal Letters”. Le più vecchie rocce della Terra sono vecchie circa 3,9 miliardi di anni. Rocce di questa età sono rare dato che la superficie terrestre è soggetta ad un continuo rimodellamento dovuto a erosione, vulcanismo e movimento delle placche continentali. Vista la difficoltà di reperire rocce la cui età sarebbe compatibile, per stimare l’età del sistema solare si studiano le meteoriti che sono precipitate sul pianeta: affinché l’età della terra sia databile con questo metodo è necessario che abbia la medesima età delle rocce spaziali. Diventa quindi necessario ipotizzare che queste si siano formate nelle prime fasi di condensazione della nebulosa solare, contemporaneamente ai pianeti, e che non si siano formate successivamente e non siano pervenute dall’esterno del sistema. Le meteoriti più vecchie (come quella di Canyon Diablo) sono state datate 4,6 miliardi di anni, pertanto questo è un limite inferiore dell’età del sistema solare. Fino alla fine del XX secolo si è pensato che i pianeti occupino oggi orbite simili e vicine a quelle che avevano in origine; questa visione è andata cambiando radicalmente in tempi recenti e si pensa che l’aspetto del sistema solare alle sue origini fosse molto diverso da quello attuale. Si ipotizza oggi che i corpi presenti nel sistema solare interno alla fascia degli asteroidi con massa non inferiore a quella di Mercurio fossero cinque (e non gli attuali quattro), che il sistema solare esterno fosse più compatto di com’è oggi e che la fascia di Kuiper occupasse un’orbita più distante dell’attuale. Gli impatti tra corpi celesti, ancorché rari sulla scala dei tempi della vita umana, sono considerati una parte essenziale dello sviluppo e dell’evoluzione del sistema solare. Oltre all’impatto da cui si ipotizza abbia avuto origine la Luna terrestre, anche il sistema Plutone-Caronte si pensa derivi da un impatto tra oggetti della fascia di Kuiper. Esempi recenti di collisioni sono lo schianto della cometa Shoemaker-Levy 9 su Giove nel 1994 ed il cratere Meteor Crater che si trova in Arizona. Sistema solare interno Stando alle ipotesi che godono attualmente di maggior credito, il sistema solare interno fu teatro di un gigantesco impatto tra la Terra ed un corpo di massa analoga a quella di Marte (il “quinto corpo” cui si è accennato in precedenza, chiamato Theia). Da tale impatto si formò la Luna. Si ipotizza che tale corpo si sia formato in uno dei punti lagrangiani stabili del sistema Terra-Sole (L4 o L5) e sia nel tempo andato alla deriva. Fascia degli asteroidi. Secondo l'ipotesi della nebulosa, la fascia degli asteroidi conteneva inizialmente una quantità di materia più che sufficiente per formare un pianeta, tuttavia i planetesimi che vi si formarono non poterono fondersi in un unico corpo a causa dell'interferenza gravitazionale prodotta da Giove, venutosi a formare prima. Allora come oggi le orbite dei corpi nella fascia degli asteroidi sono in risonanza con Giove, tale risonanza causò la fuga di numerosi planetesimi verso lo spazio esterno e impedì agli altri di consolidarsi in un corpo massiccio. Sempre secondo questa ipotesi gli asteroidi osservati oggi sono i residui dei numerosi planetesimi che si sarebbero formati nelle prime fasi della nascita del sistema solare. L’effetto di Giove avrebbe scalzato dall’orbita la maggior parte della materia contenuta originalmente nell’orbita della fascia e la massa degli asteroidi residui oggi è circa 2,3 × 1021 kg. La perdita di massa sarebbe stato il fattore cruciale che impedì agli oggetti della fascia degli asteroidi di consolidarsi in un pianeta. Gli oggetti di grande massa hanno un campo gravitazionale sufficiente ad impedire la perdita di grandi quantità di materia in seguito ai violenti impatti con altri

Page 63: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

63

corpi celesti (i frammenti ricadono sulla superficie del corpo principale). I corpi più massicci della fascia degli asteroidi non sarebbero stati invece sufficientemente grandi: le collisioni li hanno frantumati ed i frammenti sono sfuggiti alla reciproca attrazione gravitazionale. La prova delle avvenute collisioni è osservabile nelle piccole lune che orbitano attorno agli asteroidi più grandi che possono essere considerati frammenti la cui energia non è stata sufficiente per poterli separare dal corpo principale I pianeti esterni. È opinione diffusa, ogg che la parte esterna del sistema solare sia stata foggiata dalle migrazioni planetarie. Molti degli oggetti della fascia di Kuiper furono scagliati verso il sistema solare interno da Saturno, Urano e Nettuno, mentre Giove spesso spinse questi oggetti fuori dal sistema solare. Come risultato di queste interazioni Giove migrò su orbite più strette verso il Sole, mentre Saturno, Urano e Nettuno migrarono verso l'esterno. Un grande passo per la comprensione di come tali fenomeni abbiano modellato il sistema solare esterno è avvenuto nel 2004, quando nuove simulazioni computerizzate hanno mostrato che se Giove avesse compiuto meno di due rivoluzioni attorno al Sole nel tempo in cui Saturno ne compie una, la migrazione dei due pianeti avrebbe portato a orbite in risonanza 2:1 in cui il periodo di rivoluzione di Giove diventa esattamente la metà di quello di Saturno. Questa risonanza avrebbe avuto inoltre l'effetto di spingere Urano e Nettuno su orbite molto ellittiche, con un 50% di probabilità che questi si scambiassero di posto. Il pianeta più esterno, Nettuno, sarebbe quindi stato spinto ulteriormente verso l'esterno, dentro l'orbita occupata allora dalla fascia di Kuiper. Le interazioni tra i pianeti e la fascia di Kuiper successive allo stabilirsi della risonanza 2:1 tra Giove e Saturno possono spiegare le caratteristiche orbitali e le inclinazioni assiali dei pianeti giganti più esterni. Urano e Saturno occupano le loro posizioni attuali per via della loro reciproca interazione e dell'interazione con Giove, mentre Nettuno occupa l'orbita attuale perché è su quella interagente con la fascia di Kuiper. La dispersione degli oggetti della fascia di Kuiper può spiegare il bombardamento dei corpi del sistema solare interno avvenuto circa 4 miliardi di anni fa. La teoria procede affermando che la fascia di Kuiper fu inizialmente una regione esterna occupata da corpi ghiacciati dalla massa insufficiente per potersi consolidare in un pianeta. In origine il suo bordo interno era appena oltre l'orbita del più esterno tra Urano e Nettuno, all'epoca della loro formazione (probabilmente tra le 15 e 20 UA). Il suo bordo esterno era ad una distanza di circa 30 UA. Gli oggetti della fascia che entrarono nel sistema solare esterno causarono le migrazioni dei pianeti. Da ricordare che in astronomia l'unità astronomica (simbolo ufficiale: UA) è un'unità di misura pari a circa la distanza media tra il pianeta Terra e il Sole (circa 150 milioni di km). Sebbene non rientri tra le unità di misura del Sistema internazionale il suo uso è esteso tra gli astronomi ancora oggi. La risonanza orbitale tra Giove e Saturno spinse Nettuno dentro la fascia di Kuiper, provocando la dispersione di numerosi dei suoi corpi. Molti di essi furono spinti verso l'interno fino ad interagire con la gravità gioviana che spesso li spinse su orbite molto ellittiche e a volte fuori dal sistema solare. Gli oggetti spinti sulle orbite altamente ellittiche sono quelli che formano la nube di Oort. Alcuni oggetti spinti verso l'esterno da Nettuno formano la porzione del "disco disperso" degli oggetti della fascia di Kuiper. Satelliti naturali. La maggior parte dei pianeti del sistema solare possiede delle lune. La loro formazione può spiegarsi con una di tre possibili cause: • formazione contemporanea al pianeta dalla condensazione di un disco proto-planetario (tipica dei

giganti gassosi); • formazione da frammenti da impatto (con un impatto sufficientemente violento ad un angolo

poco profondo); • cattura di un oggetto vicino. I giganti gassosi hanno un sistema di lune interne originatesi dal disco proto-planetario. Lo dimostrano le grandi dimensioni di tali lune e la loro vicinanza al pianeta – queste proprietà sono incompatibili con la cattura, mentre la natura gassosa dei pianeti giganti rende impossibile la

Page 64: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

64

formazione di satelliti per condensazione di frammenti da impatto. Le lune esterne dei giganti gassosi sono invece piccole, con orbite molto ellittiche e dalle varie inclinazioni, questo fa pensare che si tratti di satelliti catturati dal campo gravitazionale del pianeta. Per i pianeti interni e per gli altri corpi del sistema solare, la collisione sembra essere il meccanismo principale per la formazione di satelliti, in cui una parte consistente del materiale planetario, espulsa dalla collisione, finisce in orbita attorno al pianeta e si condensa in una o più lune. La Luna terrestre si pensa essere originata da un evento simile. Dopo la loro formazione, i sistemi satellitari continuano ad evolvere, l’effetto più comune è la modifica dell’orbita dovuta alle forze di marea. L’effetto è dovuto al rigonfiamento che la gravità del satellite crea nell’atmosfera e negli oceani del pianeta (e in misura minore anche nel corpo solido stesso). Se il periodo di rotazione del pianeta è inferiore a quello di rivoluzione della luna, il rigonfiamento precede il satellite e la sua gravità causa un’accelerazione del satellite che tende ad allontanarsi lentamente dal pianeta (è il caso della Luna); se invece la luna orbita più rapidamente di quanto il pianeta ruoti su se stesso o se ha un’orbita retrograda attorno al pianeta, allora il rigonfiamento segue il satellite e ne causa il rallentamento, provocando un restringimento dell’orbita nel tempo. La luna marziana di Fobos sta lentamente avvicinandosi a Marte per questa ragione. Un pianeta può creare a sua volta un rigonfiamento nella superficie del satellite, questo rallenta la rotazione della luna fino a quando il periodo di rotazione e di rivoluzione coincidono. In tal caso, la luna mostrerà al pianeta sempre la stessa faccia. È il caso della Luna terrestre e di molti altri satelliti del sistema solare, tra cui la luna di Giove, Io. Nel caso di Plutone e Caronte, sia il pianeta che il satellite sono legati l’uno all’altro da forze di marea. Futuro. Escludendo qualche fenomeno imprevisto, si ipotizza che il sistema solare come lo conosciamo oggi durerà per altri 5 miliardi di anni circa. Via via che l'idrogeno andrà esaurendosi, la zona interessata dalle reazioni nucleari tenderà a spostarsi progressivamente in una shell più esterna all'ormai inerte nucleo di elio, che invece inizierà a restringersi innalzando la temperatura e incrementando la velocità della fusione nel "guscio" circostante. Ciò farà lentamente crescere il Sole sia in dimensioni che in temperatura superficiale, e perciò anche in splendore. Quando il Sole avrà aumentato gradualmente la propria luminosità di circa il 10% oltre i livelli attuali, tra circa 1 miliardo di anni, l'aumento di radiazione renderà la superficie della Terra inabitabile, mentre la vita potrà ancora resistere negli oceani più profondi. In questo periodo è possibile che la temperatura della superficie di Marte aumenti gradualmente e l'anidride carbonica e l'acqua attualmente congelate sotto la superficie del suolo vengano liberate nell'atmosfera creando un effetto serra in grado di riscaldare il pianeta fino ad ottenere condizioni paragonabili a quelle odierne della Terra e fornendo una futura dimora potenziale per la vita. In circa 3,5 miliardi di anni, quando il Sole avrà incrementato il proprio splendore del 40% rispetto a quello odierno, le condizioni climatiche della Terra saranno simili a quelle che oggi caratterizzano Venere: gli oceani saranno evaporati, l'atmosfera attuale si sarà dispersa, poiché l'alta temperatura avrà aumentato il grado di agitazione termica delle molecole del gas, consentendo loro di raggiungere la velocità di fuga e di conseguenza la vita - nelle forme che oggi conosciamo - sarà impossibile. In circa 5,4 miliardi di anni, il Sole terminerà le riserve di idrogeno, il nucleo di elio proseguirà il collasso, mentre la shell in cui continuerà a venire combusto l'idrogeno spingerà verso l'esterno, facendo dilatare e raffreddare la superficie della nostra stella. Si ricorda che in fisica nucleare e chimica nucleare, il modello nucleare a shell è un modello del nucleo atomico che usa il principio di esclusione di Pauli per descrivere la struttura del nucleo in termini dei livelli energetici. Il primo modello a shell fu proposto da Dmitry Ivanenko (insieme a E. Gapon) e quindi sviluppato nel 1949 a seguito del lavoro indipendente di altri fisici, tra i quali in particolare Eugene Wigner, Maria Goeppert-Mayer e J. Hans D. Jensen ai quali venne congiuntamente assegnato il premio Nobel per la fisica nel 1963 per il loro lavoro in questo campo. Il Sole, riprendendo il discorso, si sarà quindi avviato verso l'instabile fase di gigante rossa, nel corso della quale sarà caratterizzato da immani dimensioni e una relativamente bassa temperatura

Page 65: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

65

fotosferica, caratteristica quest'ultima che gli conferirà un colore tendente al rosso. Il percorso verso tale stadio evolutivo sarà più evidente quando il Sole, tra circa 6 miliardi di anni, avrà triplicato la sua luminosità rispetto al valore attuale e raffreddato la sua superficie fino a circa 5000 °K. A distanza di 11,7-12,21 miliardi d'anni dall'inizio della sua sequenza principale, il Sole manifesterà uno splendore 300 volte quello di oggi ed una temperatura superficiale di 4000 °K. La dilatazione continuerà ad un ritmo più rapido ed in circa 7,59 miliardi di anni da oggi il Sole si sarà espanso fino ad assumere un raggio 256 volte quello attuale (1,2 UA). Con l'espansione del Sole, Mercurio e Venere verranno inghiottiti. Il destino della Terra è possibile che sia il medesimo, anche se ci sono alcuni studi che parlano di un allontanamento dell'orbita terrestre dal Sole a causa della graduale perdita di massa di quest'ultimo. Durante questo periodo è possibile che corpi esterni in orbita attorno a Fascia di Kuiper, su cui è presente ghiaccio, ad esempio Plutone e Caronte, possano raggiungere condizioni ambientali compatibili con quelle richieste dalla vita umana. Successivamente l'elio prodotto nella shell cadrà nel nucleo della stella aumentandone la massa e la densità fino a che la temperatura non raggiungerà i 100 milioni di °K, sufficienti per innescare la fusione dei nuclei di elio in nuclei di carbonio. A questo punto il Sole dovrebbe contrarsi ad una dimensione poco maggiore dell'attuale e consumare il proprio elio per circa altri 100 milioni di anni, in un nucleo avvolto da una sottile shell in cui seguiterà a bruciare l'idrogeno. Tale fase è detta del ramo orizzontale, in riferimento alla forma del diagramma H-R (Hertzsprung-Russell, i due astronomi, Ejnar Hertzsprung e Henry Norris Russell, che verso il 1910 lo idearono indipendentemente; è uno "strumento" teorico che mette in relazione la temperatura effettiva, riportata in ascissa, e la luminosità, riportata in ordinata, delle stelle). All'esaurimento dell'elio nel nucleo, il Sole risponderà con una nuova contrazione, che causerà l'innesco della fusione dell'elio e dell'idrogeno in due shell attorno al nucleo di carbonio. Questo determinerà un ulteriore periodo di espansione in gigante rossa, nel corso del quale la stella consumerà l'elio e l'idrogeno nelle shell più esterne per altri 100 milioni di anni. Entro 8 miliardi di anni il Sole sarà divenuto una gigante rossa AGB con dimensioni circa 100 volte quelle attuali, arrivando eventualmente a lambire l'orbita della Terra e a fagocitare il nostro pianeta. Dopo appena centomila anni, il Sole si lascerà sfuggire la sua rarefatta atmosfera, che avvolgendo il nucleo di carbonio si disperderà lentamente nello spazio interplanetario sotto forma di "supervento", dando origine a quella che viene definita una nebulosa planetaria. Sarà una transizione relativamente tranquilla, niente di paragonabile ad una supernova, dato che la massa del nostro Sole è ampiamente insufficiente per arrivare a quel livello. Se vi saranno ancora terrestri per osservare il fenomeno, registreranno un massiccio incremento del vento solare, ma senza che questo provochi la distruzione del pianeta (se ancora esisterà). Ciò che infine resterà del Sole (il nucleo di carbonio) sarà una nana bianca, un oggetto straordinariamente caldo e denso, di massa circa metà di quella originale, ma compressa in un volume simile a quello della Terra. Visto dalla Terra apparirà come un punto di luce grande poco più di Venere ma dalla luminosità di centinaia di soli (Pogge, 1997; Sackmann, Boothroyd e Kraemer, 1993). Con la morte del Sole verrà indebolita la sua attrazione gravitazionale sugli altri oggetti del sistema solare; le orbite di Marte e degli altri corpi andranno espandendosi. La configurazione finale del sistema solare sarà raggiunta quando il Sole avrà completato la sua trasformazione in nana bianca: se la Terra e Marte esisteranno ancora, sarà su un'orbita approssimativamente simile a quella 1,85 e 2,80 UA. Dopo altri due miliardi di anni il nucleo del Sole, costituito da carbonio, inizierà a cristallizzare trasformandosi in un diamante di dimensioni planetarie, destinato a spegnersi e cessare di splendere in qualche altro miliardo di anni.

Storia delle ipotesi sulla formazione del sistema solare Verso la fine del XIX secolo l'ipotesi della nebulosa di Kant-Laplace fu criticata da James Clerk Maxwell, che sosteneva l'impossibilità della materia di collassare a formare pianeti coesi se la materia fosse stata distribuita in un disco attorno al Sole, per via delle forze indotte dalla rotazione differenziale. Un'altra obiezione era il momento angolare del Sole, inferiore a quanto previsto dal

Page 66: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

66

modello di Kant-Laplace. Per molti decenni la maggior parte degli astronomi preferì l'ipotesi della "mancata collisione", ovvero della formazione dei pianeti a partire dalla materia che una stella in transito vicino al Sole avrebbe perso e avrebbe strappato al Sole per azione reciproca delle loro forze di marea. Furono avanzate obiezioni anche all'ipotesi della "mancata collisione" e, durante gli anni quaranta i modelli matematici a sostegno dell'ipotesi nebulare furono migliorati e convinsero la comunità scientifica. Nella versione modificata si assunse che la massa della protostella fosse maggiore e la discrepanza di momento angolare attribuita alle forze magnetiche, ovvero alle onde di Alfvén, attraverso cui il neonato Sole trasferisce parte del suo momento angolare al disco protoplanetario e ai planetesimi, come osservato avvenire in alcune stelle, per esempio T Tauri. Quest’ultima (T Tau) è una stella variabile situata nella costellazione del Toro, più precisamente nella Regione oscura del Toro ed è il prototipo di una classe di oggetti noti come stelle T Tauri. L'astro fu scoperto nell'ottobre del 1852 da John Russell Hind, vista dalla Terra sembra faccia parte dell'ammasso delle Iadi, non molto distante da ε Tauri, in realtà si trova dietro ad esso, ad una distanza di circa 460 anni luce dalla Terra. Negli anni cinquanta, il russo Immanuil Velikovskij pubblicò il libro "Mondi in collisione", ripreso molto tempo dopo dall'americano John Ackerman. I due ricercatori hanno proposto un controverso modello secondo il quale il sistema solare avrebbe avuto origine da un impatto di enorme potenza sul pianeta Giove. Il modello della nebulosa, riveduto e corretto, fu basato interamente su osservazioni condotte sui corpi del nostro sistema solare, in quanto l'unico conosciuto fino a metà degli anni '90. Non si era del tutto certi della sua applicabilità ad altri sistemi planetari, benché la comunità scientifica fosse ansiosa di verificare il modello a nebulosa trovando nel cosmo altri dischi protoplanetari o persino pianeti extrasolari. Nebulose stellari e dischi protoplanetari sono stati osservati nella nebulosa di Orione e in altre regioni di formazione delle stelle grazie al telescopio spaziale Hubble. Alcuni di questi dischi hanno diametri maggiori di 1000 UA. Nel gennaio 2006 risultano scoperti 180 pianeti extrasolari, che hanno riservato numerose sorprese. Il modello della nebulosa ha dovuto essere rivisto per spiegare le caratteristiche di questi sistemi planetari. Non c'è consenso su come spiegare la formazione degli osservati pianeti giganti su orbite molto vicine alla loro stella ("hot Jupiters"), anche se tra le ipotesi possibili vi sono la migrazione planetaria e il restringimento dell'orbita dovuto ad attrito con i residui del disco protoplanetario. In tempi recenti è stato sviluppato un modello alternativo basato sulla cattura gravitazionale, che nelle intenzioni dei suoi propugnatori dovrebbe spiegare alcune caratteristiche del sistema solare non spiegate dalla teoria della nebulosa

La teoria del Big Bang Per ben comprendere l'essenza di questa teoria è necessario incominciare a trattare questo argomento citando la frase di P. J. E. Peebles, 2001: «L'essenza della teoria del Big Bang sta nel fatto che l'Universo si sta espandendo e raffreddando. Lei noterà che non ho detto nulla riguardo ad una "esplosione". La teoria del Big Bang descrive come il nostro universo evolve, non come esso iniziò». Il Big Bang (letteralmente in inglese "Grande Scoppio") è un modello cosmologico basato sull'idea che l'universo iniziò ad espandersi a velocità elevatissima in un tempo finito, nel passato, a partire da una condizione di volume ridottissimo e temperatura e densità estreme e che questo processo continui tuttora. È il modello predominante nella comunità scientifica ed ha avuto conferme basate su prove e osservazioni astronomiche. Se la distanza fra gli ammassi di galassie sta aumentando oggi a causa dell'espansione, ciò suggerisce che essi fossero più vicini in passato. Andando a ritroso nel tempo, densità e temperatura gradatamente aumentano, arrivando a un istante in cui tali valori tendono all'infinito (mentre il volume tende a zero) e le attuali teorie fisiche non sono più applicabili (singolarità). Negli acceleratori di particelle si studia il comportamento della materia e dell'energia in condizioni

Page 67: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

67

estreme, assai simili a quelle in cui si sarebbe trovato l'universo durante le prime fasi del Big Bang, senza tuttavia la possibilità di esaminare la fisica delle particelle al livello di energia all'inizio dell'espansione. Per tali motivi la teoria non è adeguata a descrivere la condizione iniziale, ma fornisce un'ottima descrizione dell'evoluzione dell'universo da un determinato momento in poi. L'abbondanza degli elementi leggeri come l'idrogeno e l'elio presenti nel cosmo è in buona corrispondenza con i valori previsti in seguito al processo di nucleosintesi, avvenuto nei primi minuti successivi all'istante iniziale (figura 38).

Figura 38 - Secondo il modello del Big Bang, l'universo si espanse da uno stato iniziale estremamente denso e caldo e continua ad espandersi oggi. Una comune analogia spiega che lo spazio stesso si sta espandendo, portando le galassie con sé, come l'uvetta in un panettone che lievita. Questa immagine è una rappresentazione artistica che illustra l'espansione di una porzione di un universo piatto.

Dopo la scoperta della radiazione cosmica di fondo nel 1964, e soprattutto quando il suo spettro, cioè la quantità di radiazione emessa per ogni lunghezza d'onda, risultò corrispondere allo spettro di corpo nero, la maggior parte degli scienziati fu convinta che i dati sperimentali confermavano che un evento simile al Big Bang aveva veramente avuto luogo. La teoria del Big Bang è stata dedotta dalle equazioni della Relatività Generale di Albert Einstein inserendovi opportune ipotesi semplificative, in particolare quella di omogeneità e isotropia dell'Universo. Questa ipotesi, nota come principio cosmologico, generalizzava all'intero universo il principio copernicano. La teoria del Big Bang risultò subito in accordo con la nuova concezione della struttura dell'universo, che proprio negli stessi decenni stava emergendo dall'osservazione astronomica delle nebulose. Nel 1912 Vesto Slipher aveva misurato il primo spostamento verso il rosso, detto "effetto redshift", di una "nebulosa a spirale" e aveva scoperto che la maggior parte di esse si stava allontanando dalla Terra. Egli non colse l'implicazione cosmologica di ciò, infatti in quel periodo erano in corso accesi dibattiti sul fatto se queste nebulose fossero o non fossero degli "universi isola" esterni alla Via Lattea.

Page 68: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

68

Dieci anni dopo, Alexander Friedmann, matematico e cosmologo russo, ricavò le omonime equazioni dalle equazioni della relatività generale di Albert Einstein, mostrando che l'universo doveva essere in espansione, in contrasto con il modello di universo statico sostenuto da Einstein. Egli, però, non comprese che la sua teoria implicava lo spostamento verso il rosso della luce stellare e il suo contributo matematico fu completamente ignorato, sia perché privo di conferme astronomiche sia perché poco noto nel mondo anglosassone (era scritto in tedesco). A partire dal 1924, Edwin Hubble, utilizzando il telescopio Hooker dell'Osservatorio di Monte Wilson, mise a punto una serie di indicatori di distanza, che sono i precursori dell'attuale scala delle distanze cosmiche. Questo gli permise di calcolare la distanza di nebulose a spirale, il cui redshift era già stato misurato (soprattutto da Slipher), e di mostrare che quei sistemi si trovavano ad enormi distanze ed erano in realtà altre galassie. Nel 1927, Georges Lemaître, fisico e sacerdote cattolico belga, sviluppò le equazioni del Big Bang in modo indipendente da Friedmann e ipotizzò che l'allontanamento delle nebulose fosse dovuto all'espansione del cosmo. Egli, infatti, osservò che la proporzionalità fra distanza e spostamento spettrale (oggi nota come legge di Hubble) era parte integrante della teoria ed era confermata dai dati di Slipher e di Hubble. Nel 1931 Lemaître andò oltre e suggerì che l'evidente espansione del cosmo necessita di una sua contrazione andando indietro nel tempo, continuando fino a quando esso non si possa più contrarre ulteriormente, concentrando tutta la massa dell'universo in un singolo punto, "l'atomo primitivo", prima del quale lo spazio e il tempo non esistono. In quell'istante, la struttura spazio-temporale doveva ancora comparire. Nel 1929, Hubble pubblicò la relazione tra la distanza di una galassia e la sua velocità di allontanamento, formulando quella che oggi è conosciuta come la legge di Hubble (Christianson, 1996). Durante gli anni trenta furono proposte altre idee (note come cosmologie non standard) per spiegare le osservazioni di Hubble, come ad esempio il modello di Milne (Milne, 1935), l'universo oscillante, ideata originariamente da Friedmann, ma supportato da Einstein e da Richard Tolman (Tolman, 1987) e l'ipotesi della luce stanca di Fritz Zwicky (Zwicky, 1929). Dopo la seconda guerra mondiale, emersero due differenti teorie cosmologiche: l a prima era la teoria dello stato stazionario di Fred Hoyle, in base alla quale nuova materia doveva essere creata per compensare l'espansione. In questo modello, l'universo è approssimativamente lo stesso in ogni istante di tempo (Hoyle, 1948). L'altra è la teoria del Big Bang di Lemaître, supportata e sviluppata da George Gamow, che introdusse il concetto di nucleo sintesi e che predisse insieme ai suoi colleghi Ralph Alpher e Robert Herman la radiazione cosmica di fondo (Alpher e Herman, 1948). Il termine "Big Bang" fu coniato da Fred Hoyle nel 1949, in senso dispregiativo, riferendosi ad esso come "questa idea del grosso botto" durante una trasmissione radiofonica della BBC Radio del marzo 1949. Successivamente Hoyle diede un valido contributo al tentativo di comprendere il percorso nucleare di formazione degli elementi più pesanti a partire da quelli più leggeri. Inizialmente la comunità scientifica si divise tra queste due teorie; in seguito, grazie al maggior numero di prove sperimentali, fu la seconda teoria ad essere più accettata. La scoperta e la conferma dell'esistenza della radiazione cosmica di fondo a microonde nel 1964 indicarono chiaramente il Big Bang come la migliore teoria sull'origine e sull'evoluzione dell'universo. Le conoscenze in ambito cosmologico includono la comprensione di come le galassie si siano formate nel contesto del Big Bang, la comprensione della fisica dell'universo negli istanti immediatamente successivi alla sua creazione e la conciliazione delle osservazioni con la teoria di base. Importanti passi avanti nella teoria del Big Bang sono stati fatti dalla fine degli anni novanta a seguito di importanti progressi nella tecnologia dei telescopi, nonché dall'analisi di un gran numero di dati provenienti da satelliti come COBE, il telescopio spaziale Hubble e il satellite WMAP, l'erede del satellite COBE ed il secondo satellite di classe media (figura 39). Questo ha fornito ai

Page 69: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

69

cosmologi misure abbastanza precise di molti dei parametri riguardanti il modello del Big Bang e ha permesso di intuire che si sta avendo un'accelerazione dell'espansione dell'universo (figura 39). Dopo il tramonto della teoria dello stato stazionario, quasi nessun scienziato nega il Big Bang come espansione dell'universo, anche se molti ne forniscono interpretazioni diverse (vedi Formulazioni avanzate della teoria). Cronologia del Big Bang. La cronologia del Big Bang è la storia, in parte ipotetica, dei primi istanti di vita dell'Universo, che vanno dalla singolarità gravitazionale all'inizio del tempo, 13,7 miliardi di anni fa, alla formazione dei primi atomi, avvenuta circa 200 secondi dopo il Big Bang. Una singolarità gravitazionale è un punto dello spaziotempo in cui il campo gravitazionale ha tendenza verso un valore infinito, con una densità della materia infinitamente grande. Inoltre, secondo alcune teorie fisiche sull'origine dell'universo, l'universo stesso potrebbe avere avuto inizio con una singolarità gravitazionale (il Big Bang) e potrebbe finire con essa (il Big Crunch). Le principali teorie fisiche che spiegano l'inizio dell'Universo sono l'inflazione (una teoria che ipotizza che l'universo, poco dopo il Big bang, abbia attraversato una fase di espansione estremamente rapida, dovuta a una grande pressione negativa generata da un campo di energia chiamato inflatone) e la teoria GUT (acronimo dell'inglese grand unification theory o grand unified theory. E' la teoria che descrive la combinazione dell'elettromagnetismo, della forza nucleare debole e di quella nucleare forte nella cosiddetta forza elettronucleare). La teoria dell'inflazione ipotizza una rapida ma drastica accelerazione dell'espansione dello spazio pochi istanti dopo la singolarità all'inizio dell'Universo. Questa rapida accelerazione portò il tessuto spaziale ad espandersi da dimensioni miliardi di volte più piccole di quelle di un protone ad una dimensione posta a metà fra una biglia ed un pallone da calcio. Secondo le teorie GUT, l'inflazione potrebbe essere stata causata da una forma di campo di Higgs particolare detta "inflatone". Poco dopo l'inizio dell'Universo, l'inflatone, a causa delle temperature estremamente elevate, oscillava sul potenziale a sombrero (la forma caratteristica dei campi di Higgs) prima di stabilirsi in un punto del campo a bassa energia. L'oscillazione dell'inflatone portò ad una breve ma intensa espansione dello spazio, liberando una quantità di radiazione uniforme (se si escludono le fluttuazioni quantistiche) che portò alla formazione di tutta la materia. Dopo l'espansione, il campo dell'inflatone, con l'abbassarsi della temperatura, si stabilì in un punto a bassa energia. La radiazione liberata dall'inflazione diede origine a coppie particella-antiparticella, che si annichilirono nuovamente in radiazione. Se, in questo modo, la materia si può formare, per poi annichilirsi istantaneamente, cosa portò alla rottura della simmetria CP (in fisica la simmetria CP è una simmetria quasi esatta delle leggi di natura sotto l'effetto dello scambio tra particelle e le corrispondenti antiparticelle; dove C è la coniugazione di carica e P, acronimo di parità, è l'inversione delle coordinate spaziali), tanto evidente nell'Universo attuale? O meglio, perché nell'Universo attuale si trova più materia rispetto all'antimateria? Il modello inflazionario classico spiega questo fenomeno come causato da fluttuazioni quantistiche nell'inflatone, che originarono un leggero eccesso di materia rispetto all'antimateria, oppure come causato da particelle supermassive ipotetiche, ossia i "bosoni X" ed i "bosoni Y". Decadendo, queste particelle diedero origine ad un leggero eccesso di particelle rispetto alle antiparticelle (tale fenomeno è presente anche nei mesoni "K", che violano la simmetria CP).Nei primi istanti dopo l'inizio dell'Universo si ebbe anche una rottura della simmetria SUSY (la supersimmetria, ipotizzata nel contesto delle teorie delle superstringhe), causata probabilmente da fluttuazioni quantistiche. In pratica un sistema o un fenomeno fisico esibisce simmetria CP quando effettuando entrambi i summenzionati scambi si ottiene ancora un sistema o un fenomeno osservato in Natura: questa simmetria è considerata più fondamentale delle singole C e P, che risultano essere grossolanamente violate in tutti i fenomeni fisici dovuti all'interazione debole. A titolo di esempio un neutrino esiste in natura (in ottima approssimazione) con un'unica direzione possibile per il proprio spin: sotto effetto della coniugazione di carica, si otterrebbe un anti-neutrino con la stessa direzione di spin, che in natura non esiste; analogamente, sotto effetto dell'operazione di parità, si otterrebbe un neutrino con direzione relativa opposta dello spin, anch'esso non osservato

Page 70: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

70

in natura; effettuando entrambe le operazioni, si ha un anti-neutrino con spin invertito, che effettivamente esiste.

Figura 39 – Rappresentazione artistica del satellite WMAP, che sta raccogliendo dati per aiutare gli scienziati nella

comprensione del Big Bang, avvenuto 13,7 miliardi di anni fa, e dell’espansione dell’Universo.

La differenziazione delle quattro interazioni fondamentali avvenuta all'inizio dell'Universo, secondo le teorie GUT, è dovuta alle oscillazioni di diverse forme di campi di Higgs. Con le alte temperature, i bosoni di Higgs oscillavano sul potenziale a sombrero prima di stabilirsi su un punto energetico fisso. La separazione della gravità dall'insieme delle altre forze più intense, che prende il nome di "forza unificata", avvenne con un meccanismo non ancora ipotizzato. La separazione della forza forte dalla forza elettrodebole avvenne a causa di oscillazioni di un campo di Higgs particolare, il campo di Higgs forte, contemporaneamente all'inflazione. La separazione fra la forza debole e quella elettromagnetica, infine, fu causata dall'oscillazione del campo di Higgs elettrodebole (quello responsabile della massa delle particelle). La temperatura necessaria alla separazione di ciascuna interazione sono, rispettivamente, per le tre forze più intense, 1027 kelvin (10 seguito da 27 zeri, pari ad un miliardo di miliardi di miliardi di gradi Celsius) per la forza forte, e, per l'interazione elettrodebole, 10.000.000.000.000.000 kelvin (pari a dieci milioni di miliardi di gradi Celsius). Con il drastico calo delle temperature che accompagnava l'espansione dell'Universo, le forze fondamentali, o, più precisamente, i rispettivi campi di Higgs, si "congelarono" rimanendo immutate fino all'Universo attuale. I cosmologi hanno suddiviso la "storia" dell'Universo in 9 ere, che variano da poche frazioni di secondo a miliardi di anni. Ciascuna di queste ere è caratterizzata da un avvenimento particolare - che può essere la separazione di una forza fondamentale dalle altre, oppure la formazione dei primi nuclei (figura 39). 1. Era di Planck.

Nessuna delle attuali teorie fisiche può descrivere correttamente cosa sia accaduto nell'era di Planck, che prende il nome dal fisico tedesco Max Planck e diverse teorie forniscono diverse previsioni. In questa era le quattro forze fondamentali – elettromagnetica, nucleare debole,

Page 71: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

71

nucleare forte e gravità – hanno la stessa intensità, e sono forse unificate in una sola forza fondamentale. La teoria di Einstein della relatività generale prevede che l'universo abbia avuto inizio con una singolarità gravitazionale, caratterizzata da valori infiniti di temperatura e densità, un punto adimensionale. In tutte le applicazioni della matematica a problemi fisici il verificarsi di una singolarità matematica identifica regioni del dominio in cui la teoria fisica perde di validità per il presentarsi di fenomeni aggiuntivi non più trascurabili; in questo caso, come detto sopra, i fenomeni gravitazionali sono alterati dagli effetti quantistici. I fisici sperano che le teorie della gravità quantistica, come la teoria delle stringhe e la gravità quantistica a loop portino ad una migliore comprensione di questa fase.

2. Era di grande unificazione Diametro dell'Universo: ? Temperatura: 1030 K Tempo dopo il Big Bang: 1 decimiliardesimo di miliardesimo di yoctosecondo (10-43 secondi) Durante questa era pre-inflazionaria, iniziata 1 decimiliardesimo di miliardesimo di yoctosecondo (pari a 10-43 secondi secondi) dopo il Big Bang, le forze fondamentali, eccetto la gravità, erano unite in una sola "superforza" costituita dalla forza elettromagnetica e dalle forze nucleari debole e forte.

3. Era dell'inflazione Diametro dell'Universo: 10-26 metri Temperatura: 1027 K, pari ad un miliardo di miliardi di miliardi di °C Tempo dopo il Big Bang: 1 centimiliardesimo di yoctosecondo (10-35 secondi) Nell'era dell'inflazione, le oscillazioni dell'inflatone diedero origine ad una rapida ma drastica espansione dell'Universo. L'energia sotto forma di radiazione liberata da questo particolare campo di Higgs diede origine a coppie particella-antiparticella, che si annichilirono istantaneamente. Una fluttuazione quantistica, tuttavia, potrebbe aver portato ad un leggero eccesso di particelle rispetto alle antiparticelle, eccesso responsabile della materia presente nell'Universo attuale.

4. Era elettrodebole Diametro dell'Universo: 10 metri (l'Universo è diventato enormemente più grande a causa dell'inflazione) Temperatura: 1027 K, pari ad un miliardo di miliardi di miliardi di °C Tempo dopo il Big Bang: un centimilionesimo di yoctosecondo (10-32 secondi) In quest'era, il campo di Higgs forte aveva già separato l'interazione forte da quella elettrodebole, determinando la formazione di gluoni e di coppie quark-antiquark dalla radiazione liberatasi in seguito all'inflazione. Si ipotizza che i bosoni X e Y (se mai sono esistiti) siano comparsi in questa era. Fine dell'era elettrodebole: Diametro dell'Universo: 1012 metri (un miliardo di chilometri) Temperatura: 1015 K (pari ad un milione di miliardi di gradi Celsius) Tempo dopo il Big Bang: 1 nanosecondo, ossia 10-9 secondi (un miliardesimo di secondo) L'era elettrodebole durò circa 10-27 secondi. La sua fine fu caratterizzata dalla separazione della forza elettrodebole in interazione debole ed elettromagnetica, fenomeno determinato dalle oscillazioni del campo di Higgs elettrodebole. A tale separazione conseguì l'assunzione di massa dei bosoni deboli, dei quark e dei leptoni.

5. Era degli adroni Diametro dell'Universo: 100 miliardi di chilometri Temperatura: 1013 K (pari a circa 10.000 miliardi di gradi Celsius) Tempo dopo il Big Bang: 1 microsecondo (10-6 secondi, un milionesimo di secondo) Durante l'era degli adroni, l'energia termica divenne sufficientemente bassa da consentire l'interazione fra quark mediante la forza forte (l'interazione forte, così come le altre interazioni,

Page 72: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

72

ha una caratteristica particolare: cala di intensità con l'aumento dell'energia). I quark e gli antiquark si legarono così a formare i primi adroni.

6. Era dei leptoni Diametro dell'universo: non noto Temperatura: 1012 K Tempo dopo il Big Bang: 10-4 secondi dal Big-Bang Arrivati a questo punto della storia dell'universo la temperatura è di circa 1 trilione di gradi:

1 secondo dopo il Big-Bang: la temperatura è di 10 miliardi di gradi Celsius; 100 secondi dopo il Big-Bang: la temperatura è di 1 miliardo di gradi.

7. Era della nucleosintesi Diametro dell'Universo: più di 1000 miliardi di chilometri Temperatura: 1010 kelvin Tempo dopo il Big Bang: 100 secondi In quest'era, la maggior parte dei neutroni decaddero in protoni. L'energia si abbassò tanto da permettere ai nucleoni di legarsi attraverso pioni formando così i primi nuclei di elio-4 e di deuterio.

8. Era dell'opacità Diametro dell'Universo: fra 10 e 10.000 anni luce Temperatura: 108 kelvin Tempo dopo il Big Bang: 200 secondi. In quest'era, l'energia calò abbastanza da permettere la manifestazione dell'interazione elettromagnetica. Le particelle cariche interagivano fra loro e con i fotoni rimasti dall'inflazione e dall'annichilazione delle coppie particella-antiparticella. In quest'era si ebbe la formazione dei primi atomi, soprattutto di idrogeno, elio, litio ed isotopi dell'idrogeno. Alla fine dell'era dell'opacità, la temperatura calò abbastanza da ridurre la produzione di coppie quark-antiquark o leptone-antileptone di generazioni massicce (vedi Modello Standard).

9. Era della materia (Universo attuale) Diametro dell'Universo: 100 milioni di anni luce Temperatura: 3000 kelvin Tempo dopo il Big Bang: 300 000 anni Nell'era della materia, i fotoni rimasti dall'era dell'inflazione si diffusero in tutto l'Universo, formando la radiazione cosmica di fondo presente anche nell'Universo attuale. L'intera materia era per lo più costituita da atomi e da leptoni di prima generazione. Tutte le particelle massive che, con le alte temperature, continuamente si formavano a coppie particella-antiparticella dalla radiazione erano già decadute in particelle leggere di prima generazione, quali elettroni e neutrini e, fra gli adroni, neutroni e protoni. L'era della materia perdura ancora da circa 13,7 miliardi di anni.

In conclusione, vediamo qual’è l’epoca della formazione delle prime stelle e dell'accelerazione dell'energia. La formazione delle prime stelle. Le irregolarità nella distribuzione della materia da parte dell'inflatone furono causate da fluttuazioni quantistiche in questo particolare campo di Higgs. Verso l'inizio dell'era della materia, le irregolarità si manifestavano soprattutto in zone di materia più condensate rispetto ad altre. La forza gravitazionale agì su queste irregolarità formando agglomerati di materia sempre maggiori: ciò portò alla formazione delle prime stelle, 200 milioni di anni dopo il Big Bang, e delle prime galassie attive (per lo più quasar). Gli astrofisici ipotizzano che le prime stelle formatesi nell'Universo fossero ben più massicce di quelle attuali. I processi di fusione nucleare innescatesi nel nucleo di queste stelle portò alla formazione di elementi pesanti come l'ossigeno, il carbonio, il neon, il ferro e l'azoto, che si diffusero nello spazio interstellare in seguito alle esplosioni delle stelle in supernovae, con la conseguente formazione di buchi neri. Con la loro esplosione, le stelle massicce formatesi 200 milioni di anni fa, dette "megastelle" diedero origine ad una radiazione elettromagnetica particolarmente intensa, responsabile, probabilmente,

Page 73: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

73

della ionizzazione degli atomi di idrogeno che si riscontra fra gli ammassi di galassie nell'Universo attuale. L'accelerazione dell'energia oscura. Circa 7 miliardi di anni dopo il Big Bang, l'Universo, che stava rallentando la sua espansione a causa della forza gravitazionale, subì un'accelerazione nella sua espansione, tuttora rilevabile nell'Universo attuale. Questa accelerazione potrebbe essere stata causata dall'energia oscura, la forza lambda anti-gravitazionale. Questa porterà probabilmente l'Universo a terminare in un Big Rip o Big Freeze. Il Big Rip o grande strappo è un'ipotesi cosmologica sul destino ultimo dell'universo. L'ipotesi si inquadra nella teoria del Big Bang e prevede una continua accelerazione dell'espansione dell'Universo. Questo modello è stato sviluppato in seguito ad osservazioni di supernovae di tipo Ia (originata dall'esplosione di una nana bianca, cioè di una stella, di massa medio-piccola, che ha completato il suo ciclo vitale ed al cui interno la fusione nucleare è cessata) in galassie lontane (Goldhaber e Perlmutter, 1998; Garnavich et al., 1998). Queste osservazioni hanno appunto rivelato come l'espansione dell'Universo stia accelerando, un risultato inizialmente sorprendente per molti cosmologi. Il valore da considerare è il rapporto tra la pressione dell'energia oscura e la sua densità. Se w < −1 l'Universo verrà alla fine frantumato. Il conto alla rovescia sarebbe catastrofico: prima le galassie verrebbero separate le une dalle altre, poi la gravità sarebbe troppo debole per tenerle assieme e le stelle si separerebbero. Circa tre mesi prima della fine, i pianeti si separerebbero dalle stelle. Negli ultimi minuti, le stelle e i pianeti sarebbero disintegrati, e gli atomi verrebbero distrutti una frazione di secondo prima della fine. In seguito, l'Universo sarebbe ridotto ad una serie di particelle elementari isolate le une dalle altre, in cui ogni attività sarebbe impossibile. Poiché ogni particella sarebbe impossibilitata a vedere le altre, in un certo senso l'Universo osservabile si ridurrebbe effettivamente a zero. Alcuni studi hanno mostrato che tali modelli sono compatibili con le osservazioni ed, anzi, in alcuni casi addirittura in maggior accordo con i dati rispetto ad altri che prevedono un arresto dell'accelerazione cosmica; tale affermazione è discussa. Secondo alcuni, la viscosità dell'universo gioca un ruolo in questo. Il Big Freeze è la morte termica (o morte entropica) è un possibile stato finale dell'universo in cui non vi è più energia libera per compiere lavoro. In termini fisici, l'entropia raggiunge il massimo valore, e l'universo è in equilibrio termodinamico. Discussa è la possibilità di esistenza dopo il Big Rip o il Big Freeze, vi sono diverse ipotesi: • resteranno i resti della materia e sparsi fotoni, privi di massa; • esisteranno comunque universi paralleli (Kaku, 2006); • il tempo si fermerà e si annulleranno le dimensioni e le distanze; • si genererà un nuovo Big Bang nel nostro universo, a causa della bassissima entropia dopo il un

periodo glaciale. L'ultima ipotesi è quella più suggestiva e comprende due possibilità, rientranti nelle varie teorie dell'universo oscillante o modello ciclico. In cosmologia, una precedente ipotesi sul destino dell'Universo è il Big Crunch. Tale ipotesi sostiene che l'Universo smetterà di espandersi ed inizierà a collassare su se stesso. È esattamente simmetrico al Big Bang. Tale ipotesi sostiene che se la forza di gravità di tutta la materia ed energia nell'orizzonte osservabile è abbastanza grande, allora essa può fermare l'espansione dell'Universo, e in seguito invertirla. L'Universo si contrarrebbe, e tutta la materia e l'energia verrebbero compresse in una singolarità gravitazionale. È impossibile dire cosa succederebbe in seguito, perché il tempo stesso si fermerebbe in questa singolarità. La possibilità di conciliare il Big Crunch con il secondo principio della termodinamica attende ancora una spiegazione. Non è neppure chiaro cosa succederebbe negli istanti immediatamente precedenti. L'Universo non sarebbe esattamente simmetrico rispetto al momento della sua nascita, perché nel frattempo le stelle hanno emesso una notevole quantità di energia. Quest'energia in più sembra però trascurabile rispetto al totale, e l'unica differenza sarebbe la presenza di numerosi buchi neri di varie dimensioni,

Page 74: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

74

che tenderebbero a crescere velocemente via via che la materia verrebbe introdotta a forza nel loro interno dalla pressione esterna. Per poter descrivere compiutamente gli eventi finali occorrerebbe una teoria della gravità quantistica, verso la quale si orienta molto lavoro teorico ma che è ancora da scoprire. Perché questo accada, la densità media della materia-energia presente nell'Universo deve essere superiore ad un certo valore critico, solitamente indicato con Ω (e stimato in 3 protoni al metro cubo o energia equivalente), talché la curvatura complessiva dello spaziotempo risulti positiva, come la superficie di una sfera. Se la densità è invece minore del valore della densità critica, la curvatura è negativa (come una superficie iperbolica, simile ad una sella), e la gravità sarebbe troppo debole per poter contrastare l'espansione. Quest'ultima sarebbe rallentata, ma non fermata. Questi due casi, e il caso limite intermedio in cui la densità è esattamente uguale a quella critica, sono chiamati i 3 modelli di Friedmann. Tutti e tre assumono che la costante cosmologica sia uguale a zero.

Costellazioni Prima di concludere è utile trattare questo argomento, poiché le costellazioni rappresentano un ramo del clade Mundus. Una costellazione è ognuna delle 88 parti in cui la sfera celeste è convenzionalmente suddivisa allo scopo di mappare le stelle. I raggruppamenti così formati sono delle entità esclusivamente prospettiche a cui la moderna astronomia non riconosce alcun reale significato. Infatti, nello spazio tridimensionale le stelle che formano una stessa costellazione possono essere separate anche da distanze enormi, così come diverse possono essere le dimensioni e la luminosità. Viceversa, due o più stelle, che sulla sfera celeste appaiono magari lontanissime tra di loro, nello spazio tridimensionale possono essere al contrario separate da distanze minori di quelle che le separano dalle altre stelle della propria costellazione. Durante un ipotetico viaggio interstellare non riusciremmo più ad identificare alcuna costellazione e ogni sosta vicino a qualunque stella ce ne farebbe identificare semmai di nuove, visibili solo da tale nuova prospettiva. Nel corso del tempo sono state definite costellazioni differenti, alcune sono state aggiunte, altre sono state unite tra di loro. L'uomo eccelle nel trovare schemi regolari (pareidolia) e attraverso la storia ha raggruppato le stelle che appaiono vicine in costellazioni. Una costellazione "ufficiosa", ossia un allineamento di stelle che formano semplici figure geometriche, si chiama asterismo. Quella delle costellazioni, sopra riferito, è una ramificazione del clade Mundus. L'Unione Astronomica Internazionale (UAI) divide il cielo in 88 costellazioni ufficiali con confini precisi, di modo che ogni punto della sfera celeste appartenga ad una ed una sola costellazione. Queste sono basate principalmente sulle costellazioni della tradizione dell'antica Grecia, tramandate attraverso il Medioevo. Le 88 costellazioni si dividono, secondo un criterio storico e di importanza, in tre gruppi: le 12 costellazioni dello Zodiaco, che si trovano lungo l'eclittica, e vengono quindi percorse dal Sole nel suo moto apparente sulla volta celeste durante l'anno; le altre 36 costellazioni elencate da Tolomeo nel suo Almagesto, oggi diventate 38 con la suddivisione di una di esse (la Nave Argo) in tre costellazioni distinte; le rimanenti 38 costellazioni, definite in epoca moderna (a partire dal 1600 circa) negli spazi vuoti tra le costellazioni tolemaiche e nell'emisfero meridionale. Queste nuove costellazioni sono generalmente composte da stelle poco brillanti (quelle brillanti erano, ovviamente, già state incluse nelle costellazioni dello Zodiaco e di Tolomeo), e possono essere difficili da osservare dalle città. Inoltre si dividono anche in base alla loro posizione nel cielo: • 18 costellazioni boreali (settentrionali); • 34 costellazioni equatoriali; • 36 costellazioni australi (meridionali). Segue l’elenco delle 88 costellazioni note (tabella 2).

Page 75: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

75

Tabella 2 – Elenco delle costellazioni note, espresse con i nomi in italiano e latino.

N. Nome italiano Nome latino Sigla * 1 Acquario Aquarius Thales, VI secolo aC Z E 2 Altare Ara T A 3 Andromeda Andromeda T B 4 Aquila Aquila T E 5 Ariete Aries Cleostratus 6 ° secolo aC Z E 6 Auriga Auriga T B 7 Balena Cetus T E 8 Bilancia Libra Z E 9 Boote Boötes T E

10 Bulino Caelum N.L. de Lacaille 1763 M A 11 Bussola Pyxis N.L. de Lacaille 1763 M A 12 Camaleonte Chamaeleon P.D.Keyser et F. de Houtman, 1595-1597 ex J.Bayer 1603 M A 13 Cancro Cancer Z E 14 Cane maggiore Canis Maior T E 15 Cane minore Canis Minor T E 16 Cani da caccia Canes Venatici Hevelius 1690 M B 17 Carena Carina N.L. de Lacaille 1763 T A 18 Capricorno Capricornus Z E 19 Cassiopea Cassiopeia T B 20 Cavallino Equuleus T E 21 Cefeo Cepheus T B 22 Centauro Centaurus T A 23 Chioma di Berenice Coma Berenices T. Brahe 1602 M E 24 Cigno Cygnus T B 25 Colomba Columba A. Royer 1679 M A 26 Compasso Circinus N.L. de Lacaille 1763 M A 27 Corona australe Corona Australis T A 28 Corona boreale Corona Borealis T B 29 Corvo Corvus T E 30 Cratere Crater T E 31 Croce del Sud Crux M A 32 Delfino Delphinus T E 33 Dorado Dorado P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603 M A 34 Dragone Draco T B 35 Ercole Hercules T B 36 Eridano Eridanus T E 37 Fenice Phoenix P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603 M A 38 Fornace Fornax N.L. de Lacaille 1763 M A 39 Freccia Sagitta T E 40 Gemelli Gemini Z E 41 Giraffa Camelopardalis Bartsch 1624 M B 42 Gru Grus P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603 M A 43 Idra Hydrus P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603 T E 44 Idra maschio Hydrus M A M A 45 Indiano Indus P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603 M A 46 Leone Leo Z E 47 Leone minore Leo Minor Hevelius 1690 M B 48 Lepre Lepus T E 49 Lince Lynx Hevelius 1690 M B 50 Lira Lyra T B 51 Lucertola Lacerta Hevelius 1690 M B 52 Lupo Lupus T A 53 Macchina pneumatica Antlia N.L. de Lacaille 1763 M A

Page 76: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

76

54 Mensa Mensa N.L. de Lacaille 1763 M A 55 Microscopio Microscopium N.L. de Lacaille 1763 M A 56 Mosca Musca P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603 M A 57 Ofiuco Ophiuchus T E 58 Orione Orion T E 59 Orologio Horologium N.L. de Lacaille 1763 M A 60 Orsa maggiore Ursa Maior T B 61 Orsa minore Ursa Minor T B 62 Ottante Octans N.L. de Lacaille 1763 M A 63 Pavone Pavo P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603 M A 64 Pegaso Pegasus T E 65 Perseo Perseus T B 66 Pesce australe Piscis austrinus T A 67 Pesce volante Volans P.D.Keyser et F.de Houtman, 1595-1597 ex J.Bayer 1603 M A 68 Pesci Pisces Z E 69 Pittore Pictor N.L. de Lacaille 1763 M A 70 Poppa Puppis N.L. de Lacaille 1763 T A 71 Regolo Norma N.L. de Lacaille 1763 M A 72 Reticolo Reticulum N.L. de Lacaille 1763 M A 73 Sagittario Sagittarium Cleostratus 6 ° secolo aC Z E 74 Scorpione Scorpius Z E 75 Scudo Scutum Hevelius 1690 M E 76 Scultore Sculptor N.L. de Lacaille 1763 M A 77 Serpente[1] Serpens T E 78 Sestante Sextans Hevelius 1690 M E 79 Telescopio Telescopium N.L. de Lacaille 1763 M A 80 Toro Taurus Z E 81 Triangolo Triangulum T B 82 Triangolo australe Triangulum australe Keyser et de Houtman, 1595-1597 ex J.Bayer 1603 M A 83 Tucano Tucana P.D. Keyser & F. de Houtman, 1595-1597 ex J. Bayer 1603 M A 84 Uccello del Paradiso Apus P.D. Keyser et F. de Houtman, 1595-1597 ex J. Bayer 1603 M A 85 Unicorno Monoceros Bartsch 1624 M E 86 Vele Vela N.L. de Lacaille 1763 T[2]A 87 Vergine Virgo Z E 88 Volpetta Vulpecula Hevelius 1690 M E *Legenda: Z = costellazione dello Zodiaco;

T = costellazione di Tolomeo; M = costellazione moderna B = costellazione boreale; E = costellazione equatoriale; A = costellazione australe.

[1] Il Serpente è l'unica costellazione divisa in due parti: la Testa del Serpente e la Coda del Serpente [2] Tolomeo riuniva la Carena, la Poppa e le Vele in un'unica costellazione chiamata Nave Argo (Argo

Navis). L'albero della nave occupava la zona attualmente associato alla Bussola. L'Unione Astronomica Internazionale (IAU) divide il cielo in 88 costellazioni ufficiali con confini precisi, di modo che ogni punto della sfera celeste appartenga ad una ed una sola costellazione. Le costellazioni visibili dalle latitudini settentrionali sono basate principalmente su quelle della tradizione dell'Antica Grecia, e i loro nomi richiamano figure mitologiche come Pegaso o Ercole; quelle visibili dall'emisfero australe sono state invece battezzate in età illuministica ed i loro nomi sono spesso legati ad invenzioni del tempo, come l'Orologio o il Microscopio. Le dodici costellazioni che intersecano l'eclittica compongono lo zodiaco. In aggiunta a queste 12, già in età antica Tolomeo ne elencò altre 36 (che ora sono 38, a causa della suddivisione della Nave Argo in tre nuove costellazioni). In tempi più recenti, a questa lista sono state fatte delle aggiunte, in primo luogo per riempire i buchi fra i tracciati tolemaici (i greci consideravano il cielo come

Page 77: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

77

comprendente costellazioni e spazi vuoti tra di esse), e in secondo luogo per riempire l'emisfero meridionale, quando gli esploratori europei, nei loro viaggi, riuscirono a vederlo. Nel 1543 fu poi Alessandro Piccolomini, molti anni prima di Johann Bayer, a contrassegnare le stelle in base alla loro luminosità con delle lettere (alfabeto latino). Il libro del Piccolomini dal titolo De le stelle fisse, è da molti considerato il primo atlante celeste moderno. Le 47 mappe contenute nell'opera presentano tutte le costellazioni tolemaiche (ad eccezione di quella del Puledro) e mostrano le stelle senza le corrispondenti figure mitologiche; per la prima volta in un libro a stampa venivano quindi riportate le mappe astronomiche complete con le costellazioni tolemaiche. Il De le stelle fisse (1543) e un altro libro sempre del Piccolomini dal titolo Della sfera del mondo (1540) vennero pubblicati in un unico e rarissimo volume, per la prima volta nel 1548. Uranometria, titolo abbreviato di un catalogo stellare prodotto da Johann Bayer, è stato il primo atlante a coprire l'intera sfera celeste. Le stelle più luminose di una costellazione prendono il nome usando una lettera greca più il genitivo della costellazione in cui si trovano; questa nomenclatura, chiamata Nomenclatura di Bayer, viene utilizzata per tutte le costellazioni. Un esempio è α Centauri. La Nomenclatura di Flamsteed segue invece una numerazione progressiva delle stelle di una costellazione procedendo da ovest verso est, cui si aggiunge il genitivo della costellazione di appartenenza; questa nomenclatura, assente per le stelle di costellazioni poste a sud dei 30° di declinazione sud, produce risultati come 61 Cygni. Un'altra numerazione che utilizza il genitivo della costellazione è la nomenclatura delle stelle variabili, che procede assegnando lettere, come per RR Lyrae. Le stelle meno luminose seguono altre numerazioni progressive, senza seguire però la divisione in costellazioni. Costellazioni di nubi oscure. Nell'emisfero celeste australe è possibile distinguere un gran numero di nebulose oscure che attraversano la scia luminosa della Via Lattea; alcune culture vissute nell'emisfero australe hanno individuato fra queste macchie oscure alcune figure, identificabili come "costellazioni di nubi oscure". Fra queste culture vi è quella Inca, che identificò sagome di animali fra le nubi oscure, associando la loro apparizione con l'arrivo della stagione delle piogge. Anche gli aborigeni australiani erano soliti individuare fra queste nubi figure di animali, fra le quali la più famosa è l'"Emu celeste", la cui testa coincide con la Nebulosa Sacco di Carbone. Alcune costellazioni visibili. Sono sommariamente descritte alcune delle costellazioni riportate in tabella 2. L'Aquario è una costellazione dello zodiaco, una delle più antiche conosciute; si trova fra il Capricorno a sud-ovest e i Pesci a nord-est è una costellazione di grandi dimensioni, attraversata dal Sole da fine febbraio a metà marzo; è formata da un vasto insieme di stelle poco luminose, specialmente nella parte orientale, caratteristica che avrebbe suggerito l'idea di un'autentica "cascata" di stelline, che in effetti rappresentano l'acqua che scende a fiotti da un'urna. La parte più settentrionale della costellazione giace sull'equatore celeste, mentre gran parte di essa si trova nell'emisfero australe; nonostante ciò, è osservabile con facilità da quasi tutte le aree popolate della Terra. Nell'emisfero boreale è una figura tipica dei cieli autunnali, mentre a sud dell'equatore la sua presenza nel cielo dopo il tramonto indica l'avvicinarsi della stagione estiva. L'Aquario contiene stelle relativamente poco luminose nonostante la sua estensione, le più brillanti delle quali sono dislocate nella parte nordoccidentale; la parte sudorientale viene a trovarsi al centro di una regione di cielo povera di stelle appariscenti, così dalle aree urbane appare come una zona di cielo "vuota". Sotto un cielo buio sono invece osservabili fino a un centinaio di stelle deboli, per lo più di quinta grandezza, molte delle quali disposte a concatenazioni non rettilinee di tre (figura 40). Dall'Aquario si originano due sciami meteorici: le Eta Aquaridi (4 maggio) e le Delta Aquaridi (28 giugno), entrambi composti da circa 20 meteore all'ora.

Page 78: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

78

Figura 40 – Costellazione dell’Acquario, le cui stelle più luminose sono dislocate nella parte nordoccidentale.

L'Altare è una piccola ma relativamente appariscente costellazione dell'emisfero sud. Non è visibile da quasi tutta l'Europa, mentre le sue stelle principali sono tutte visibili a sud dei 30°N; nonostante non abbia stelle particolarmente luminose, è individuabile con estrema facilità proprio a sud della coda dello Scorpione. L'Altare è una costellazione caratteristica dei cieli del sud; gran parte di essa giace sulla Via Lattea, in un campo molto brillante; la scia luminosa ne attraversa il lato nordoccidentale, ma il chiarore diffuso è visibile in una notte buia anche su quasi tutta la costellazione. Di conseguenza sono presenti ricchi campi stellari e associazioni di stelle. La costellazione si presenta come una sorta di farfalla a sud della coda dello Scorpione; le sue stelle principali sono di terza magnitudine. La stella più brillante della costellazione, β Arae, presenta una magnitudine apparente da Terra pari a 2,84. La γ Arae è una stella doppia. La costellazione diventa ben visibile per un osservatore posto a sud del venticinquesimo parallelo nord. Si individua con facilità, a sud dello Scorpione, per via di una concatenazione di stelle di terza magnitudine, disposte in senso nord-sud. Due di queste stelle formano un coppia apparente molto larga e ben osservabile ad occhio nudo, dai colori contrastanti: si tratta delle β Arae e γ Arae. A causa della precessione degli equinozi, la costellazione era ben visibile dalle latitudini mediterranee all'epoca dei Romani e soprattutto dei Greci; fu infatti elencata da Tolomeo. Le stelle principali di questa costellazione sono (figura 41):

Page 79: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

79

• β Arae (nota talvolta come Karnot Mizbeach) è una stella arancione di magnitudine 2,84, distante 603 anni luce.

• α Arae (nota come Choo), è una stella azzurra di magnitudine 2,84, distante 242 anni luce. • ζ Arae (Korban), è una stella arancione di magnitudine 3,12, distante 574 anni luce. • γ Arae (Zadok), è una stella azzurra di magnitudine 3,31, distante 1136 anni luce; forma con la

stella β una bella coppia dai colori contrastanti da osservare ad occhio nudo. Tra le altre, la stella giallo-arancione (di classe spettrale G3IV-V) µ Arae è la prima stella attorno alla quale, secondo dati osservativi, esiste un sistema planetario che ospiti dei pianeti rocciosi. La costellazione è ricca di stelle doppie, alcune delle quali sono alla portata di piccoli strumenti amatoriali. Grazie alla presenza dei campi stellari della Via Lattea, nell'Altare sono note diverse centinaia di stelle variabili (stelle, la cui luminosità apparente, cambia nel tempo).

Figura 41 – Mappa della costellazione dell’altare.

L'Orsa maggiore (figura 42) è una costellazione tipica dei cieli boreali; le sue sette stelle più luminose, raggruppate nel famoso asterismo del Grande carro, sono visibili per tutto l'anno nell'emisfero nord, e non tramontano mai a nord del 41°N (la latitudine di Napoli, Madrid e New York). Il riferimento all'asterismo come un orso (le quattro stelle orientali) inseguito da tre cacciatori (le tre di coda) è probabilmente il più antico mito a cui l'umanità faccia ancora riferimento. In altre parti del mondo vengono usati nomi diversi, in Nord America è il Grande mestolo, nel Regno Unito è l'Aratro, Septem triones, cioè i sette buoi, è invece il termine con cui gli antichi Romani definivano le sette stelle dell'Orsa maggiore, descrivendone il loro lento movimento attorno alla stella polare. Da qui l'origine del termine settentrione, cioè nord. Il Grande carro o Gran carro è uno degli asterismi più classici e più conosciuti della volta celeste; è formato dalle sette stelle più brillanti della costellazione dell'Orsa maggiore, che formano una caratteristica figura a forma di carro o di un aratro. Per molte civiltà, antiche e no, questa figura è considerata una vera e propria costellazione a sé stante.

Page 80: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

80

Figura 42 – Mappa e immagine della costellazione dell’Orsa maggiore (grande carro).

Le stelle del Grande carro (figura 42) sono chiamate, in ordine da ovest ad est, Dubhe, Merak, Phecda, Megrez, Alioth, Mizar e Alkaid (o Benetnasch), e sono state assegnate loro le lettere greche da α ad η (vedi nomenclatura di Bayer), nello stesso ordine. Mizar ha una stella compagna chiamata Alcor, appena visibile ad occhio nudo, che è un tradizionale test della vista. Entrambe le stelle sono in realtà doppie e sono state, rispettivamente, la prima binaria visuale e la prima binaria spettroscopica scoperte. La Stella polare può essere trovata disegnando una linea tra Dubhe e Merak, all'estremo del Gran Carro, e prolungandola di cinque volte. Altre stelle come Arturo (α Boötis) e Spica (α Virginis) possono essere trovate prolungando invece il lato lungo. Nel 1869, Richard. A. Proctor notò che, eccetto per Dubhe e Alkaid, le stelle del Gran Carro hanno tutte lo stesso moto proprio, che le porta verso un punto comune del Sagittario. Questo gruppo, noto ora come Associazione dell'Orsa maggiore (Cr 285), del quale sono stati identificati alcuni altri membri, formava in passato un ammasso aperto. Da allora le stelle dell'ammasso si sono disperse in una regione di circa 30 per 18 anni luce, posta a circa 75 anni luce di distanza, che è quindi il più vicino oggetto simile ad un ammasso. Altre 100 stelle circa, inclusa Sirio, formano una "corrente" che ha lo stesso moto proprio, ma la loro relazione con l'ex-ammasso non è chiara. Il nostro Sistema Solare si trova sul bordo esterno di questa corrente, ma non ne fa parte, avendo un'età 40 volte superiore. L'Orsa minore (figura 43) è una costellazione del cielo settentrionale. È una delle 88 costellazioni moderne, ma era già tra le 48 costellazioni elencate da Tolomeo. È particolarmente nota perché al suo interno si trova il polo nord celeste, anche se la sua posizione è soggetta ad un continuo, lento spostamento a causa della precessione dell'asse di rotazione terrestre. L'Orsa minore è individuabile con facilità, sia perché le sue stelle più brillanti sono di seconda magnitudine, sia perché, una volta individuato il Grande carro, si può raggiungere la Stella polare, la stella più luminosa dell'Orsa minore, utilizzando le due stelle più occidentali dell'asterismo dello stesso Grande Carro. Dall'emisfero boreale è una costellazione circumpolare, ossia non tramonta mai, restando visibile in ogni periodo dell'anno; dall'emisfero australe invece è sempre invisibile, tranne che in prossimità dell'equatore (eccetto la Stella Polare). L'Orsa minore contiene un asterismo chiamato colloquialmente Piccolo carro, perché le sue stelle più brillanti formano un disegno simile a quello del Gran carro nell'Orsa maggiore. La stella all'estremo del Piccolo carro è la Stella polare, che si trova in posizione quasi coincidente col polo nord celeste. Le sue stelle possono essere anche utilizzate come scala per determinare la

Page 81: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

81

magnitudine limite di una notte: due stelle sono infatti di seconda magnitudine, una è di terza, tre di quarta e una di quinta; quando le stelle della costellazione sono tutte visibili, il cielo può definirsi in condizioni molto buone per l'osservazione.

Figura 43 – Mappa e immagine della costellazione dell’Orsa minore (piccolo carro).

Ulteriori approfondimenti di questo capitolo saranno contenuti su specifiche posizioni

Bibliografia 1. Adamo A., 2002. La vita su altri mondi nella storia del pensiero, in La vita nell'Universo, Provincia di

Torino, 30 marzo 2002. 2. Alley R. et al. 2007. Climate change 2007: The physical science basis: Summary for policymakers.

Intergovernmental Panel on Climate Change. 3. allowing married clergy members. New York Times, April 28, B5. 4. Alpher R.A. e Herman R., 1948. Evolution of the Universe. Nature, 162, 1948, p. 774. 5. American Association of Petroleum Geologists Statements, Climate Change (PDF), dpa.aapg.org, giugno

2007. 6. American Geophysical Union Council, 2003. Human impacts of climate. American Geophysical Union,

Washington, DC. 7. American Meteorological Society, 2003. Climate change research: Issues for the atmospheric and related

sciences. Bulletin of the American Meteorological Society 84. 8. American Philosophical Society, 2006. The Past History of the Earth as Inferred from the Mode of

Formation of the Solar System. 9. Ammann C. et al., 2007. Solar influence on climate during the past millennium: Results from ransient

simulations with the NCAR Climate Simulation Model. Proceedings of the National Academy of Sciences of the United States of America, vol. 104, nº 10, 6 aprile 2007, pp. 3713-3718.

10. Angelo Adamo, La vita su altri mondi nella storia del pensiero, su La vita nell'Universo, Provincia di Torino, TorinoScienza.it, 30 marzo 2002. URL consultato il 19 novembre 2011.

11. Anonimo, 2007. L'età precisa del sistema solare. Le Scienze, 20 dicembre 2007. 12. Anonimo, 2011. La fine del sistema solare. Costruire il sistema solare, 4, Eaglemoss, 2011, p. 9. 13. Arctic Council, 2004. Arctic climate impact assessment. Arctic Council, Oslo, Norway. 14. At-a-glance, 2006. The Stern Review, BBC, 30 ottobre 2006. 15. Barker T., 2008. Full quote from IPCC on costs of climate change, Financial Times, 14 aprile 2008. 16. Bero L., 2003. Implications of the tobacco industry documents for public health and policy. Annual

Review of Public Health 24: 267–88. 17. Bertschinger E., 1998.Simulations of Structure Formation in the Universe, in Annual Review of

Astronomy and Astrophysics, vol. 36, 1998, pp. 599–654. 18. Bertschinger E., 2001. Cosmological Perturbation Theory and Structure Formation, 2001.

Page 82: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

82

19. Botkin D.B. et al., 2007. Forecasting the Effects of Global Warming on Biodiversity (PDF), in BioScience, vol. 57, nº 3, marzo 2007, pp. 227-236.

20. Boykoff, M. T. e Boykoff J. M., 2004. Balance as bias: Global warming and the U.S. prestige press. Global Environmental Change 14: 125–36.

21. Briffa, K. R. e Osborn T. J., 2002. Blowing hot and cold. Science 295: 2227–28. 22. Browne E.J.P., 1997. Climate change: The new agenda. Paper presented at Stanford University, May

19, Group Media and Publications, British Petroleum Company. 23. Bruce J. P., Hoesung L. e Haites E.F., 1996. Climate change 1995: Economic and social dimensions of

climate change. Intergovernmental Panel on Climate Change. Cambridge: Cambridge 24. Brunini A., 2006. Origin of the obliquities of the giant planets in mutual interactions in the early Solar

System. Nature, 440, 7088, pp. 1163-1165. 25. Budyko M.I., 1969. The effect of solar radiation variations on the climate of the Earth. Tellus vol. 21,

(1969) pp. 611–619. 26. Buesseler K.O. et al., 2007. Revisiting Carbon Flux Through the Ocean's Twilight Zone. Science, 316,

5824, 27 aprile 2007, pp. 567-570. 27. Caldeira K., Wickett M.E., 2005. Ocean model predictions of chemistry changes from carbon dioxide

emissions to the atmosphere and ocean, in Journal of Geophysical Research, vol. 110, C09S04, 21 settembre 2005, pp. 1-12.

28. Cameron A.G.W. e Ward W.R., 1976. The Origin of the Moon, Abstracts of the Lunar and Planetary Science Conference, volume 7, page 120.

29. Camille Flammarion, 1962. La pluralité des mondes habitus. (1862; testo originale). Prima edizione italiana: La pluralità dei mondi abitati, Milano: Carlo Simonetti, 1880.

30. Campanini M., 1989. L’intelligenza della fede: filosofia e religione in Averroè e nell’averroismo, Bergamo 1989 (Quodlibet).

31. Climate Change, 2001. Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Third Assessment Report of the Intergovernmental Panel on Climate Change, Intergovernmental Panel on Climate Change, 16 febbraio 2001.

32. Climate Change, 2001. The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change, Summary for Policymakers, Intergovernmental Panel on Climate Change, 20 gennaio 2001.

33. Conrad V., 1925. Laufzeitkurven des Tauernbebens vom 28. Nov. 1923. Mitteilungen der Erdbeben-Kommission, Akademie der Wissenschaften Wien, Neue Folge 59:1-23.

34. Crutzen C., 2005. Benvenuti nell'Antropocene. L'uomo ha cambiato il clima; la Terra entra in una nuova era. Mondadori, 2005.

35. Curtis S., 1920. Why the `Great Debate' Was Important, in The Shapley - Curtis Debate in 1920, Astronomy Picture of the Day - NASA.

36. Darling D., 2014. Plurality of worlds (pluralism). The Internet Encyclopedia of Science. 37. Dauncey G. e Mazza P., 2004. Clima tempestoso. 101 soluzioni per ridurre l'effetto serra. Muzzio

editore, 2004. 38. Deming D., 2005. How ‘‘consensus’’ on global warming is used to justify draconian reform.

Investor’s Business Daily, March 18, A16. Environmental Defense. 2005. 39. Denman K.L. et al., 2007. Couplings between changes in Climate System and the Biogeochemistry,

7.5.3. IPCC, 2007. 40. Dlugolecki A. et al., 2002. Climate Risk to Global Economy. CEO Briefing: UNEP FI Climate

Change Working Group, United Nations Environment Programme, 2002. 41. Dokken D. J.e White K.S., 2001. Climate change 2001: Impacts, adaptation and vulnerability.

Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. 42. Doran P.T., 2009. Examining the Scientific Consensus on Climate Change, EOS Eos Trans AGU

90:22–23 (2009); 90, 3. 43. Duffy P.B., Santer B.D. e Wigley T.M.L., 2009. Solar variability does not explain late-20th-century

warming. January, pp 48-49. 44. EPA, 2009. Recent Climate Change: Atmosphere Changes, su Climate Change Science Program,

United States Environmental Protection Agency, 2007. URL consultato il 21 aprile 2009.

Page 83: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

83

45. Esper J., Cook E.R. e. Schweingruber H., 2003. Low-frequency signals in long tree-ring chronologies for reconstructing past temperature variability. Science 295: 2250–53.

46. Ferrara V. e Farruggia A., 2007. Clima: istruzioni per l'uso, Edizioni Ambiente, 2007. 47. Flannery T., 2006. The weather makers: How man is changing the climate and what it means for life

on earth. New York: Atlantic Monthly Press. 48. Fleming J.R., 1998. Historical Perspectives on Climate Change. New York: Oxford University Press. 49. Fonti critiche utilizzate 50. Frame D. J., J. A. Kettleborough, S. Knight, A. Martin, J. M. Murphy, C. Gavin Schmidt, 2009. Water

vapour: feedback or forcing? RealClimate, 6 aprile 2005. 51. Gelbspan R., 1997. The heat is on: The high stakes battle over earth’s threatened climate. Reading,

MA: Addison-Wesley. 52. Gelbspan R., 2004. Boiling point: How politicians, big oil and coal, journalists, and activists are

fueling the climate crisis and what we can do to avert disaster. New York: Basic Books. 53. George W. Bush, 2001. Text of a Letter from the President to Senators Hagel, Helms, Craig, and

Roberts, Office of the Press Secretary, 13 marzo 2001. 54. Gilliland E.J.A., Ronald L. e Hoyt D.V., 1982. Changes in the solar constant and climatic effects.

Nature, vol. 300, 23 dicembre 1982, pp. 689–693. 55. Gillispie C.C., 1975. Semmelweis. In Dictionary of scientific biography. Vol. 12. New York: Scribner. 56. Gillispie C.C., 1981. Dictionary of scientific biography. Vol. 12. New York: Scribner. 57. Giuseppe Tanzella-Nitti, Pluralità dei mondi e teologia, disf.org, ottobre 2007. URL consultato il 2

novembre 2011. 58. Greene B., 2004. La trama del cosmo, Torino, Einaudi, 2004. 59. Hack M., 2004. Dove nascono le stelle, Sperling & Kupfer, 2004, pp. 88, 89, ISBN 978-88-6061-617-

3. 60. Hansen J., 2002. Climate. Journal of Geophysical Research, 107, p. 4347. 61. Hansen J., 2005. Efficacy of climate forcings. Journal of Geophysical Research, 110, D18104. 62. Harrison P. e Pearce F.,. 2000. AAAS atlas of population and environment. Berkeley: University of

California Press. 63. Hegerl G.C. et al., 2007. Understanding and Attributing Climate Change. Climate Change 2007: The

Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, IPCC, 2007.

64. Hegerl G.C., Zwiers F.W., Braconnot P., Gillett N.P., Luo Y., Marengo Orsini J.A.,Nicholls N., Penner J.E. e Stott P.A., 2007. Chapter 9, Understanding and Attributing Climate Change – Section 9.2.2 Spatial and Temporal Patterns of the Response to Different Forcings and their Uncertainties, in Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor e H.L. Miller (a cura di), Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Intergovernmental Panel on Climate Change, Cambridge, United Kingdom and New York, NY, USA., Cambridge University Press, 2007.

65. Hempel C., 1965. Aspects of scientific explanation, and other essays in the philosophy of science. New York: Free Press.

66. Holland M.M. e Bitz C. M., 2003. Polar amplification of climate change in coupled models. Climate Dynamics 21: 221–32.

67. Houghton J.T., Ding Y., Griggs, Noguer D. J., van der Linden P.J., Dai X., Maskell K. e Johnson C.A., 2001. Climate change 2001: The scientific basis (Third Assessment Report). Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press.

68. Houghton J.T., Jenkins G. J. e Ephraums J. J., 1990. Scientific assessment of climate change: Report of Working Group I. Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press.

69. Hoyle F., 1948. A New Model for the Expanding Universe, in Monthly Notices of the Royal Astronomical Society, vol. 108, 1948, p. 372.

70. IPCC, 2001. Summary for Policymakers. Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change, IPCC, 2001.

Page 84: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

84

71. IPCC, 2007. Chapter 1: Historical Overview of Climate Change Science. IPCC WG1 AR4 Report, IPCC, 2007.

72. IPCC, 2007. Climate Change: Synthesis Report. Contribution of Working Groups I, II and III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, [Core Writing Team, Pachauri, R. K. and Reisinger, A. (eds.)], Geneva, Switzerland, IPCC, 2007.

73. IPCC, 2007. Summary for Policymakers. In: Climate Change 2007: The Physical Science Basis. Contribution of working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

74. Jacobson M.Z., 2005. Studying ocean acidification with conservative, stable numerical schemes for nonequilibrium air-ocean exchange and ocean equilibrium chemistry. Journal of Geophysical Research, vol. 110, D7, 2 aprile 2005.

75. Jarrett T.H., 2004. Large Scale Structure in the Local Universe: The 2MASS Galaxy Catalog, in PASA, vol. 21, 2004, p. 396.

76. Jian Lu, Vecchi G. A., Reichler T., 2007. Expansion of the Hadley cell under global warming. Geophysical Research Letters, vol. 34, 2007.

77. Joint statement of sixteen national academies of science, 2001. The Science of Climate Change, The Royal Society, 18 maggio 2001.

78. Jones E.M., 1985. Where is everybody? An account of Fermi's question. Los Alamos Technical report. Los Alamos National Laboratory, marzo 1985.

79. Kaku M., 2006. Mondi paralleli. Un viaggio attraverso la creazione, le dimensioni superiori ed il futuro del cosmo, Torino, Ed. Codice, 2006.

80. Kearey P., Klepeis K.A. e Vine F.J., 2009. Global Tectonics, 3ª ed., John Wiley & Sons, 2009, pp. 19–21.

81. Kiehl J.T. e Trenberth K.E., 1997. Earth's Annual Global Mean Energy Budget. Bulletin of the American Meteorological Society, 78, 2, , pp. 197–208.

82. Kiehl J.T. e Trenberth K.E., 1997. Earth's Annual Global Mean Energy Budget. Bulletin of the American Meteorological Society, 78, 2, pp. 197–208.

83. Knutso T.R., 2008. Simulated reduction in Atlantic hurricane frequency under twenty-first-century warming conditions. Nature Geoscience, vol. 1, 2008, p. 359.

84. Kolbert E., 2006. Field notes from a catastrophe. New York: Bloomsbury. 85. Kyoto Protocol, 2006. Status of Ratification, United Nations Framework Convention on Climate

Change, 10 luglio 2006. 86. Kyoto Protocol: Status of Ratification, 2009. United Nations Framework Convention on Climate

Change, 14 gennaio 2009. 87. Launder B. e. Thompson J.M.T, 2008. Global and Arctic climate engineering: numerical model

studies. Phil. Trans. R. Soc. A, 366, 1882, 2008, pp. 4039–4056. 88. Le Bovier de Fontenelle B., 1896. Entretiens sur la pluralité des mondes. 89. Lemaître G., 1931. The Evolution of the Universe: Discussion, in Nature, vol. 128, 1931, pp. 699–701,

The Evolution of the Universe: Discussion, in Nature, vol. 128, 1931, pp. 699–701 90. Liepert B. et al., 1994. Solar radiation in Germany - Observed trends and an assessment of their

causes. Contrib. atmos. phys., 1994, vol. 67, 1, pp. 15-29. 91. Lipton P., 1991. Inference to the best explanation. Oxford: Routledge. 92. Lipton P.,. 2004. Inference to the best explanation. 2nd ed. Oxford: Routledge. 93. Lockwood M. e Fröhlich C., 2008. Recent oppositely directed trends in solar climate forcings and the

global mean surface air temperature. II. Different reconstructions of the total solar irradiance variation and dependence on response time scale. Proc. R. Soc. A,. 464, 2094, 8 giugno 2008, pp. 1367–85.

94. Lockwood M., Fröhlich C., 2007. Recent oppositely directed trends in solar climate forcings and the global mean surface air temperature. Proceedings of the Royal Society A, vol. 463, 2007, p. 2447.

95. LockwoodJ.G., 1979. Causes of Climate, Lecture notes in mathematics 1358, New York: John Wiley & Sons, 1979, p. 162.

96. Lowrie W., 1997. Fundamentals of Geophysics, Cambridge University Press, 1997, pp. 149.

Page 85: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

85

97. Manabe S. e Stouffer R. J., 1994. Multiple-century response of a coupled ocean-atmosphere model to an increase of atmospheric carbon dioxide. Journal of Climate 7(1): 5–23.

98. Manabe S. e Stouffer R.J. 1980. Sensitivity of a global climate model to an increase of CO2 concentration in the atmosphere. Journal of Geophysical Research 85(C10): 5529–54.

99. Marsh N., Svensmark H., 2000. Cosmic Rays, Clouds, and Climate. Space Science Reviews, vol. 94, 1–2, novembre 2000, pp. 215–230.

100. McCarthy J.J., Canziani O., Leary N.A., McLaughlin J.F., et al., 2002. Climate change hastens population extinctions. Proceedings of the National Academy of Sciences, vol. 99, nº 9, 30 aprile 2002, pp. 6070-6074.

101. Metz B., Ogunlade D., Swart R. e Jiahua Pan, 2001. Climate change 2001. Mitigation. Intergovernmental Panel on Climate Change. Cambridge University Press.

102. Muundjua M., Hart R.J., Golder S.A., Carporzen L. e Galdeano A., 2007. Magnetic imaging of the Vredefort impact crater, South Africa, vol. 261, 3-4, Elsevier, 2007, pp. 456–468.

103. Nakicenovic. N. et al., 2001. An Overview of Scenarios: Resource Availability, su IPCC Special Report on Emissions Scenarios, IPCC, 2001.

104. NASA, 2005. The Ocean and the Carbon Cycle, , 21 giugno 2005. 105. NASA, 2011. Ninth-Warmest Year on Record 106. National Academy of Sciences, Committee on the Science of Climate Change. 2001. Climate change

science: An analysis of some key questions. Washington, DC: National Academy Press. 107. National Research Council, 1994. Solar Influences On Global Change, Washington, D.C., National

Academy Press, 1994, p. 36. 108. NRC, 2008. Understanding and Responding to Climate Change (PDF), Board on Atmospheric

Sciences and Climate, US National Academy of Sciences, 2008, p. 2. 109. Ohmura A. e Lang H., 1988. Secular variation of global radiation in Europe. International Radiation

Symposium 1988, Lille, August 1988, 165. 110. Oreskes N., 2004. Beyond the ivory tower: The scientific consensus on climate change. Science

306(5702): 1686. 111. Orgel L.E. e Crick F.H.C., Anticipating an RNA world. Some past speculations on the origin of life:

where are they today? FASEB J., vol. 7, 1993, pp. 238-239. 112. Panel on Climate Change Feedbacks, 2003. Climate Research Committee, National Research Council,

Understanding Climate Change Feedbacks, The National Academies Press, 2003, p. 166. 113. Parlamento europeo, 2009. Meno uno alla fine di Copenaghen: accordo ancora possibile? 17-12-2009. 114. Parry M.L., Canziani O.F., Palutikof J.P., van der Linden P.J., Hanson C.E., 2007. Human Health, in

Climate Change: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge (UK), New York (USA), Cambridge University Press, .

115. Pearson P.N. e Palmer M.R., 2000. Atmospheric carbon dioxide concentrations over the past 60 million years. Nature, vol. 406, nº 6797, 2000, pp. 695–699.

116. Petit,J. R. et al., 1999. Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. Nature, vol. 399, nº 6735, 3 giugno 1999, pp. 429–436.

117. Piani, D. Sexton, L. A. Smith, R. A. Spicer, A. J. Thorpe, e Allen M. R., 2005. Uncertainty in predictions of the climate response to rising levels of greenhouse gases. Nature 433: 403–06.

118. Pierce J.R. e Adams P.J., 2009. Can cosmic rays affect cloud condensation nuclei by altering new particle formation rates? Geophysical Research Letters, 36.

119. Pinker R.T. et al., 2005. Do Satellites Detect Trends in Surface Solar Radiation?", Science, 2005, Vol. 308. no. 5723, pp. 850-854.

120. Pogge R.W., 1997. The Once & Future Sun. New Vistas in Astronomy. 121. Popper K.R., 1959. The logic of scientific discovery. London: Hutchinson. 122. Prentice I.C, Farquhar G.D., Fasham M.J.R., Goulden M.L., Heimann M., Jaramillo V.J., H.S.

Kheshgi, C. Le Quéré, R.J. Scholes, D.W.R. Wallace (lead authors). D. Archer, M.R. Ashmore, O. Aumont, D. Baker, M. Battle, M. Bender, L.P. Bopp, P. Bousquet, K. Caldeira, P. Ciais, P.M. Cox, W. Cramer, F. Dentener, I.G. Enting, C.B. Field, P. Friedlingstein, E.A. Holland, R.A. Houghton, J.I. House, A. Ishida, A.K. Jain, I.A. Janssens, F. Joos, T. Kaminski, C.D. Keeling, R.F. Keeling, D.W. Kicklighter, K.E. Kohfeld, W. Knorr, R. Law, T. Lenton, K. Lindsay, E. Maier-Reimer, A.C.

Page 86: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

86

Manning, R.J. Matear, A.D. McGuire, J.M. Melillo, R. Meyer, M. Mund, J.C. Orr, S. Piper, K. Plattner, P.J. Rayner, S. Sitch, R. Slater, S. Taguchi, P.P. Tans, H.Q. Tian, M.F. Weirig, T. Whorf, Pitelka A.Yool. L., Ramirez Rojas A., 2001. Executive Summary. In (book chapter): 3. The Carbon Cycle and Atmospheric Carbon Dioxide. In: Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change (J.T. Houghton, Y. Ding, D.J. Griggs, M. Noguer, P.J. van der Linden, X. Dai, K. Maskell, C.A. Johnson (eds)), Print version: Cambridge University Press.

123. Price D., de Solla G., 1986. Little science, big science and beyond. New York: Columbia University Press.

124. Ramaswamy V., Schwarzkopf M.D. e Shine K.P., 1992. Radiative forcing of climate from halocarbon-induced global stratospheric ozone loss, in Nature, vol. 355, , pp. 810–812, DOI:10.1038/355810a0.

125. Randel W. J., Keith P. Shine, John Austin, John Barnett, Chantal Claud, Nathan P. Gillett, Philippe Keckhut, Ulrike Langematz e Roger Lin, 2009. An update of observed stratospheric temperature trends, in Journal of Geophysical Research, vol. 114, 2009, pp. D02107.

126. Randy Russell, The Greenhouse Effect & Greenhouse Gases, University Corporation for Atmospheric Research Windows to the Universe, 16 maggio 2007. URL consultato il 27 dicembre 2009.

127. Rasool I.S. and Schneider S.H., 1971. Atmospheric Carbon Dioxide and Aerosols: Effects of Large Increases on Global Climate. Science, 173, 3992, luglio 1971, pp. 138–141.

128. Raven J.A. et al., Ocean acidification due to increasing atmospheric carbon dioxide, Royal Society, 30 giugno 2005.

129. Revelle R., 1965. Atmospheric carbon dioxide. In Restoring the quality of our environment: A report of the Environmental Pollution Panel, 111–33. Washington, DC: President’s Science Advisory Committee.

130. Riezzo V., 2011. Astronomia, in Tutto. Novara, DeAgostini, 2011, p. 191, ISBN 978-88-418-7011-2. 131. Roach J., 2004. The year global warming got respect. National Geographic, December 29. 132. Russak V., 1990. Trends of solar radiation, cloudiness and atmospheric transparency during recent

decades in Estonia. Tellus B, vol. 42, issue 2, p. 206 133. Sackmann I.J, Boothroyd A.I., Kraemer K.E., 1993. Our Sun. III. Present and Future. Astrophysical

Journal 418: 457. 134. Sackmann, I.-Juliana, Boothroyd A.I., Kraemer K.E., 1993. Our Sun. III. Present and Future, in

Astrophysical Journal, vol. 418, , pp. 457–468. 135. Sample I., 2005. Warming Hits Tipping Point. The Guardian, 11 agosto 2005. 136. Shindell Drew, Faluvegi G., Lacis A., Hansen J., Reto Ruedy e Elliot Aguilar, 2006. Role of

tropospheric ozone increases in 20th-century climate change, in Journal of Geophysical Research, vol. 111, 2006.

137. Siegenthaler U. et al., 2005. Stable Carbon Cycle–Climate Relationship During the Late Pleistocene (PDF), in Science, vol. 310, nº 5752, novembre 2005, pp. 1313–1317.

138. Sloan T. e Wolfendale A W, 2008. Testing the proposed causal link between cosmic rays and cloud cover, in Environ. Res. Lett., vol. 3, 2008, p. 024001.

139. Smith L. A. 2002. What might we learn from climate forecasts? Proceedings of the National Academy of Sciences 99 (suppl. 1): 2487–92.

140. Soden B.J., Held I.M., 2005. An Assessment of Climate Feedbacks in Coupled Ocean-Atmosphere Models. Journal of Climate, vol. 19, nº 14, 1º novembre 2005.

141. Soon W., Baliunas S. , Idso S. B., Kondratyev K. Y. e Posmentier E. S., 2002. Modeling climatic effects of anthropogenic carbon dioxide emissions: Unknowns and uncertainties, reply to Risbey. Climate Research 22: 187–88.

142. Soon W., Baliunas S., Idso S.B., Kondratyev K.Y. e Posmentier E. S., 2001. Modeling climatic effects of anthropogenic carbon dioxide emissions: Unknowns and uncertainties. Climate Research 18: 259–75.

143. Sorge V., 1999. L’aristotelismo averroistico negli studi recenti. Paradigmi, 50. 144. Spahni R. et al., 2005. Atmospheric Methane and Nitrous Oxide of the Late Pleistocene from

Antarctic Ice Cores, in Science, vol. 310, nº 5752, novembre 2005, pp. 1317–1321.

Page 87: Clade Mundus Plinius - Altervista · convenzionalmente suddivisa per mappare le stelle. I raggruppamenti così formati sono entità prospettiche, a cui la moderna astronomia non riconosce

87

145. Srinivasan et al., 2002. Asian Brown Cloud – fact and fantasy." Current Science, 2002, Vol. 83, No. 5, 586-592.

146. Stainforth D., Aina T., Christensen C., Collins M., Faull N., 147. Stanhill G. e Moreshet S., 2004. Global radiation climate changes in Israel. Climatic Change, vol. 22,

6 novembre 2004, pp. 121–138. 148. Steigman G., 2005. Primordial Nucleosynthesis: Successes And Challenges, 2005 149. Stocker T.F. et al., 2001. Sea Ice, su Climate Change 2001: The Scientific Basis. Contribution of

Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change, Intergovernmental Panel on Climate Change, 20 gennaio 2001.

150. Szwast Mark A., Richardson M.I. e Vasavada A.R., 2006. Surface dust redistribution on Mars as observed by the Mars Global Surveyor and Viking orbiters, in Journal of Geophysical Research, vol. 111, 2006.

151. Tanzella-Nitti G., 2007. Pluralità dei mondi e teologia, Documentazione Interdisciplinare di Scienza e Fede, ottobre 2007.

152. Thomas C.D. et al., 2004. Extinction risk from climate change. Nature, 427, 6970, 8 gennaio 2004, pp. 138-145.

153. Todisco O., 1999.Averroè nel dibattito medievale: verità o bontà?, Milano, ed. 1999 (Collana di filosofia, 102).

154. Travis D.J. et al., 2002. Contrails reduce daily temperature range. Nature vol. 418, p. 601. 155. Tsiganis K., Gomes R., Morbidelli A. e Levison H. F., 2005. Origin of the orbital architecture of the

giant planets of the Solar System. Nature, vol. 435, nº 7041, maggio 2005, pp. 459-461. 156. University Press. 157. Van den Hove, Sybille, Marc Le Menestrel, e de Bettignies H.C., 2003. The oil industry and climate

change: Strategies and ethical dilemmas. Climate Policy 2: 3–18. 158. Watkin D.J. 2004. Roman Catholic priests’ group calls for 159. Watson R.T., 2001. Climate change 2001: Synthesis report. Intergovernmental Panel on Climate

Change. Cambridge: Cambridge University Press. 160. Watson R.T., Zinyowera M.C. e Moss R.H., 1996. Climate change 1995: Impacts, adaptations and

mitigation of climate change. Scientific-technical analyses. Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press.

161. Weart S., 2008. The Carbon Dioxide Greenhouse Effect, su The Discovery of Global Warming, American Institute of Physics.

162. Weart S.R. 2003. The discovery of global warming. Cambridge, MA: Harvard University Press. 163. Weart S.R., 2008. The Discovery of Global Warming, Harvard University Press, 2008. 164. Wiker B.D., 2002. Alien Ideas: Christianity and the Search for Extraterrestrial Life, su Crisis

Magazine, 4 novembre 2002. 165. Wild M. et al., 2005. From Dimming to Brightening: Decadal Changes in Solar Radiation at Earth's

Surface", Science, 2005, Vol. 308. no. 5723, pp. 847-850. 166. Wild M., Ohmura A. e Makowski K., 2007. Impact of global dimming and brightening on global

warming, Geophys. Res. Lett., 34. 167. Wilson E.O. 1998. Consilience: The unity of knowledge. New York: Alfred A. Knopf. 168. Woolfson M.M., 1969. Rep. Prog. Phys. 32 135-185 169. Woolfson M.M., 1999, Mon. Not. R. Astr. Soc. 304, 195-198. 170. World Bank, 2010. World Development Report 2010: Development and Climate Change, The

International Bank for Reconstruction and Development / The World Bank, 1818 H Street NW, Washington DC 20433, 2010.

171. WWF, 2008. Generazione Clima, generazioneclima.wwf.it. URL consultato il 5 novembre 2008. 172. Zichichi A., 2007. Il clima non è matematico. Italia chiama Italia, 19 febbraio 2007, 01:44:00.