LA SOCIOLOGIA DEL RISCALDAMENTO GLOBALE-DI GUIDO VISCONTI
Redazione-Pubblichiamo, oggi con immenso piacere, un articolo del Prof.re Emerito dell’Università dell’Aquila ed Accademico dei Lincei Guido Visconti su un tema sempre attuale che è quello del Riscaldamento Globale connesso al Cambiamento del Clima:<<
Di fronte alle continue variazioni del tempo (caldo fuori stagione o improvvise gelate) la gente si domanda se questo sia un segno del clima che sta cambiando o se al contrario anche il cosiddetto risaldamento globale (global warming, GW) sia una fake news. In questo breve contributo noi ci vorremmo concentrare su un altro aspetto del dibattito sul GW e cioè quanto esso sia alimentato dagli stessi scienziati che ormai identificano, sbagliando, le scienze del clima con il problema del GW e vedono in questo una inesauribile fonte di finanziamento. È un pò come quando si discute dell’efficacia del sistema giudiziario e cioè se dipende solo dai giudici o se invece un importante contributo lo danno anche gli avvocati che ovviamente hanno tutto da guadagnare dagli innumerevoli gradi di giudizio.
Quello che vorremmo sfatare per il comune cittadino è che quella che viene chiamata scienza è comunque un’attività umana soggetta quindi a tutte le limitazioni e compromessi del caso. L’aggravante in questo caso è che le scienze del clima non corrispondono al paradigma classico della scienza. In questo caso il cammino è quello che, partendo da un’ipotesi basata sull’esame di dati sperimentali, si verifica se quella ipotesi comporta non solo la spiegazione dei dati esistenti ma eventualmente anche la previsione di nuovi fenomeni. Nuovi esperimenti o osservazioni confermeranno la correttezza delle previsioni e quindi l’accettazione o il rigetto dell’ipotesi iniziale.
Le scienze del clima, come vedremo, non soddisfano a questo paradigma anzi tendono ad identificarsi con il problema del global warming quando invece i fenomeni da spiegare sono innumerevoli. Inoltre a differenza della principessa delle scienze (la fisica) i dati disponibili per studiare il clima sono scarsi e di qualità scadente. Anche in connessione con il problema del GW non c’è una precisa volontà da parte della comunità scientifica di migliorare la qualità dei dati.
Le prove del riscaldamento globale
L’IPCC (Intergovernmental Panel on Climatic Change, Comitato Intergovernativo sui Cambiamenti Climatici) è un organismo dell’ONU incaricato di preparare periodicamente dei rapporti sullo stato del clima terrestre l’ultimo dei quali risale al 2014. Questo documento fra l’altro riporta gli indicatori più importanti dei possibili cambiamenti climatici. Questi indicatori sono basati sulle differenze delle varie grandezze (temperatura, umidità etc.) rispetto alla media del periodo 1961-1990. I principali sono:
- A partire dal 1850 la temperatura delle superfici emerse è aumentata di circa 1 grado centigrado (1C) con trend variabili che hanno visto la massima accelerazione negli anni 80 ma una inaspettata stasi negli anni 2000.
- La temperatura della superficie oceanica è aumentata di circa 0.5 C nello stesso periodo
- La temperatura dell’aria sopra l’oceano è aumentata di circa 0.8 C.
- Dal 1875 ad oggi il livello del mare è aumentato di circa 200mm con un trend quasi costante di circa 1.5 mm /anno. L’aumento è dovuto a due cause principali: da una parte al crescere della temperatura l’oceano si dilata e dall’altro lo scioglimento dei ghiacciai comporta un aumento del volume.
- L’estensione dei ghiacci marini, a partire dagli anni ’50, è diminuita di circa il 30% e seguita scendere.
- L’umidità specifica (grammi di vapore per Kg di aria) e aumentata ma mostra una stasi a partire dall’anno 2000.
- La copertura nevosa sull’emisfero nord nel periodo di scioglimento (Marzo-Aprile) tende a diminuire.
- Il bilancio dei ghiacciai è decisamente negativo con una perdita evidente del volume a partire dagli anni ’60.
Questo è ciò che risulta dalla letteratura scientifica. Poi i media riportano notizie apocalittiche per cui ogni pioggia, nevicata, mareggiata è attribuita al GW. Sull’aumento di frequenza di quello che viene chiamato “tempo estremo” si dibatte ancora al livello scientifico e non c’è un’opinione comune.
Chi è responsabile del riscaldamento
In base a questi indicatori non c’è dubbio che il clima della Terra stia cambiando è in particolare la temperatura media sta aumentando. La comunità scientifica internazionale è del parere che l’aumento di temperatura sia dovuto all’aumento della concentrazione dei gas di serra in atmosfera. I gas di serra sono quelli che assorbono la radiazione infrarossa (il calore) emessa dal pianeta e determinano le temperature che permettono la vita sulla Terra. Questi gas di serra sono principalmente l’anidride carbonica, il vapore d’acqua, il metano, etc. Di fatti il gas più importante è il vapore d’acqua da un punto di vista fisico ma è l’anidride carbonica (formula chimica CO2) quello che maggiormente preoccupa. L’anidride carbonica è un prodotto della combustione per cui la sua produzione accompagna costantemente lo sviluppo industriale. Alla fine degli ultimi anni la produzione mondiale di CO2 ha raggiunto i 40 miliardi di tonnellate. La sua concentrazione è passata da 290 ppm nel 1850 (anno d’inizio della rivoluzione industriale) a circa 400 ppm nel 2016. Ppm sta per parti per milione è misura la concentrazione dei gas atmosferici e significa che la concentrazione attuale di anidride carbonica è di 400 molecole per ogni milione di molecole di aria.
L’azione dell’anidride carbonica è in un certo senso subdola infatti il responsabile principale del riscaldamento globale rimane il vapore d’acqua attraverso un meccanismo che in gergo viene indicato come feedback del vapore d’acqua. Quando aumenta la concentrazione di CO2 aumenta di poco la temperatura e questo aumento provoca a sua volta un aumento della concentrazione del vapore che amplifica in questo modo l’aumento iniziale anche di un fattore 3 o 4.
Abbiamo quindi prove sufficienti che il clima della Terra si stia scaldando e tutti gli indizi porterebbero a individuare nella CO2 il possibile colpevole, ma dove sono le prove? Prima di raccogliere le prove è necessario rispondere ad una obiezione che arriva dai cosiddetti scettici del GW. La produzione annuale “umana” di CO2 ammonta a 40 miliardi di tn all’anno che in certi casi è circa 10 volte più bassa di alcuni flussi naturali. Il problema è che mentre i flussi naturali sono in equilibrio (tanta CO2 viene immessa tanta ne viene rimossa) quello dell’uomo è un contributo addizionale e di questo quasi la metà viene assorbita dagli oceani e dalle piante e il resto finisce per accumularsi in atmosfera. Tra l’altro quella che viene sciolta dall’oceano contribuisce ad aumentarne l’acidità e quindi a impattare sulla biologia dell’oceano. Ad esempio distrugge le barriere coralline.
Dov’è la connessione aumento dei gas di serra – riscaldamento
Un aumento della concentrazione dei gas di serra comporta un aumento di energia assorbita dal sistema Terra-Atmosfera. Ad esempio si può calcolare che per un raddoppio della concentrazione di anidride carbonica vengano assorbiti circa 4 watt/m2 in più. Questo dato va confrontato con la potenza in media assorbita dal sole che ammonta a circa 340 watt/m2: la variazione frazionaria di temperatura dovuta a questo aumento addizionale di potenza assorbita è circa 1/4 della variazione frazionaria della potenza assorbita cioè un pò meno di un grado. Poi ci sono quelli che prima abbiamo citato come meccanismi di feedback che solo per l’acqua ci danno un fattore 3 di amplificazione per cui vediamo che per un raddoppio di CO2 parliamo di un riscaldamento di circa 2.5C. Questo è quello che in gergo viene chiamato “calcolo fatto sul retro di un tovagliolo” ma dietro questo semplice calcolo si nasconde un’araba fenice delle scienze del clima che viene chiamata sensibilità climatica che indica di quando aumenta la temperatura della Terra se la potenza assorbita aumenta di 1 watt/m2 . La stima più prudente è che questo numero valga all’incirca 1 ma stime più credibili si aggirano attorno a 2-4.5. Il problema è che fino ad oggi questo dato non è stato misurato sperimentalmente e, come tanti altri dati che riguardano il global warming, viene dedotto dall’uso di modelli di circolazione generale (GCM). Cosa sono questi modelli? Sono degli strumenti di simulazione del clima terrestre. Di fatto essi risolvono su un computer le equazioni che regolano i moti dell’atmosfera della Terra e che di fatto determinano il clima. Questi modelli derivano da quelli che servono per le previsioni meteorologiche e siccome devono “girare”, cioè simulare la circolazione atmosferica per tempi più lunghi (decine di anni anziché giorni) usano una griglia geografica più larga di quella dei modelli per le previsioni meteo. In pratica le equazioni vengono risolte sui punti discreti della griglia che nei modelli più avanzati distano qualche decina di km. Attualmente l’IPCC può contare su circa 40-50 modelli di questo tipo che non proprio sorprendentemente danno risultati molto simili nel senso che tutti prevedono aumenti di temperatura media della Terra per la fine di questo secolo dell’ordine da 3 a 5C rispetto all’epoca preindustriale. Gli stessi modelli sarebbero in grado di prevedere più in generale come si evolverà il clima nelle varie regioni cioè come cambierà il regime delle piogge, la nuvolosità etc.
Esiste però un problema evidente che oscura questo quadro scientifico. In Fisica (ma anche nelle scienze ingegneristiche) si è abituati a verificare una previsione con dei dati sperimentali. Ad esempio se uso un modello strutturale per un edifico posso provare che lo stesso possa resistere a certe sollecitazioni. Se progetto l’ala di un aereo utilizzando un modello aerodinamico posso verificare i risultati in una galleria del vento. Nel caso dei GCM questo non è possibile perché la previsione riguarda il futuro e quindi da un punto di vista “popperiano” non posso falsificare le teorie che sono alla base dei modelli. In effetti esiste un modo indiretto per verificare i modelli ed è quello di “prevedere il passato”. Oggi esistono delle banche dati che catalogano con una certa precisione il clima degli ultimi 50 anni; questo è il risultato indiretto delle previsioni meteo fatte negli ultimi decenni e corrisponde a quello che si chiama in gergo “hindcast” in contrasto con il “forecast” che è la previsione del tempo futuro. Quando i modelli vengono utilizzati per simulare il clima del passato il risultato è deludente, cioè i modelli danno un andamento più o meno corretto con la temperatura media che in 50 anni varia di circa mezzo grado ma la differenza fra il vari modelli è circa 10 volte tanto: cioè il trend è corretto ma il valore assoluto presenta quello che si chiama un errore sistematico ben maggiore della variazione. La ragione per cui quasi tutti i modelli danno gli stessi risultati è che essi vengono modificati (cioè aggiustati) cercando di accordali con il clima attuale. Questa procedura non produce nessuna correlazione fra il clima attuale e quello futuro previsto.
La conclusione è che la fisica del clima come la conosciamo adesso permette di stabilire in base a considerazioni elementari che l’aumento dei gas di serra comporta un aumento della temperatura media della terra con le conseguenti variazioni climatiche. I dettagli delle future variazioni climatiche per il momento rimangono avvolti nella nebbia e stranamente per capire la portata di questa prima conclusione dobbiamo abbandonare la fisica del clima (che probabilmente non esiste) e ricorrere alla filosofia.
La filosofia del clima
L’origine della filosofia del clima si può far risalire a Naomi Oreskes oggi professore ad Harvard. Nel 1994 pubblicava su “Science” un lavoro dal titolo esplicito “Verifica, validazione e conferma dei modelli numerici nelle scienze della terra” in cui sosteneva che essendo il Sistema Terra un sistema aperto (cioè dipendente da una certo numero di parametri più o meno arbitrari) la validazione dei modelli era impossibile. A questo si aggiunge il fatto che il modelli di fatto non rappresentano una vera teoria del clima ma sono solo dei mezzi ingegneristici per realizzare alcuni esperimenti numerici. Ad essi quindi non è applicabile il metodo della falsificazione di Karl Popper non solo perché non si tratta di teorie ma soprattutto perché l’aggiustamento dei modelli sui dati sperimentali disponibili costituisce già di per se una falsificazione: come si può quindi falsificare un modello che è già falsificato?
I modelli quindi possono essere accettati nell’ambito di quello che un idrologo inglese (Keith Beven) ha definito come “realismo pragmatico” che si può riassumere come: questi sono i mezzi migliori che abbiamo al momento per prevedere il clima. Questo realismo pragmatico non va confuso con quello ben più nobile del guro Hilary Putnam. Non c’è quindi da vedere molta scienza nelle previsioni del clima futuro ma piuttosto queste sono delle esercitazioni costose di molti accademici (intesi come ricercatori) che giocano con dei giocattolini che contraddicono le procedure adottate in Fisica e nelle altre scienze cosiddette esatte. Un segno della scarsa qualità scientifica di queste vicende è data dalle osservazioni che vengono mosse all’IPCC da perfetti sconosciuti pubblicate però su media di grande prestigio. Chi si permetterebbe di metter in dubbio sul Wall Street Journal la rivelazione delle onde gravitazionali?
L’altro grave aspetto è il coinvolgimento politico dei ricercatori. L’IPCC è chiaramente un’espressione politica dei diversi governi che ovviamente sono essenziali per il mantenimento dei centri di calcolo dove vengono effettuate gran parte delle simulazioni. Il coinvolgimento è tale che si è andata affermando l’idea che le simulazioni al computer possano di fatto sostituire il dato sperimentale. Qualcuno è arrivato a individuare le simulazioni fatte con i GCM ad una sorta di una classico “esperimento cruciale”. Non solo, ma più in generale, che la simulazione possa diventare la “terza gamba” (accanto alle teorie e agli esperimenti) delle scienze esatte. Se si affermasse questo modo di procedere i governi avrebbero un totale controllo dei risultati scientifici perché così come avviene in altri settori si verrebbero a costituire giganteschi centri di calcolo internazionali che producono “previsioni su commissione”. Pensate cosa potrebbero pretendere dei governi “trumpisti” in proposito. Abbiamo visto in passato come i nostri eroici scienziati sono sempre al centro dello spettro politico, mai su posizioni estreme perché il loro obiettivo è la reperibilità dei fondi e la stabilità delle loro carriere. Purtroppo i tempi caratteristici del clima sono assai più lunghi dei tempi di avanzamento in carriera o della scadenza dei fondi di ricerca. La politica del clima deve essere separata dalla scienza del clima. La prima potrà usare i GCM e interpretarne i risultati come vuole. La seconda dovrebbe chiedersi perché il clima è quello che è, usando modelli euristici e ragionamenti scientifici guardando ad un fenomeno per volta. Considerata l’interdisciplinarità delle scienze del clima un serio programma di ricerca dovrebbe comprendere anche altre competenze che vanno dalla chimica alla paleontologia.
Come se ne esce?
Paradossalmente non abbiamo definito ancora il clima. Una volta si diceva (seguendo Mark Twain), il tempo è quello che ti becchi, il clima quello che ti aspetti. Oggi il clima viene inteso come una distribuzione statistica di alcune variabili che lo definiscono (temperatura, pioggia, etc.) e il tempo è un campione di questa distribuzione. Lo studio del clima è pieno di problemi irrisolti a cominciare dalle glaciazioni. Lo studio e i finanziamenti vanno quindi generalizzati ad altri settori mentre il problema del riscaldamento globale è praticamente risolto da un punto di vista scientifico ed è fondamentalmente un problema politico. Esiste una chiara connessione fra i modellisti del clima e i politici: da una parte si invocano più soldi per fare delle previsioni (non verificabili) più precise dall’altra i politici invocano una maggiore affidabilità (per rinviare le loro decisioni) e quindi sono disponibili ad dare più soldi.
Una prova di questo atteggiamento è quanto siano scarsi i fondi destinati alla ricerca sperimentale del settore. Qualche anno fa è stato proposto un esperimento risolutivo per provare alcuni aspetti fondamentali del global warming. Questo progetto denominato CLARREO (Climate Absolute Radiance and Refractivity Observatory, Osservatorio di Radianza assoluta e Rifrattività) prevedeva il lancio di una serie di satelliti. Esso è stato prima osteggiato dalla comunità meteorologica (che temeva che andasse ad incidere sulle sue risorse finanziarie) e poi definitivamente ammazzato dall’amministrazione Trump. Il costo del programma è più o meno equivalente a quello di mantenere in vita una cinquantina di modelli GCM. CLARREO avrebbe impiegato da cinque a dieci anni per raccogliere le prove definitive sulla realtà del GW e qualunque fosse stato l’esito non avrebbe fatto comodo a nessuno.
Malgrado le propagande governative fabbrichino false speranze sugli accordi di Parigi, oggi l’obiettivo di limitare il riscaldamento globale a meno di 2C è sempre più irraggiungibile ma l’IPCC e l’ONU seguitano ad insistere su una politica di mitigazione quando la vera soluzione è l’adattamento. Mitigazione significa ridurre le emissioni dei gas di serra ma anche intervenire direttamente sul sistema climatico secondo schemi fantascientifici che vanno sotto il nome di “geoingegneria”. Adattamento significa confrontarsi con la dura realtà e trovare soluzioni di resilienza ai cambiamenti climatici con adattamento delle infrastrutture e del quadro industriale soprattutto in agricoltura. A questo punto è ovvio che la via raccomandata dall’ONU e soprattutto dai paesi industrializzati è la mitigazione perché ad essa sono legati investimenti colossali per sistemi che succhino CO2 dall’atmosfera consumando ulteriori risorse e sviluppando sistemi che potranno essere venduti a paesi non altrettanto ricchi.
La geoingegneria addirittura prevede (e cominciano ora degli esperimenti pilota) di intervenire direttamente sul sistema climatico variando artificialmente alcune caratteristiche dello stesso. Questo è chiaramente un intervento alla dr. Stranamore e da qualcuno è stato paragonato ad essere in una stanza buia con una serie di maniglie di cui non si conosce la funzione. E’ come se uno somministrasse una medicina a caso ad un paziente che soffre di un male oscuro. Ma la classe scientifica per il soldi e la gloria è disponibile a questo ed altro. Non a caso uno dei primi sostenitori della geoingegneria è stato Edward Teller su cui era costruito il personaggio di Peter Sellers dal romanzo di Peter George.
L’adattamento è l’unica alternativa accoppiato ad una progressiva riduzione dei combustibili fossili sostituiti da sorgenti rinnovabili e in casi estremi dalla generazione di energia nucleare in sistemi più affidabili da un punto di vista
della sicurezza>>.