cambiamenti climatici

La criosfera si scioglie: i rischi di virus, batteri e disastri ambientali



Indirizzo copiato

La criosfera, custode del 70% dell’acqua dolce terrestre, si scioglie a ritmi accelerati. Ghiacciai, permafrost e calotte polari rivelano l’impatto dei cambiamenti climatici attraverso fenomeni di feedback che amplificano il riscaldamento globale con conseguenze irreversibili

Pubblicato il 27 nov 2025

Egle Conisti

Ricercatrice presso il CNR IIA – Istituto sull’Inquinamento Atmosferico del CNR



criosfera (1)

I cambiamenti climatici e la criosfera sono strettamente interconnessi: l’aumento dei gas serra altera l’equilibrio termico del pianeta e mette sotto pressione ghiacci, neve e permafrost. Comprendere queste trasformazioni è essenziale per prevedere scenari futuri e proteggere ecosistemi, risorse idriche e comunità umane.

Le cause antropiche del riscaldamento globale

I cambiamenti climatici rappresentano una delle sfide ambientali più urgenti della nostra epoca e in particolare del XXI secolo. Le cause di questi cambiamenti sono in parte naturali e in parte antropiche, con una grossa prevalenza delle seconde. Sono infatti causati principalmente dall’aumento dei gas serra (GHG) nell’atmosfera, in particolare anidride carbonica CO₂. Senza l’effetto serra, la temperatura media globale sarebbe di -18 °C, invece di 15 °C (National Oceanic and Atmospheric Administration, 2024) e, dunque, inospitale alla vita.

Il problema che però sta affliggendo il mondo contemporaneo è dovuto al fatto che, negli ultimi 150 anni, le attività antropiche, tra cui la produzione di energia mediante combustibili fossili, i processi industriali, i trasporti, gli allevamenti e la deforestazione, hanno portato a un incremento significativo della quantità di gas serra, soprattutto di diossido di carbonio, la cui concentrazione è passata da 315 p.p.m. nel 1958 a 428 p.p.m. nel 2024 (Scripps Institution of Oceanography, 2024).

Cambiamenti climatici e criosfera: definizioni, cause e quadro generale

In questo pianeta, la criosfera è l’insieme di tutte le zone dove l’acqua si trova allo stato solido, come calotte glaciali, ghiacciai, ghiaccio marino, neve e permafrost. È la più rilevante riserva di acqua dolce (raccoglie il 70% di quella presente sul pianeta) ed è un’importantissima sentinella dei cambiamenti climatici, poiché risponde più rapidamente alla variazione di temperatura rispetto alle altre parti del mondo (Arctic Amplification), a causa di una serie di sue caratteristiche tra cui la stabilità geologica e biologica (tipica del permafrost), l’influenza sugli ecosistemi (presenza o assenza determina la distribuzione delle specie terrestri e marine) e la sua alta riflettività, la cosiddetta albedo, cioè la radiazione solare incidente che è riflessa in tutte le direzioni (IPCC 2022, WMO 2024 – Cryosphere Report).

La criosfera ha un ruolo molto importante nel regolare il clima, in quanto funge da “condizionatore globale” modulando il bilancio energetico. Come riporta la “2024 Arctic Report Card”, rapporto pubblicato annualmente da NOAA per tracciare lo stato dell’ambiente artico rispetto alle osservazioni storiche, l’Artico continua a scaldarsi in modo più rapido rispetto alla media globale, evidenziando osservazioni da record che dimostrano questo enorme cambiamento (WMO Bulletin, 2024). Se la temperatura media planetaria è aumentata di circa 1,2 °C, nell’Artico l’aumento supera i 2 °C.

La criosfera come sentinella dei cambiamenti climatici e criosfera

In termini tecnici, questo significa che quelle artiche sono le regioni della Terra con la più elevata sensitività climatica (o sensibilità climatica). Questa è il parametro che lega una perturbazione all’effetto che produce sul clima. Una regione con bassa sensitività vedrà la sua temperatura aumentare in modo limitato anche a fronte di una forte perturbazione. Viceversa, una regione ad alta sensitività – come quella artica appunto – in seguito alla medesima perturbazione vedrà la temperatura aumentare in modo vistoso.

Artico marittimo e perdita di ghiaccio marino

Sappiamo che la regione artica è essenzialmente marittima, con un oceano coperto da ghiaccio marino. Per via del riscaldamento, il ghiaccio marino è sempre più ridotto: tra il 1979 e il 2021 è diminuito di oltre 2 milioni di km². La perdita di ghiaccio sta modificando l’albedo delle regioni polari ed è qui che entra in gioco l’ice–albedo feedback.

La sostituzione del ghiaccio con acque oceaniche libere comporta che l’energia solare un tempo riflessa dal ghiaccio verso lo spazio sia ora assorbita dall’oceano e trasformata in calore. Ciò è dovuto alla diversa albedo di ghiaccio e acque libere. Il primo riflette l’80% della radiazione, l’oceano ne riflette solo il 7%, assorbendo tutto il resto.

Artico, ghiaccio marino e feedback ice–albedo

Questi cambiamenti innescano a loro volta altre dinamiche complesse, come la rapida fusione dei ghiacci, alterazioni del permafrost e modifiche nei cicli energetici terrestri, provocando feedback climatici (positivi o negativi) che possono portare a un ulteriore aggravarsi della situazione nei prossimi anni. Si consideri poi che un progressivo scioglimento delle calotte polari comporta non solo l’innalzamento del livello medio dei mari ma anche la modifica delle correnti oceaniche che regolano il clima del pianeta, con effetti potenzialmente devastanti.

L’aumento delle temperature sta inoltre riducendo la durata della copertura nevosa in Siberia e Nord America. La mancanza di neve fa sì che il suolo della tundra perda umidità più velocemente, provocando un accelerato riscaldamento della superficie nei mesi estivi. Un suolo secco si scalda più velocemente e intensamente di un suolo umido.

Altra questione è che l’aria calda trattiene più umidità di quella fredda. Aumentando la temperatura, l’atmosfera può accogliere sempre più umidità. Anche la riduzione del ghiaccio marino contribuisce a ciò. Una superficie di oceano libero rilascia più umidità in atmosfera rispetto a un oceano coperto dal ghiaccio. L’aumento di umidità nell’aria intensifica la formazione delle nuvole. Esse, al pari di una coperta, inspessiscono l’atmosfera bloccando il poco calore in uscita verso lo spazio.

Eventi estremi di fusione delle calotte glaciali

La perdita di massa delle calotte glaciali non è inoltre una semplice risposta uniforme al riscaldamento climatico, ma è punteggiata da brevi eventi estremi (come, per esempio, il crollo della piattaforma di ghiaccio del Conger dell’Antartide nel 2022) che possono durare anche solo alcuni giorni ma possono innescare importanti perdite di massa.

Eventi brevi sono a volte associati a improvvise ondate di caldo e un esempio in tal senso è stato lo scioglimento di interi settori della calotta glaciale della Groenlandia nel luglio 2023. La calotta glaciale antartica è particolarmente soggetta a un aumento dello scioglimento e al collasso anche a causa delle sopracitate correnti oceaniche calde, che potrebbero accentuarsi con l’aumento della variabilità climatica.

In Groenlandia, dal 2012 sono state osservate anomalie di scioglimento che evidenziano l’influenza dell’aumento della variabilità climatica interannuale sugli eventi glaciologici estremi e sull’evoluzione della calotta glaciale. Non tenere adeguatamente conto di tale variabilità può portare a proiezioni distorte della perdita di massa glaciale su più decenni. Le fluttuazioni climatiche a breve termine, infatti, potrebbero avere un effetto di amplificazione, il che significa che le calotte glaciali sono più sensibili ai cambiamenti climatici di quanto si pensasse in precedenza (Secci, 2023).

Permafrost e infrastrutture nelle regioni polari

Come precedentemente citato, tra le porzioni di superficie terrestre coperte o intrise di acqua allo stato solido troviamo anche il permafrost, un terreno composto da ghiaccio, roccia e sedimenti che rimane a una temperatura inferiore a 0 gradi per almeno due anni consecutivi e che si può trovare nelle regioni polari oppure nelle zone montane, dove le temperature non sono abbastanza elevate da riuscire a sciogliere lo strato profondo del terreno.

Esso ricopre il 24% della terraferma nelle zone montane e polari, e in particolare nell’emisfero boreale, dove si estende per 23 milioni di km² tra Siberia, Canada, Alaska e Groenlandia. Il permafrost si sviluppa su tre differenti livelli: il primo è lo strato più superficiale che fonde e su cui cresce la vegetazione; lo strato inferiore è quello sempre congelato; infine lo yedoma, formatosi tra 1,8 milioni e 10.000 anni fa e ricco di materiale organico.

La perdita di permafrost porta a conseguenze dall’impatto disastroso per l’ambiente, come il termocarsismo, fenomeno che conduce alla creazione di depressioni e laghi. La fusione del permafrost porta a cedimenti infrastrutturali e conseguenti disastri. Uno studio pubblicato su Nature Reviews Earth & Environment ha rilevato che la perdita del permafrost ha provocato danni all’80% degli edifici in alcune città siberiane e al 30% delle strade nell’altopiano tibetano (Kramer et al., 2022).

Noril’sk e gli impatti industriali sul permafrost

Svariati insediamenti, così come edifici adibiti all’estrazione di risorse e a progetti militari e scientifici, sono stati eretti sul permafrost negli ultimi settant’anni (European Space Agency, 2021). Ne è un esempio Noril’sk (Krasnojarsk, Siberia settentrionale) – la più grande città del mondo costruita sul permafrost – nota per uno dei peggiori disastri ambientali verificatisi nel 2020.

L’incidente si è verificato nella centrale termoelettrica gestita dalla NTEK: i piloni di una cisterna di gasolio sono collassati facendo disperdere circa 21.000 tonnellate di gasolio, che si sono riversate nel fiume Ambarnaya fino a circa 12 chilometri di distanza. La contaminazione da gasolio avrebbe riguardato un’area di circa 350 chilometri quadrati, per cui si è reso necessario dichiarare lo stato di emergenza in Russia.

Le cause dell’incidente sono da attribuire a un cedimento del suolo dovuto allo scongelamento del permafrost, nella città che ospita la più grande industria mondiale di nickel e palladio.

Progetti internazionali di studio del permafrost

La collaborazione tra il Woodwell Climate Research Center, Harvard, l’Alaska Institute for Justice e l’Alaska Native Science Commission ha dato impulso alla creazione del programma Permafrost Pathways, un’iniziativa della durata di sei anni che mira a migliorare la comprensione sulla fusione del permafrost, il suo potenziale impatto sul clima e le potenziali conseguenze per persone e infrastrutture nella regione a nord del Circolo Polare Artico.

La proposta di sovvenzione include la creazione di otto stazioni in Siberia per il monitoraggio del flusso di carbonio e metano tra la terra e l’atmosfera, poiché il permafrost occupa quasi il 65% della massa continentale russa. Altre due stazioni verrebbero situate nel Canada settentrionale. Non è sorprendente apprendere però che il progetto è in continuo mutamento, a causa dell’attuale conflitto in Europa orientale (Kramer et al., 2022).

Emissioni, patogeni e rischi globali legati al permafrost

Gli eventi di fusione veloce – causati ad esempio dai frequenti incendi nella tundra – sono responsabili delle emissioni di gas serra. Ciò avviene perché lo scongelamento del permafrost permette a microrganismi come batteri e funghi di moltiplicarsi e nutrirsi della materia organica presente nel suolo scongelato, attivando così il processo di decomposizione con conseguente produzione e rilascio di metano e anidride carbonica, gas serra che incidono in maniera ingente sull’aumento delle temperature planetarie.

Questo rende il permafrost un elemento cruciale per il cambiamento climatico, in quanto potenziale fonte di grandi quantità di anidride carbonica CO₂ e metano CH₄ (Gartler et al., 2025). In particolare, il metano è 25 volte più potente nell’intrappolare il calore nell’atmosfera.

Un altro fenomeno che genera la rapida fuoriuscita di metano è l’instabilità dei clatrati idrati presenti in giacimenti nel permafrost sotto lo strato sedimentario del letto oceanico – a 300 metri di profondità – quando sono interessati da aumenti sostenuti di temperatura (Kramer et al., 2022).

Il rapido scongelamento del permafrost artico ha il potenziale di rilasciare, inoltre, batteri resistenti agli antibiotici, virus sconosciuti e scorie radioattive dai reattori nucleari e dai sottomarini della Guerra Fredda. È ciò che rivela una ricerca nell’ambito dell’ESA–NASA Arctic Methane and Permafrost Challenge.

Come accennato, il permafrost e lo strato attivo ospitano una vasta popolazione microbiotica che riesce a sopravvivere ed entrare in uno stato dormiente anche a temperature sottozero. Con lo scongelamento del permafrost, i microrganismi iniziano a riattivare il proprio metabolismo e ciò costituisce una duplice minaccia. Da un lato, come già detto, contribuiscono a decomporre la sostanza organica, producendo gas ad effetto serra; dall’altro, possono fungere da possibili agenti patogeni per piante, animali ed esseri umani.

Considerando che entro il 2050, circa 3,3 milioni di persone vivranno in territori in cui il permafrost si sarà completamente scongelato (Ramage et al., 2021), quest’ultimo aspetto potrebbe costituire un problema rilevante in termini epidemiologici.

Ad oggi però, per quanto riguarda ad esempio i virus a RNA, non esiste pericolo per umani e animali perché l’RNA è meno stabile del DNA e, perciò, è più incline alla degradazione. Quindi, sebbene i virus a RNA possano preservarsi nel permafrost, il loro acido nucleico non è stabile e risulta perciò improbabile il rischio di infezione per uomini e animali (Wu et al., 2022).

Un rischio maggiore esiste per le specie vegetali, dato dai funghi presenti nel permafrost come il Galerina paludosa e la Hyaloscypha, il cui numero sta aumentando con lo scongelamento del permafrost. Essi permangono all’interno di quest’ultimo attaccati a resti vegetali e spesso originano piccole spore che sono incubate per lungo periodo nella criosfera (Wu et al., 2022).

Monitoraggio geospaziale per comprendere i cambiamenti climatici e criosfera

La paleoclimatologia ha lo scopo di ricostruire l’andamento del clima nelle epoche passate e, attraverso lo studio di fenomeni naturali, rende possibile sviluppare modelli di dinamica climatica utili alla conservazione ambientale. L’analisi e il monitoraggio costituiscono sistemi informativi e di controllo dei dinamismi ambientali, siano essi naturali o indotti. L’impiego di strumenti sempre più avanzati di acquisizione dati ha enormemente contribuito al miglioramento quali–quantitativo delle informazioni raccolte.

Ad esempio, sulle Alpi, negli ultimi decenni, si sono osservati fenomeni evidenti: ritiro dei ghiacciai, degradazione del permafrost, riduzione della copertura nevosa e trasformazioni profonde nella vegetazione, con specie e comunità che si spostano verso quote sempre più elevate. Questi processi minacciano habitat di importanza comunitaria come ghiacciai permanenti, ambienti pionieri delle aree proglaciali, praterie alpine, vallette nivali e torbiere di alta quota, ecosistemi rari e non sostituibili.

Reti alpine di monitoraggio e modelli del permafrost

Grazie a progetti come CRIOHAB e PermaNet, che per ARPA Piemonte ha rappresentato un vero e proprio contributo di start–up, nelle Alpi piemontesi è stata installata una rete di stazioni per il monitoraggio del permafrost alpino sia in pozzo che per misure termiche di superficie: sono stati infatti applicati e sviluppati alcuni modelli per la mappatura della distribuzione potenziale del permafrost per la valutazione della cosiddetta “vulnerabilità criotica”.

Il permafrost, a differenza degli altri elementi della criosfera come i ghiacciai o la neve, è un fenomeno puramente termico, quindi pressoché invisibile. Ne consegue che, per valutarne la distribuzione, il ricorso a modelli matematici è spesso inevitabile. In Piemonte sono stati applicati due modelli: uno empirico, il PERMAROCK, e uno fisico–basato, il PERMACLIM.

Per quanto riguarda i sistemi indiretti di valutazione della presenza del permafrost, la metodologia delle misure BTS (Bottom Temperature of the Snow cover, introdotta da Haeberli nel 1973) è tra le più semplici ed economiche. Il metodo si basa sul principio che la temperatura alla base del manto nevoso, alla fine della stagione invernale, corrisponde alla quantità di calore immagazzinata dal terreno durante l’estate e al flusso di calore terrestre dell’area.

La metodologia consiste nel rilevare la temperatura del suolo al di sotto di una coltre di neve di potenza superiore a 100 cm nel raggio di 10 m, al termine dell’inverno ma prima che la fusione del manto nevoso abbia inizio. In letteratura, valori di temperatura ≤ –3 °C indicano un’alta probabilità della presenza di permafrost, mentre valori compresi tra –1,7 e –3 °C suggeriscono una sua possibile presenza.

Nelle stagioni tardo–invernali dal 2009 al 2013 sono stati rilevati in totale oltre 950 punti misura BTS che hanno consentito sia di testare e validare la carta della distribuzione potenziale del permafrost, sia di verificare la variabilità spaziale dell’andamento termico superficiale.

Prospezione geofisica, ERT e monitoraggio termico

Anche la prospezione geofisica rientra tra le analisi indirette per l’individuazione del permafrost e, in particolare, la tomografia elettrica (ERT – Electrical Resistivity Tomography) è certamente il sistema più idoneo per la determinazione della presenza del permafrost con ghiaccio in ambito montano. Il sistema si basa sull’analisi della resistività del geomateriale (terreno o roccia) al passaggio della corrente elettrica.

Il materiale contenente ghiaccio nelle fratture o nei pori ha un’elevata resistività (in genere dell’ordine di 10⁴ ÷ 10⁵ Ohm*m), anche se non sempre è facile discriminare tra una roccia in condizioni criotiche e una non criotica. L’unico sistema per stabilire la presenza di permafrost è quello diretto, cioè il monitoraggio termico. Misurando l’andamento termico in roccia e mettendo in relazione queste misure con i dati meteo–climatici sarà possibile ottenere relazioni tra clima e permafrost, valutando le relazioni tra atmosfera e litosfera nelle aree di alta quota (Paro e Guglielmin, 2013).

I fori realizzati sono di profondità variabile: 5 m (per avere informazioni relative al comportamento dello strato attivo), 30 m (per avere informazioni relativamente alle caratteristiche climatiche attuali) e 100 m (per un’analisi anche di tipo paleoclimatico; la maggiore profondità della perforazione consente di rilevare un record termico fossile, risalente probabilmente a 200–300 anni fa circa).

Secondo lo Special Report on the Ocean and Cryosphere in a Changing Climate (SROCC) dell’IPCC, entro il 2100 i ghiacciai delle Alpi potrebbero perdere fino al 90% della loro massa se le emissioni di gas serra continueranno al ritmo attuale. Gli scenari futuri confermano l’urgenza di intervenire e affrontare questa crisi con un approccio integrato che unisca ricerca scientifica, monitoraggio e strategie di adattamento.

Fondazione CIMA, per fare un altro esempio, ha sviluppato tecniche di monitoraggio e modellazione che permettono di raccogliere dati preziosi sullo stato e sull’evoluzione delle riserve glaciali attraverso l’uso dei droni, consentendo così l’acquisizione di dati su superfici estese e fornendo un livello di dettaglio senza precedenti sui processi di ablazione e accumulo, contribuendo a una gestione più efficace delle risorse idriche montane.

Telerilevamento satellitare e dinamiche dei ghiacci nei cambiamenti climatici e criosfera

PRISMA (PRecursore IperSpettrale della Missione Applicativa) è un sistema di osservazione della Terra da satellite con strumentazione elettro–ottica di tipo innovativo, che integra un sensore iperspettrale con una camera pancromatica (sensibile a tutti i colori) a media risoluzione. In questo modo, il satellite è in grado di distinguere non solo le caratteristiche geometriche degli oggetti osservati, ma anche la composizione chimico–fisica della superficie terrestre.

Nel progetto SCIA (Sviluppo di algoritmi per lo studio della Criosfera mediante Immagini prismA), le misure di spettroscopia a immagine fornite da PRISMA hanno permesso di indagare superfici radiometricamente complesse e ottenere alcuni parametri geofisici, attualmente realizzabili solo attraverso sensori iperspettrali aviotrasportati, come riconoscere tre fasi dell’acqua e la tipologia delle impurità su neve e ghiaccio.

Bilancio di massa antartico e deformazioni crostali

Volendo determinare il tasso di scioglimento dei ghiacci antartici è necessario calcolarne il bilancio di massa, cioè la differenza tra la massa di ghiaccio accumulatasi negli anni sull’intero continente e quella drenata a mare dai ghiacciai. Ciò è possibile tramite il confronto di modelli digitali di elevazione (DEM), ovvero modelli digitali ad alta risoluzione della quota del terreno, attraverso i quali ottenere una mappatura tridimensionale della superficie riferita a epoche diverse, mediante il confronto delle variazioni gravitazionali rilevate da satellite, l’analisi della cinematica dei ghiacciai, delle precipitazioni, dei processi di sublimazione e trasporto, ecc.

L’isostasia è un principio, sostanzialmente analogo a quello di Archimede, che descrive la tendenza della crosta terrestre a raggiungere uno stato di equilibrio gravitazionale attraverso il galleggiamento sul mantello. Quindi, quando la superficie è gravata da una massa, come ad esempio il peso dei ghiacci durante una glaciazione, la crosta sprofonda nel mantello; quando quest’azione viene meno, la crosta lentamente risale. Gli aggiustamenti isostatici sono caratteristici di tutti i periodi interglaciali; quello d’interesse per la geodinamica attuale è relativo alla fine dell’ultimo glaciale.

L’interferometria consiste in una misura relativa disponibile a scala spaziale, la cui accuratezza, potenzialmente notevole, dipende dalla correttezza della modellizzazione e calibrazione della geometria d’acquisizione. Il confronto del dato interferometrico con la rete GPS permette lo studio della geodinamica e delle deformazioni crostali, magari dovute all’aumento o alla diminuzione dello spessore dello strato di ghiaccio. A seconda che s’intenda generare un DEM piuttosto che una mappa di deformazione, questa misura relativa può essere rispettivamente interpretata come espressione di un dislivello piuttosto che di un movimento relativo. Il GPS consente invece una misura “assoluta” della quota o dello spostamento di un punto (rispetto al datum nel quale la si esprime).

Telerilevamento, SAR e costellazioni satellitari

Il telerilevamento è la scienza che studia le complesse realtà territoriali mediante l’utilizzo di sensori spettrali posti a notevole distanza dall’oggetto considerato. Le applicazioni del telerilevamento allo studio di queste aree remote sono molto importanti perché consentono di raccogliere informazioni non altrimenti acquisibili, data la difficoltà di effettuare rilievi diretti in situ.

Partendo dai primi sensori monobanda montati su piattaforme meteorologiche, con risoluzioni spaziali chilometriche, si è arrivati alle moderne piattaforme commerciali, come le statunitensi GeoEye, WorldView e Quickbird, in grado di restituire immagini multispettrali con una dimensione dei pixel a terra di ordine sub–metrico nella banda pancromatica.

Questo sviluppo della tecnologia satellitare, parallelamente ai metodi di elaborazione e classificazione delle immagini, ha fatto sì che le applicazioni del telerilevamento si espandessero in svariati settori, dal monitoraggio ambientale, alle analisi di rischio, alla pianificazione territoriale.

Tra le varie sottocategorie che compongono il telerilevamento, una in grado di rispondere significativamente bene a esigenze di tipo dinamico è quella dell’Interferometria SAR da satellite. Questa specifica branca del telerilevamento è basata sull’utilizzo di sistemi di rilevamento attivi, nei quali non si acquisisce la radiazione elettromagnetica proveniente dal suolo terrestre ma si misura la radiazione di ritorno (backscattering) prodotta da un impulso emesso precedentemente dal sensore stesso verso la superficie terrestre.

Il sistema si fonda sull’utilizzo di antenne radar, in grado di produrre e ricevere precisi segnali elettromagnetici; nello specifico, sui moderni satelliti viene fatto uso di antenne radar ad apertura sintetica (SAR), in grado di combinare una buona risoluzione geometrica con dimensioni dell’impianto tecnologicamente realizzabili. È da notare che i satelliti radar di ultima generazione, come quelli appartenenti alla costellazione COSMO–SkyMed, gestita dall’Agenzia Spaziale Italiana, sono in grado di raggiungere risoluzioni spaziali dei pixel a terra fino a 1 m; lo stesso dicasi per il satellite TerraSAR–X, prodotto dall’Agenzia Spaziale Tedesca.

Le immagini radar (SAR), benché non in grado di ricevere l’informazione cromatica della scena, possono contenere una serie molto ampia di informazioni sul comportamento degli elementi analizzati a terra (es. salute e tipo di vegetazione, tipo di copertura), considerando sia la firma spettrale (su molteplici bande, proprio come nel telerilevamento ottico), sia la polarizzazione (verticale, orizzontale, mista) dell’onda elettromagnetica di ritorno.

L’Interferometria SAR (InSAR) è invece un metodo di trattamento delle immagini SAR. In esso, tramite il confronto di una o più coppie di immagini satellitari di cui sono noti tutti i parametri orbitali, è possibile estrarre la differenza di fase tra le radiazioni contenute in un pixel presente su entrambe le immagini, e da lì ricavare la quota altimetrica dell’oggetto a terra corrispondente al pixel stesso oppure, nel caso in cui l’informazione altimetrica sia già nota (o approssimabile), la velocità di spostamento della porzione di terreno (Lugli, 2010).

Gli elementi fondamentali per le analisi in ambito telerilevato sono, come detto in precedenza, i dati di risposta radiometrica del suolo (o dell’oggetto che si vuole indagare) a seguito di un impulso elettromagnetico proveniente o da una sorgente artificiale (ad esempio una lampadina, un’antenna radar) oppure da una sorgente naturale di radiazioni (il Sole). Questi dati vengono quindi immagazzinati e memorizzati dal sensore deputato all’analisi tramite la creazione di immagini in formato digitale.

Un’immagine è, in effetti, un insieme di numeri che rappresentano una registrazione rettangolare, che avviene dividendo la scena rappresentata in piccoli elementi quadrati, detti pixel, di area uguale e arrangiati per righe e colonne. Il fatto che i valori dei pixel siano univocamente determinati all’interno della matrice (raster) rappresenta la sostanziale differenza tra le immagini digitali e quelle analogiche.

Per l’acquisizione di dati in telerilevamento si utilizzano varie specie di piattaforme di tipo terrestre, aereo e satellitare. Le classiche immagini analogiche da aereo hanno rappresentato le prime immagini per l’osservazione della superficie terrestre, e tuttora questo supporto viene utilizzato quando l’area di indagine è ristretta o si richiede una risoluzione geometrica molto alta.

Ma la raccolta di dati telerilevati mediante voli aerei rimane un’operazione molto costosa, che può essere effettuata solo da enti selezionati, prevalentemente governativi. Ciò che ha dato vero impulso alla disciplina è stata l’installazione di sensori multispettrali digitali su satelliti in orbita continua: i dati, acquisiti in modo routinario e distribuiti tramite agenzie preposte, vengono resi disponibili all’utenza a costi ragionevoli.

Le piattaforme satellitari, a seconda della loro altezza e dell’inclinazione rispetto all’equatore, sono costruite con diverse caratteristiche, tenendo conto del necessario compromesso tra distanza dalla Terra e velocità orbitali. Le due principali famiglie di satelliti utilizzate per il telerilevamento, in termini di traiettorie orbitali, sono: sistemi geostazionari e sistemi polari.

Un satellite geostazionario percorre un’orbita quasi circolare ed è posizionato sul piano dell’equatore terrestre. La sua caratteristica principale è quella di viaggiare alla stessa velocità angolare della Terra, compiendo un’orbita completa in 24 ore. Diversamente, i satelliti polari possiedono un’inclinazione di circa 90° rispetto all’equatore, ed hanno un’orbita tale da sorvolare a istanti precisi i due poli terrestri. Per essi l’orbita è ellittica e non passa esattamente sopra i poli geografici (orbite quasi polari).

Questi satelliti sono i più diffusi nel telerilevamento perché in grado di coprire in un certo tempo tutti i punti della superficie terrestre. Infatti, essendo a quota più bassa (900–1.000 km), devono avere una velocità elevata per poter resistere all’attrazione terrestre e quindi impiegano minor tempo a compiere un giro completo attorno alla Terra.

Campionamento biologico e archivi naturali dei cambiamenti climatici e criosfera

Infine è giusto ricordare l’importanza dell’analisi del materiale genetico, con cui si possono ottenere informazioni sulla biodiversità presente negli ambienti da cui sono stati prelevati i campioni e un importante supporto scientifico alla conservazione animale. Grazie allo sviluppo di protocolli di metabarcoding per un’accurata identificazione delle specie, in risposta alle richieste determinate dalla crisi estintiva, si può utilizzare la genetica per misurare ricchezza in specie, livelli di ibridazione, diversità genetica, dimensioni di popolazione e presenza di individui (monitoraggio genetico).

Nell’ambito del campionamento biologico possiamo fare l’esempio dei coralli profondi che fanno parte delle comunità bentoniche nelle regioni sub–artiche e artiche e stanno diventando un target per gli studi paleoclimatici. Questi organismi presentano vantaggi rispetto ad altri archivi climatici comunemente utilizzati (es. sedimenti marini):

  1. il loro scheletro aragonitico può essere datato in modo affidabile utilizzando la serie degli isotopi dell’uranio e del radiocarbonio, fornendo potenzialmente registrazioni secolari su scala sub–decadale;
  2. incorporano elementi in traccia, isotopi stabili e radiogeni che riflettono le condizioni ambientali dell’acqua di mare nel sito di campionamento.

Nello specifico, i rapporti Li/Mg, P/Ca, B/Ca e la composizione isotopica del boro dell’esoscheletro dei coralli profondi variano con la temperatura, la concentrazione di fosforo inorganico disciolto, la concentrazione di ioni carbonato e il pH, fornendo un nuovo strumento per ricostruire la variabilità di questi parametri chiave in ambienti di acque intermedie e profonde (Montagna P. et al., 2021).

Conoscere i cambiamenti climatici e criosfera per pianificare il futuro

Il monitoraggio biotico e abiotico della criosfera rappresenta un contributo di fondamentale importanza allo studio dei cambiamenti climatici che, imputabili o meno all’effetto serra, è ormai innegabile siano in atto da alcuni anni, come riconosciuto dalla quasi unanimità della comunità scientifica.

Solo una completa comprensione delle cause di tali cambiamenti può consentire una migliore previsione delle variazioni future mediante l’impiego di modelli ambientali (Bradley, 1999). Nella corsa contro il tempo per monitorare e tutelare le riserve d’acqua e gli habitat glaciali, l’integrazione di tecnologie avanzate rappresenta un passo fondamentale per fornire dati essenziali allo sviluppo delle giuste strategie da attuare nel contesto di questi mutamenti sempre più incalzanti.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati