Serendipity dal Bosone di Higgs alle catastrofi naturali AD 2013

“Antequam terra moveatur, solet mugitus audiri”(Seneca). L’Aquila si accartoccia sotto un violento schianto, dopo mesi di leggeri boati. Quattro anni fa. La sequenza di eventi sismici culminata il 6 Aprile 2009 nella tremenda scossa di Mw=6.3 che distrugge il Centro storico provocando 309 morti, 1500 feriti e 65mila sfollati, rimbalza dal Giubileo della Perdonanza e […]

Antequam terra moveatur, solet mugitus audiri”(Seneca). L’Aquila si accartoccia sotto un violento schianto, dopo mesi di leggeri boati. Quattro anni fa. La sequenza di eventi sismici culminata il 6 Aprile 2009 nella tremenda scossa di Mw=6.3 che distrugge il Centro storico provocando 309 morti, 1500 feriti e 65mila sfollati, rimbalza dal Giubileo della Perdonanza e dalla candidatura di L’Aquila a Capitale europea della cultura per il 2019, alle aule di tribunale con il processo ai sette membri scientifici della Commissione Grandi Rischi, accusati di omicidio colposo plurimo per aver sottovalutato la pericolosità della situazione. La condanna in primo grado a sei anni emessa lo scorso Ottobre 2012 nei loro confronti ha un’immediata eco mediatica eccezionale non solo in Italia ma anche nella comunità scientifica internazionale. Alla vigilia dell’Assemblea Generale della European Geosciences Union (Egu Spring Meeting, 7-12 Aprile 2013) di Vienna, oggi ben 11mila geo-scienziati della Terra si chiedono: cui bono. Il silenzio e il rumore assordante delle catastrofi naturali improvvise, superano l’umana comprensione: agli sconquassi tettonici bisogna aggiungere l’incompetenza di classi dirigenti che ovunque nel mondo condannano a morte così tante persone. Prima, durante e dopo simili tragedie. La Giustizia faccia il suo dovere nel servizio alla Verità. Al di là della contrapposizione tra innocentisti e colpevolisti, l’analisi della drammatica vicenda scientifica e giudiziaria ha importanti conseguenze sul futuro di L’Aquila e della comunicazione del Rischio Naturale nel nostro Belpaese. Sì, perché alla choc di una silenziosa città fondata nel 1274 e sempre rinata dalle ceneri delle catastrofi del passato (1315, 1349, 1703), si aggiunge il vuoto spinto assordante del silenzio colpevole di chi oggi presume di mostrare il cammino della ricostruzione e della crescita che è molto lungo, tra ponteggi e cantieri, lavori chiusi ed aperti. Gli effetti fragorosi di quel sisma sono incalcolabili. La Città delle 99 Cannelle, dei suoi 72.511 Aquilani, delle 30.755 famiglie (“fuochi”) che vivono a 714 metri di quota (più o meno come Gerusalemme), non si arrende. La Bolla del Perdono di Celestino V, la Perdonanza e il Pallio di Benedetto XVI Papa Emerito, superano il cataclisma del 2009 e la sconfitta “morale” della politica politicante, celebrando la grandezza di una città destinata salvare l’Abruzzo dall’abisso del nulla. Già, ma adesso cosa facciamo? Come comportarsi in caso di terremoti, impatti cosmici, incendi dolosi di città della scienza, esplosioni nucleari, eruzioni vulcaniche, tsunami, frane e crolli di montagne sottomarine? Quanti altri processi bisognerà istruire? “Serendipity” è uno degli aggettivi più appropriati da usare non soltanto quando si parla di ricerca e comunicazione scientifica: il desiderio di avventurarsi in territori inesplorati per trovare anche quello che non si cerca, è la chiave della nostra sopravvivenza sulla Terra ed altrove. Mentre l’Italia continua a tremare, c’è ancora bisogno di regole, onestà, competenza e investimenti nella ricerca pubblica e privata che consentano di superare la Sentenza di L’Aquila e la dicotomia allarmismo-rassicurazione fagocitata dai media. La serie di piccole scosse di minore entità tra le province di Modena, Lucca, Pistoia, con sconfinamenti in Lunigiana, la prima di magnitudo 4.8 verificatasi nel distretto sismico della Garfagnana il 25 Gennaio 2013 ed avvertita in buona parte del centro-nord, ricorda che le motivazioni della Sentenza di L’Aquila non hanno risolto il problema della previsione e prevenzione dei terremoti nel nostro Belpaese. Mentre in Garfagnana la terra continuava a tremare, il 30 Gennaio 2013, a colpi di magnitudo 3.3, la Protezione Civile diramava un’Allerta e qualche migliaio di persone venivano evacuate durante la notte. Solo la scossa del 12 Febbraio 2013 di magnitudo 3.8, registrata nel distretto sismico delle Prealpi venete e preceduta da altre di minore entità, non ha dato luogo a evacuazioni. L’allarme della Garfagnana e le migliaia di persone che hanno passato la notte all’addiaccio non ha suscitato grandi polemiche. È stato anzi catalogato come “buona pratica”. Dicono: “Meglio un allarme inutile che una rassicurazione mortale”! Le scosse della Garfagnana e quelle del Friuli confermano che in una zona in cui sono avvenuti terremoti storici importanti possono verificarsi altri terremoti importanti. La Garfagnana, come l’Aquila e il Friuli, è considerata zona ad alto rischio sismico, anche in ragione di un evento di magnitudo stimata 6.5 verificatosi il 7 Settembre 1920. Dopo il terremoto di L’Aquila, precisamente il 21 Aprile 2009, con Ordinanza del PCM n. 3757, fu istituita una Commissione Internazionale per fare il punto sulla “Previsione Probabilistica dei Terremoti con fini di Protezione Civile”. La Commissione di dieci geo-scienziati di fama mondiale fornì preziose indicazioni, mai capillarmente applicate, circa l’opportunità di incoraggiare le attività di previsione probabilistica, di monitoraggio, e di ricerca dei precursori diagnostici dei terremoti. Nella relazione si legge, tra l’altro, che “lo strumento più importante per la protezione dai danni che può causare un terremoto è la Mappa di Pericolosità: questa si può considerare una previsione probabilistica a lungo termine indipendente dal tempo, che individua con quale probabilità dei valori di scuotimento possono essere superati in ogni zona del territorio nazionale. Su questa base è possibile calibrare regole per la costruzione e la ristrutturazione antisismica che mettano in sicurezza la popolazione”. Le dieci Raccomandazioni dei geo-scienziati sono rimaste da allora lettera morta! Eppure l’ultimo aggiornamento della Mappa di Pericolosità Sismica in Italia era stato approvato dalla Commissione Grandi Rischi del Dipartimento della Protezione Civile il 6 Aprile 2004, cinque anni prima della catastrofe aquilana. Questa Mappa è diventata ufficialmente la “bibbia” di riferimento per il territorio nazionale con l’emanazione dell’Ordinanza PCM 3519/2006  pubblicata sulla G.U. n.105 dell’11 Maggio 2006. Successivamente, con decreto 14/01/2008 del Ministero delle Infrastrutture , pubblicato sulla G.U. n.29 del 04/02/2008, sono state aggiornate e pubblicate le Norme Tecniche per le Costruzioni che “utilizzano gli stessi nodi su cui sono state condotte le stime di pericolosità sismica da parte di INGV” e sono coerenti con la Mappa della Pericolosità. Nei giorni successivi il terremoto del Maggio 2012 in Emilia, a chi richiedeva un nuovo aggiornamento delle mappe di pericolosità, l’Ingv indicava la perfettibilità e l’aggiornamento della Mappa con i dati degli ultimi terremoti. Il che non avrebbe certo determinato variazioni significative. Rilevare il ritardo nell’applicazione delle norme sismiche del 2003, con in vigore la possibilità di applicare le normative precedenti, e il ritardo nell’applicazione delle Nuove Norme Tecniche del Febbraio 2008 entrate in vigore solo all’indomani del terremoto di L’Aquila, è un puro esercizio retorico. Fatto sta che, a causa di questi ritardi, nei Comuni interessati dal terremoto emiliano e in un notevole numero di quelli localizzati principalmente nell’Italia settentrionale, si “è accumulato – spiega l’Ingv – un notevole deficit di protezione sismica che è in parte responsabile dei danni avvenuti”. Costruire da zero regole e procedure perché in Italia non esiste una legge che affronti in modo moderno ed efficace l’intervento pubblico nelle grandi calamità, è segno di grande responsabilità. In Turchia è stato varato un Programma ventennale di opere pubbliche che prevede l’abbattimento e la ricostruzione di sette milioni di case, un terzo del tessuto urbano nazionale, con una spesa di oltre 400 miliardi di dollari. Per mettere in totale sicurezza milioni di persone altrimenti condannate. “In Italia questo non si fa e si pretende di poter salvare le persone sulla base di previsioni di breve periodo che noi non possiamo fare – spiega Alessandro Amato, direttore del Centro Nazionale Terremoti dell’Ingv – l’informazione che possiamo dare è di lungo termine, riguarda migliaia di anni, perché noi non siamo in grado di intervenire su scale temporali diverse. In base alla Mappa della Pericolosità che si ottiene gli amministratori devono predisporre piani di emergenza per le situazioni specifiche, di cui i cittadini devono essere a conoscenza”.  Questo è il tipo di “previsione” che possono fare i sismologi mentre lo Stato e le amministrazioni locali sono responsabili degli interventi di “prevenzione strutturale” e, attraverso la Protezione Civile, di “gestione dell’emergenza”. Negli gli Stati Uniti, il National Earthquake Hazards Reduction Program (NEHRP) è attivo dagli Anni ’70 del secolo scorso: con qualche piccola variazione nel tempo ha tuttavia mantenuto inalterati i suoi quattro obiettivi fondamentali, come ricorda il sismologo Thomas Jordan: sviluppare le procedure per la riduzione delle perdite dovute al terremoto; migliorare le tecniche per la riduzione della vulnerabilità sismica; migliorare la stima della pericolosità e i metodi di valutazione del rischio; migliorare la comprensione dei terremoti e i loro effetti. Con la famosa Relazione della Commissione Internazionale di L’Aquila, i quattro obiettivi del Nehrp costituiscono un ottimo punto di partenza per la costruzione di un Sistema di regole e procedure per la riduzione del rischio sismico. Regole, procedure e investimenti nella ricerca che permettano di andare oltre la Sentenza di L’Aquila, superando la dicotomia allarmismo-rassicurazione, consapevoli che l’Italia è un Paese ad alto rischio sismico, in cui i terremoti sono già storicamente “previsti”, che ha bisogno di “ridurre la vulnerabilità sismica” degli edifici e delle infrastrutture esistenti. Il Governo e il Parlamento italiani hanno il dovere di fare qualcosa. Le proposte forti non mancano e prevedono la ricostruzione del nostro Belpaese per migliorare sostanzialmente la qualità della vita degli Italiani, finalizzata alla ripartenza dell’economia reale. In primis con la riqualificazione strutturale, energetica e architettonica del patrimonio edilizio esistente, cui fa seguito il riuso o la sostituzione del costruito esistente e la demolizione (non i condoni!) del costruito abusivo. D’altra parte la sequenza di terremoti seguita al catastrofico sisma (e tsunami) di magnitudo 9 dell’11 Marzo 2011 a Tohoku-Oki in Giappone, ha offerto un’opportunità unica per mettere alla prova i modelli probabilistici che, a partire dalla distribuzione di alcune scosse nel tempo e nello spazio, tentano la previsione degli eventi successivi. È quanto hanno fatto tredici sismologi di diversa nazionalità, tra cui l’italiano Giuseppe Falcone dell’Istituto Nazionale di Geofisica e Vulcanologia, in uno studio pubblicato nel 2012 sulla rivista scientifica “Geophysical Journal International”, dal titolo:”Predictability study on the aftershock sequence following the 2011 Tohoku-Oki, Japan, earthquake: first results”. I cinque modelli utilizzati per la prevedibilità del terremoto di Tohoku-Oki e della sequenza di aftershocks, hanno fornito una buona occasione di confronto della loro capacità di prevedibilità. I modelli ETES (Epidemic Type of Earthquake Sequence) ed ERS (Epidemic Rate-and-State) applicati alla sequenza in questione da Falcone, sono stati sviluppati in collaborazione con Maura Murru e Rodolfo Console dell’Ingv, le cui prime pubblicazioni sull’argomento risalgono al 2001. Essi si basano su semplici ipotesi di come gli eventi possono interagire tra loro a breve distanza di spazio e di tempo. Il modello ETES fu anche utilizzato dal gruppo nelle recenti crisi sismiche in Italia, dopo il terremoto di L’Aquila del 2009 e dell’Emilia del 2012 e durante la sequenza sismica del Pollino di fine 2011 e inizio 2012, per monitorare in tempo reale la sismicità in corso. Il modello ETES ha fornito per il Giappone, rispetto a tutti gli altri modelli sottomessi, una migliore previsione per il terremoto di Tohoku-Oki ed è riuscito, nel periodo successivo fino al 17 Marzo 2011, a fornire previsioni consistenti con il totale dei terremoti che avvenivano realmente, rispetto ai restanti modelli, che invece li sottostimavano. Dati i buoni risultati del test, gli autori dell’articolo auspicano che l’operabilità per la previsione dei terremoti possa essere eseguita come risposta immediata nei casi di crisi sismiche, motivata dalle aspettative

scientifiche, sociali e pubbliche. I modelli ETES e ERS del gruppo italiano sono tuttora adoperati per produrre previsioni sismiche presso il Centro di previsione sismica in Giappone, che rappresenta una sezione del Progetto internazionale CSEP (Collaboratory Studies for Earthquake Predictability; www.cseptesting.org/) e partecipano all’esperimento del CSEP in Italia il cui centro ha sede presso l’ETH di Zurigo. Il progetto nasce con lo scopo di definire un esperimento per la verifica e il confronto dei diversi modelli di previsione dei terremoti. Per evitare ogni possibile errore di manipolazione sui risultati, le previsioni sono considerate esclusivamente per i periodi futuri e sono verificate utilizzando le osservazioni successive al momento in cui le previsioni stesse vengono formulate. Thomas Jordan, direttore del Centro terremoti del Southern California University, cita Warner Marzocchi, Maura Murru, Rodolfo Console, Giuseppe Falcone e Anna Maria Lombardi, come i migliori nel campo della prevedibilità a medio termine. Uno dei problemi più interessanti nella ricostruzione della dinamica dei terremoti, consiste nell’individuare la direzione dominante di rottura della faglia che si è messa in movimento. Per i forti terremoti questo problema è più facilmente risolvibile, mentre per i piccoli eventi presenta qualche difficoltà. Due ricercatori dell’Ingv e dell’Università “Federico II” di Napoli, Vincenzo Convertito e Antonio Emolo, hanno risolto il problema ricorrendo all’analisi di alcuni parametri relativi ai movimenti del suolo, come la velocità e l’accelerazione di picco del terremoto, registrati dalle stazioni della Rete Accelerometrica Nazionale (RAN) e della rete Ingv. I due studiosi hanno pubblicato in inglese la loro ricerca, dal titolo “Indagine sulla direzione dominante di rottura per tre terremoti moderati avvenuti nel nord Italia nel 2012 dall’inversione dei parametri di picco” sul “Bullettin of the Seismological Society of America”. L’attenzione per una più approfondita conoscenza dei terremoti di piccola e media grandezza è giustificata dal fatto che essi non provocano vittime e gravi danni. Tuttavia hanno effetti sociali ed economici notevoli perché portano all’interruzione delle attività economiche e lavorative attraverso la chiusura di scuole e uffici, con la richiesta da parte delle autorità di verifiche scientifiche per meglio valutare i rischi. Durante un sisma si possono udire dei boati durante o anche poco prima della scossa: cosa dicono i sismologi? Patrizia Tosi, Paola Sbarra e Valerio De Rubeis, ricercatori dell’Ingv, hanno pubblicato un interessante lavoro dal titolo:“Earthquake sound perception”(“La percezione del rombo sismico”) sulla prestigiosa rivista “Geophysical Research Letters”. Gli scienziati hanno analizzato 77mila questionari macrosismici sugli effetti dei terremoti recenti italiani, compilati dai cittadini attraverso sito Internet: www.haisentitoilterremoto.it. Fin dai tempi antichi il rombo era annoverato tra gli effetti del terremoto:“antequam terra moveatur, solet mugitus audiri”, scrive Seneca. Oggi sappiamo che il rumore è causato proprio dal passaggio delle onde sismiche (primarie e secondarie) dal terreno all’aria. L’effetto acustico, chiamato anche rombo sismico, era stato però trascurato sia da Mercalli sia dagli altri studiosi degli effetti dei terremoti, per le intrinseche difficoltà nel registrare il fenomeno. Oggi, grazie alla diffusione di Internet, il contributo dei cittadini in tempo reale può sostituire una costosa rete di sensori pubblici. L’analisi statistica dei dati così ottenuti ha mostrato che l’andamento della percezione del rombo rispetto alla distanza dall’epicentro segue una legge analoga a quella degli altri effetti del terremoto. Per questo motivo è possibile utilizzare anche questo effetto per caratterizzare l’impatto dei terremoti sul territorio. I dati mostrano che il 40 per cento delle persone afferma di aver sentito il rombo prima dell’inizio dello scuotimento. Questa osservazione si spiega con la diversa velocità di propagazione delle onde sismiche: le prime onde che arrivano (onde P) a volte sono più difficili da percepire come vibrazione, rispetto alle più lente onde S, ma possono produrre un suono udibile. È questo il motivo per cui gli animali domestici, con l’udito molto più sensibile rispetto all’uomo, possono fuggire spaventati pochi secondi prima dell’inizio dello scuotimento. Ciò vale anche per i terremoti associati alle eruzioni vulcaniche? Il volume curato da Maria Toscano, dal titolo:“Gaetano De Bottis – Ragionamento istorico intorno all’eruzione del Vesuvio che cominciò il dì 29 luglio dell’anno 1779 e continuò fino al giorno 15 del seguente mese di agosto”(2012, pp. 142) presentato nella Collana di testi della cultura filosofica e scientifica meridionale della Denaro Libri, è uno di quei libri che possono essere letti su più livelli. C’è senza dubbio quello della narrazione storica, del piacevole racconto di uno scienziato dell’epoca che descrive con dovizia di particolari e coloriti resoconti gli eventi e le conseguenze di una delle più spettacolari manifestazioni della natura: l’eruzione di un grande vulcano. Dal documento storico si possono ricavare anche molte informazioni, per così dire “segrete”, che permettono di compiere un’analisi tutt’altro che banale o scontata del testo. Dalla quale scaturiscono alcune interessanti osservazioni sulla scienza e il suo rapporto con il potere e la società e sul ruolo del meridione italiano nel contesto europeo della cultura scientifica, in un delicato periodo storico. Questa lettura a più livelli è proprio l’operazione che compie la curatrice nella prefazione/analisi al testo del De Bottis. De Bottis era, come spesso accadeva a quei tempi, un sacerdote-scienziato, un naturalista che dedicò gran parte dei suoi studi al Vesuvio. Ma era un naturalista cui evidentemente cominciava a stare stretto l’approccio alla scienza della natura, come ancora, in parte, lo si intendeva all’epoca e cioè come studio della “philosophia naturalis”. È un atteggiamento nuovo, moderno, rivelato da quella parola messa all’inizio del titolo dallo stesso De Bottis: “Ragionamento”. Come coglie acutamente Maria Toscano,“Il Ragionamento evidenzia certamente il rigore di un metodo e lo sforzo di una intera classe intellettuale di adeguare la propria cultura, tradizionale e per molti versi arretrata, alla nascente scienza moderna”. È chiaro fin dall’inizio che il documento non sarebbe stato un mero racconto cronachistico di fatti e fenomeni, ma questi sarebbero stati usati per compiere un vero studio sui meccanismi con cui opera la natura. L’intenzione del De Bottis di compiere un salto di qualità, si inserisce a pieno titolo nel fermento culturale che in quei decenni vedeva in Napoli uno dei centri più attivi e propulsivi della cultura illuministica europea anche in ambito scientifico. Napoli non solo stava vivendo uno dei periodi migliori della politica borbonica (le grandi iniziative di Carlo III e le aperture all’illuminismo del figlio Ferdinando IV) ma anche un momento particolarmente felice per l’affermazione dell’idea che la scienza potesse mettersi, con le sue conoscenze, al servizio del potere e della pubblica utilità e felicità. Fatto ignoto ai “mafiosi” ed ai politicanti di oggi che hanno permesso la distruzione della Città della Scienza di Napoli alla vigilia della conferma preliminare della veridicità della scoperta del Bosone di Higgs (125 geV). Se vogliamo, De Bottis appartiene a quella schiera di personaggi (scienziati, artisti e letterati) che in quegli anni, attratti dal Vesuvio e dalle bellezze storiche della Campania, affollavano la scena napoletana, facendone una tappa obbligata del Grand Tour italiano. Richiamati dal vulcano vi si recarono, quasi in un pellegrinaggio laico, i migliori scienziati e naturalisti d’Europa come Deodat Dolomieu, Lazzaro Spallanzani, Alexander von Humboldt, Humprey Davy, Charles Lyell e Charles Babbage. E, certamente non ultimo, quel famoso Sir William Hamilton che, forse, più di tutti contribuì a creare il mito del Vesuvio e di cui, in fin dei conti, De Bottis può essere considerato l’alter ego indigeno. Quest’atmosfera festosa fatta di persone, viaggiatori, scienziati e scoperte si ritrova nel libro curato dalla Toscano. Ci sono altre possibili chiavi di lettura, non ultima quella del ruolo della scienza nella società civile e del suo rapporto con il potere: due temi di grandissima modernità per quel tempo e oggi di enorme attualità, come ricorda la recente vicenda degli scienziati condannati per il terremoto di L’Aquila. Nel suo scritto, il De Bottis si rivolge direttamente alla persona del re, cosa non insolita per quei tempi ma senza dubbio più diffusa per le opere letterarie o artistiche. Era utile la dedica al signore o al committente di turno. In questo caso si parla di scienza e il De Bottis, rivolgendosi “Alla sacra Real Maestà di Ferdinando Re delle Sicilie”, individua nel sovrano un nuovo interlocutore al quale offrire questo sapere. Anzi, leggendo la dedica che egli premette al suo scritto, si capisce che in precedenza ha già prodotto altri lavori simili, che il re ha letto e gradito e che la relazione in oggetto è stata a sua volta espressamente richiesta dal sovrano. Insomma si capisce che al re (il potere di Dio in terra) la scienza interessa e, molto probabilmente, interessa anche per un modernissimo criterio di utilità sociale e nazionale. Il re a cui si rivolge De Bottis è quello stesso Ferdinando IV di Borbone (il famoso, ignorante e lazzaro “Re Nasone”) che qualche anno dopo manderà in giro per mezza Europa sei giovani scienziati meridionali a studiare mineralogia ed a raccogliere migliaia di campioni, per costituire a Napoli una grande collezione che servisse ad avviare l’industria estrattiva e metallurgica nel regno, così da sottrarlo alla dipendenza dall’estero. Forse anche grazie al lavoro del De Bottis, il re aveva capito che bisognava puntare sulle conoscenze scientifiche e investire su di esse, per far uscire dal sottosviluppo il suo Regno di Napoli. Non sembra un concetto piuttosto moderno e familiare alla luce della gravissima crisi economica italiana? Silenzi e rumori sono il comune respiro di ogni vulcano. Come rivelano le “Analisi multidisciplinari delle relazioni tra strutture tettoniche e attività vulcanica”, a cura dell’OGS e dell’Osservatorio Etneo che è in procinto di applicare metodologie per il calcolo della pericolosità sismica a scala locale dell’Etna. È una ricerca applicata di particolare rilevanza considerata l’elevata antropizzazione dei versanti Est e Sud del vulcano, attraversati da faglie attive capaci di generare forti terremoti, con brevi periodi di ritorno, e frane. Questi eventi distruttivi sono storicamente accaduti sia in concomitanza di eruzioni laterali sia in periodi non-eruttivi. L’obiettivo è quello di realizzare Mappe probabilistiche di pericolosità sismica per periodi di esposizione di 5-10 anni, molto più brevi di quelli considerati nella Mappa Sismica Nazionale che per le aree tettoniche usa un periodo standard di 50 anni. Attualmente gli scienziati stanno lavorando nella fase di input dei dati nel sistema, dopo un’attenta selezione e valutazione. Un uso pratico della Mappa di Pericolosità Sismica per l’Etna, è quello di costituire uno strumento-obiettivo per definire le priorità di intervento sui Comuni dell’area circa le opere di adeguamento sismico (ristrutturazione di scuole e edifici strategici) in un momento economico in cui è impensabile procedere indistintamente su tutto l’Etna. Ulteriori informazioni sono disponibili nel saggio “Vulcanologia e Sismologia: Il Giappone e Napoli”, a cura di Elena Cubellis (Ov-Ingv), pubblicato nella rivista “Il Giappone”, fondata e diretta dal Professor Adolfo Tamburello dell’Università degli Studi di Napoli “L’Orientale”. Non vi sono grandi disparità tettoniche tra l’arcipelago giapponese e la penisola italiana: infatti si sviluppano entrambi in zone di subduzione con la formazione di catene montuose caratterizzate da sismicità intensa e dal vulcanismo. A questi fenomeni si aggiungono manifestazioni termali molto diffuse, in paesaggi straordinari. Nel saggio la ricercatrice Elena Cubellis riporta le analogie geofisiche tra l’arcipelago giapponese, in particolare l’isola di Kyushu nella parte meridionale del Giappone, e il Golfo di Napoli, che porterà al gemellaggio tra la città partenopea e Kagoshima negli Anni ’60 del secolo scorso. Tra le due aree si rilevano le corrispondenze morfologiche degli apparati vulcanici, del paesaggio terramare tra il Vesuvio (Campania) e Sakurajima (Isola di Kyushu) e le problematiche sulla mitigazione del rischio vulcanico in entrambe le aree, designate dalle Nazioni Unite tra le aree vulcaniche più pericolose del mondo. Così scopriamo che in Giappone, come in Italia, città densamente popolate si sviluppano spesso in aree vulcaniche attive! Nel tomo della Cubellis si possono apprezzare le pagine sugli scambi culturali tra studiosi italiani e giapponesi, che risalgono alla seconda metà dell’Ottocento, nonché gli interessanti confronti scientifici sulla difesa dai terremoti e dalle eruzioni. “Due terre – rivela Elena Cubellis – con tali caratteristiche, non potevano non incontrarsi, per i comuni interessi, nella crescita della conoscenza dei fenomeni vulcanici e sismici e per la mitigazione dei loro effetti sulle popolazioni esposte”. Geologo e naturalista scozzese, Charles Lyell è una delle figure più importanti della storia della geologia. Il suo lavoro, Principi di Geologia (1831-1833), rappresenta una pietra miliare delle Scienze della Terra. I suoi viaggi in Europa e la sua intuizione scientifica gli permisero di costruire un nuovo paradigma geologico: l’attualismo, principio secondo il quale i processi naturali che hanno operato nei tempi passati sono gli stessi che possono essere osservati nel tempo presente. Il padre, avvocato, conosciuto come botanico, tradusse in inglese la “Vita Nuova” e “l’Inferno” di Dante Alighieri. Darwin fu profondamente influenzato dai “Principi” che ebbe modo di leggere durante il suo viaggio intorno al mondo. Per Lyell e Darwin, i dati geologici vanno considerati incompleti; essi sono, nella metafora classica sviluppata da Lyell e divulgata da Darwin, come un libro di cui siano rimaste poche pagine. Questo era il modo di lavorare di Lyell e di Darwin: interpretare i dati e colmare le lacune. Fu in Sicilia che Lyell trovò prove a sostegno delle sue teorie dell’attualismo. Nella zona dell’Etna trovò evidenze dell’azione lenta e continua dei processi naturali, studiando i resti marini negli strati del Terziario. Nel 1831 Darwin intraprendeva il suo viaggio attorno al mondo e portava con sé l’opera di Lyell, appena pubblicata. Darwin nei suoi studi e osservazioni fu molto influenzato dagli scritti di Lyell. Darwin e Lyell diventarono amici e corrispondenti. Lyell fu uno degli scienziati più affermati a sostenere il lavoro di Darwin “L’origine delle Specie”, benché egli non abbia mai completamente accettato la selezione naturale come il motore-guida dell’evoluzione. Gli scienziati sanno che il campo magnetico terrestre, o campo geomagnetico, è una proprietà caratteristica del nostra pianeta vivente, la Terra, che ha permesso, per mezzo della bussola, l’avvio della grande epoca delle navigazioni esplorative e delle scoperte geografiche. A marcare simbolicamente l’inizio di questa età, la traversata dell’Atlantico alla scoperta dell’America effettuata da Cristoforo Colombo nel 1492, assistita proprio dall’uso sistematico delle prime bussole magnetiche per la navigazione. Superando nei secoli l’aspetto puramente legato alla navigazione, il Geomagnetismo è divenuta una disciplina che muovendo dagli abissi della Terra, si spinge a includere lo spazio circumterrestre (le due Fasce di Van Allen e l’ultima appena scoperta dalla Nasa) ed oltre, rimanendo sul fronte della geofisica moderna. Tra le applicazioni più note del geomagnetismo troviamo l’esplorazione mineraria, le ricostruzioni paleo-continentali, lo “spaceweather”, il magnetismo ambientale. Senza considerare poi il contributo offerto dal geomagnetismo alla geofisica nella conoscenza delle profondità abissali della Terra e del nucleo terrestre in particolare. In Italia l’Ingv effettua misurazioni del campo magnetico terrestre con diverse modalità e con diverse finalità. Gli osservatori geomagnetici sono le strutture nelle quali si svolge l’attività di misura che consente il monitoraggio continuativo dell’evoluzione del “livello assoluto” del campo. Ogni 5 anni su una rete di oltre 110 punti (stazioni di ripetizione) l’Ingv arricchisce le misure di osservatorio con altre di dettaglio su punti-chiave della nostra penisola e delle nostre isole, per fotografare il campo in tutta l’area d’interesse. Mentre negli osservatori viene misurato il campo in maniera continuativa, le misure di dettaglio sulla rete vengono effettuate periodicamente. L’ultima ripetizione è stata effettuata su oltre 110 punti in un arco di tempo che va dalla fine del 2009 ai primi mesi del 2010. Mediante le misure di osservatorio questi dati sono stati ridotti ad una epoca unica, il 1° Gennaio 2010. Tra gli scopi principali di quest’attività, la determinazione della variazione secolare e in particolare l’aggiornamento della cartografia magnetica d’Italia, una vera e propria fotografia del campo magnetico alla data indicata. In collaborazione con l’Istituto Geografico Militare Italiano di Firenze i dati raccolti nelle misure sono stati utilizzati per produrre quattro Carte magnetiche, rispettivamente per la declinazione, le componenti orizzontale e verticale, e per il campo magnetico totale. Le carte sono inserite in un apposito contenitore che comprende anche una pubblicazione, con le specifiche tecniche delle misure effettuate e delle relative elaborazioni, e un CD-Rom che consente di ottenere una visualizzazione grafica della cartografia italiana e di muoversi interattivamente per ricevere informazioni sul valore delle componenti, sulla variazione secolare ed altro ancora, semplicemente accedendo con il mouse del computer. Questo lavoro è stato curato dall’UF Geomagnetismo della Sezione Roma2, Geomagnetismo Aeronomia e Geofisica Ambientale. Molto significative sono le influenze dei processi di degassamento nelle aree marine intorno ai vulcani. Fulvio Boatta, Walter D’Alessandro, Lisa Gagliano, Sergio Calabrese, Marcello Liotta, Marco Milazzo e Francesco Parello, sono gli studiosi dell’Ingv e del Dipartimento di Scienza della Terra e del Mare dell’Università di Palermo, che hanno presentato un interessante lavoro sull’acidificazione dell’acqua di mare in aree vulcaniche attive. Questa problematica è stata studiata sia dal punto di vista dell’impatto delle emissioni vulcaniche sull’ambiente e sulla salute umana, sia dal punto di vista della modellizzazione dell’acidificazione dell’acqua di mare e delle sue conseguenze ecologiche. Questo costituisce, inoltre, l’argomento della tesi di dottorato in Geochimica del primo degli autori. La Baia di Levante dell’isola di Vulcano, che è la più meridionale delle isole Eolie e che si trova nel Mar Tirreno Meridionale, a circa diciotto miglia al largo della costa Nord-Est della Sicilia, si è rivelata un ottimo laboratorio naturale per questo tipo di studi. In quest’area esistono molte emissioni sottomarine che rilasciano anidride carbonica di origine vulcanica. Quest’ultima si discioglie formando acido carbonico che contribuisce all’abbassamento del pH (acidificazione) dell’acqua di mare. Attraverso le indagini geochimiche, avvenute durante il 2011-2012, il team di esperti ha evidenziato come la zona della Baia del Levante possa essere considerata un laboratorio naturale dove molti dei processi bio-geochimici, legati alla acidificazione degli oceani, possono essere studiati. “La Baia di Levante – spiega Walter D’Alessandro – si presta bene per varie ragioni. La prima è che la baia rappresenta un ambiente relativamente protetto, con uno scambio con il mare aperto sufficiente per mantenere condizioni chimico-fisiche e ambientali abbastanza stabili nel tempo. Inoltre è abbastanza grande perché si trovino condizioni relative ad un ampio intervallo di livelli di acidificazione. Questo punto è importante perché consente di studiare livelli di acidificazione dell’oceano riferibili a differenti periodi futuri e con vari scenari di incremento dell’anidride carbonica atmosferica ed anche condizioni estreme legate a input localizzati di questo gas. Inoltre, da non trascurare, vi è pure una ragione logistica. L’isola è facilmente raggiungibile e la presenza del “Centro Carapezza” gestito dall’Ingv dà la possibilità di alloggiare e di approntare un rudimentale ma funzionale laboratorio”. L’aumento di anidride carbonica in atmosfera, che il pianeta sta vivendo, farà sì che nel futuro degli oceani ci sarà un differente pH rispetto al normale. “Sicuramente, ed i primi effetti sono già stati registrati dal momento che il pH medio degli oceani è già sceso di circa 0.1 unità rispetto ai livelli preindustriali. Tale differenza, che potrebbe essere considerata trascurabile dalla maggior parte delle persone, in realtà sta già cominciando a creare dei problemi a tutti gli organismi marini che costruiscono strutture carbonatiche quali ad esempio le conchiglie dei molluschi ed i “rami” del corallo. Tali problemi ovviamente aumenteranno col diminuire del pH, continua D’Alessandro”. Dalla piccola scala di emissioni di anidride carbonica a Vulcano, si capisce la grande scala dell’atmosfera della Terra. Il quarto rapporto dell’IPCC (Intergovernmental Panel On Climate Change) stima che entro la fine del XXI Secolo il pH marino passerà dal livello attuale di 8,1 al 7,8 a causa della crescente concentrazione di anidride carbonica nell’atmosfera. “Nonostante le polemiche che hanno caratterizzato il lavoro svolto dal IPCC e dall’incertezza che caratterizza alcuni dei risultati delle modellizzazioni future – rivela Marcello Liotta – noi siamo convinti della sostanziale correttezza delle previsioni effettuate sull’acidificazione degli oceani. A tal proposito le condizioni ritrovate nella Baia di Levante, nella parte più lontana dalle emissioni gassose più abbondanti, presentano appunto un intervallo di pH tra 8,1 e 7,8 che sono riferibili a concentrazioni atmosferiche di anidride carbonica comprese tra gli attuali 380 ppm e i 650 ppm previsti per fine del secolo con uno scenario intermedio di emissioni antropiche. Ma nella Baia si ritrovano anche valori di pH molto più bassi che potrebbero rivelarci le conseguenze sia di una acidificazione dell’oceano più spinta (scenari di emissione più pessimistici) sia quelle dovute per esempio ad una perdita di anidride carbonica da un sito di stoccaggio sottomarino. Quest’ultimo caso, pur avendo effetti arealmente molto più ristretti, può avere come conseguenza un abbassamento molto più vistoso (pH <6) come quello registrato nella Baia nelle zone di emissione dell’anidride carbonica. Valori così bassi possono favorire la mobilità e la biodisponibilità di metalli pesanti con importanti ricadute sulla qualità ambientale e la salute umana”. Dunque, l’acidificazione è legata alla mobilità ed alla biodisponibilità di metalli pesanti. “Tra i metalli pesanti – fa notare Liotta – si annoverano alcuni tra gli elementi più tossici per l’ambiente in genere e per gli organismi superiori in special modo. La loro tossicità però dipende molto dalla forma chimica in cui si presentano. Spesso questi sono immobilizzati in fasi solide relativamente innocue. La loro biodisponibilità e quindi la loro tossicità generalmente aumenta nelle loro forme più mobili, come per esempio gas e particelle sottili in atmosfera e specie disciolte in acqua. In quest’ultimo caso soluzioni molto acide favoriscono il rilascio di elementi tossici dalle fasi solide e la loro dissoluzione in acqua. Da questo punto di vista l’attività vulcanica in genere, rilasciando oltre all’anidride carbonica anche molte altre specie acide, favorisce la mobilità di elementi tossici e può quindi avere un impatto non indifferente sull’ambiente circostante”. I sensori dell’Ingv sono sempre più sensibili ed attenti su scala planetaria. Una singolare coincidenza ha voluto che mentre il governo della Corea del Nord annunciava, Martedì 12 Febbraio 2013, la terza esplosione nucleare sotterranea, effettuata in un sito non meglio precisato di una zona montuosa a Nord-Est del Paese, un gruppo di ricercatori italiani dell’Istituto Nazionale di Geofisica e Vulcanologia diffondesse i risultati di un nuovo studio sulla precisa localizzazione e altre caratteristiche del sito. Pubblicato sulla rivista internazionale “Pure and Applied Geophysics” col titolo:“A Multidisciplinary Study of the DPRK Nuclear Test” (12/2012), la ricerca è stata condotta da dieci ricercatori dell’Ingv (R. Carlucci, A. Giuntini, V. Materni, S. Chiappini, C. Bignami, F. D’Ajello Caracciolo, A. Pignatelli, S. Stramondo, R. Console e M. Chiappini) che collaborano con il Ministero degli Esteri italiano nell’ambito dell’Autorità nazionale per il “Comprehensive Nuclear-Test-Ban Treaty”, il Trattato internazionale per il bando dei test nucleari, adottato dalle Nazioni Unite fin dal 1996, ma non ancora ratificato da tutti i Paesi e, quel che peggio, non applicato da alcuni. “L’obiettivo della nostra ricerca – spiega il geofisico Massimo Chiappini, a capo del gruppo – è quello di effettuare la caratterizzazione delle esplosioni nucleari nord-coreane per ottenere non soltanto una più precisa localizzazione geografica del sito, ma anche le caratteristiche della roccia incassante all’interno della quale sono effettuati i test, la geometria della cavità, la potenza dell’ordigno, le deformazioni subite dal rilievo topografico in conseguenza dell’esplosione, l’eventuale rilascio di radionuclidi nell’ambiente”. Per localizzare un sito in cui sono realizzate esplosioni nucleari sotterranee, di solito si adottano le stesse tecniche usate per il calcolo degli epicentri dei terremoti naturali, misurando i tempi di arrivo delle onde sismiche alle varie stazioni della rete mondiale di monitoraggio. Prima dell’esplosione del 12 Febbraio 2013, i nord-coreani ne avevano effettuate altre due, rispettivamente il 9 Ottobre 2006 e il 25 Maggio 2009. Relativamente a questi due eventi, i geofisici dell’Ingv hanno constatato che le localizzazioni ricavate da altri gruppi di ricerca internazionali, apparivano disgiunte, come se i siti fossero due ben distinti e distanti fra loro alcuni chilometri. Applicando un nuovo algoritmo e selezionando solo le stazioni che avevano registrato entrambi gli eventi, il gruppo di ricerca Ingv ha constatato, invece, che le due localizzazioni risultavano praticamente coincidenti. Per stabilire, con una precisione mai raggiunta prima, le coordinate del sito, i ricercatori Ingv hanno deciso di ricorrere a un’altra tecnica di indagine geofisica, chiamata “Differential Interferometric Synthetic Aperture Radar”(DInSAR) che utilizza le numerose immagini radar riprese da alcuni satelliti artificiali in successivi passaggi sopra una determinata zona. Mettendo a confronto le immagini DInSAR è possibile costruire degli interferogrammi e valutare dislocazioni del terreno anche di appena un centimetro. La stessa tecnica è stata applicata nei giorni successivi al disastroso terremoto di L’Aquila del 6 Aprile 2009, ricavando una deformazione del terreno di circa 25 cm su un’area estesa alcune centinaia di Km quadrati attorno al capoluogo di regione abruzzese. “Applicando la tecnica DInSAR alla zona utilizzata dai nord-coreani per i loro test nucleari sotterranei, dopo l’esplosione del Maggio 2009 – rivela Chiappini – abbiamo misurato un abbassamento del terreno di 4,5 centimetri in una località di coordinate 129.1 di Longitudine Est e 41.4 di Latitudine Nord, che si trova circa 10 Km più a Nord della più accurata localizzazione sismica. Poiché riteniamo che la precisione della determinazione con metodi sismici sia condizionata dalle anomalie di propagazione delle onde, siamo del parere che quella interferometrica rappresenti la migliore localizzazione attualmente disponibile”. Circa le altre caratteristiche del sito, lo studio multidisciplinare dei ricercatori Ingv lascia ipotizzare che la cavità sotterranea dove avvengono le esplosioni abbia una configurazione orizzontale, come una galleria scavata ai piedi di un alto massiccio montuoso, costituito da antichissime rocce granitiche risalenti all’era mesozoica. Il contenimento dei prodotti radioattivi all’interno della galleria sembra perfetto, tanto che i sensori di particelle radioattive non hanno rilevato alcun tipo di radionuclide sfuggito nell’atmosfera. In termini di energia liberata, le prime due esplosioni del 2006 e del 2009 hanno generato, rispettivamente, scosse di magnitudo 4.0 e 4.5 Richter. Quella del 12 Febbraio 2013 ha raggiunto, invece, 5.1 Richter. Da questi valori si può desumere che le bombe nucleari nord-coreane sono piccole ma in crescendo, con potenze comprese tra 5 e 15 chilotoni (la bomba americana sganciata su Hiroshima nel 1945 fu di 12,5 chilotoni). L’Ingv ha realizzato recentemente una mostra dal titolo “Dal Cielo alla Terra”. Fino al 31 Maggio 2013 sarà possibile ammirare nella Galleria Medici Ricciardi a Firenze una grande raccolta di strumenti storici e recenti per misure scientifiche geofisiche. In una sala a fianco, parte del percorso espositivo, è possibile vedere in funzione due particolari “exibit”: una piramide con all’interno una simulazione virtuale di eruzione vulcanica e di fronte una grande installazione alta 3 metri denominata “Mega Piramide3D” dov’è possibile vedere mediante occhiali polarizzati, immagini tridimensionali o modelli reali grazie ad una “commutazione ottica”. Il nuovo exibit, brevettato recentemente da Antonio Caramelli, ricercatore dell’Ingv, sarà prodotto e commercializzato da una società italiana che ha realizzato il primo prototipo esposto a Firenze. La particolarità del nuovo exibit, al di là dell’uso didattico nel quale sarà possibile alternare immagini virtuali a oggetti reali (per esempio un modello di vulcano reale abbinato alle immagini 3D di lava che cola lungo i pendii) trova applicazioni nella presentazione di nuovi prodotti. Per dare maggiore visibilità e attirare maggiormente l’attenzione, al di là delle immagini presentate, conta lo “strumento” utilizzato. Normalmente si usano vetrine per mostrare prodotti reali da proporre per un acquisto oppure si presentano immagini 2D o 3D del prodotto mediante schermi di vario genere. La MegaPiramide3D unisce queste possibilità, consentendo di visualizzare nel medesimo volume immagini virtuali 3D stereoscopiche (visibili con occhiali 3D a polarizzazione passiva), oggetti reali, immagini 2D in rotazione, pseudo 3D (visibili senza occhiali 3D). La visualizzazione può essere esclusiva (una delle tre cose elencate precedentemente ) o una “miscela” tra reale e virtuale dove risulta difficile capire dove finisce l’uno e comincia l’altro. La MegaPiramide3D si presenta con una struttura simile a un tronco di piramide con le facce riflettenti al di sopra del quale è posto uno schermo 3D in retroproiezione orizzontale. In funzione del tipo di allestimento scelto e delle dimensioni, è prevista una visione unilaterale o a 360° attraverso la rotazione degli spettatori intorno all’exibit. La miscelazione delle immagini virtuali a quelle reali avviene attraverso una commutazione ottica progressiva ottenuta con un particolare semi-specchio : variando la luminosità di forti luci all’interno dell’exibit è possibile rendere trasparente o riflettente il semi-specchio consentendo o meno la visione all’interno. I semi specchi utilizzati sono un particolare messo a punto in collaborazione con l’Ingv, costituito da una speciale pellicola metallizzata montata su telai di alluminio. La pellicola Mirror3D mantiene in riflessione il piano di polarizzazione necessario alla visione 3D sia per polarizzazione lineare che circolare. La pellicola Mirror3D impedisce alla maggior parte della luce esterna di entrare all’interno della MegaPiramide3D facendo scomparire in questo modo la visione di oggetti all’interno della piramide. Nel caso di luci spente all’interno, solo ciò che viene visualizzato sugli schermi orizzontali sopra i semi-specchi apparirà all’interno della piramide con un effetto tridimensionale garantito dal sistema a filtri polarizzatori. Sincronizzando le immagini virtuali con l’accensione delle luci all’interno dell’exibit per fare apparire gli oggetti reali, sarà possibile miscelare otticamente virtuale con reale: per esempio si potranno simulare delle fiamme (virtuali) sopra un vulcano (modello reale all’interno dell’exibit). Diminuendo poi le luci all’interno si potrà fare sparire l’oggetto reale lasciando solo le immagini virtuali. Così tutti possono rendersi effettivamente conto della pericolosità legata all’attività tettonica nell’area vesuviana ed etnea, che rappresenta un elemento importante nella delicata valutazione nella pianificazione del territorio. Le faglie etnee, infatti, oltre che essere spesso sismogenetiche, possono produrre dislocazioni del suolo lente, ma continue nel tempo, che deteriorano rapidamente qualunque manufatto costruito sulle faglie. Inoltre, molte faglie attraversano centri abitati densamente popolati, aumentando il loro potenziale distruttivo. Queste considerazioni hanno suggerito la necessità di realizzare un data-base georiferito di tutti i principali sistemi di faglie etnee attive, utilizzabile sia in ambito puramente scientifico, sia dai tecnici addetti alla pianificazione territoriale operanti negli uffici pubblici. Una sorta di anagrafe delle faglie attive, ove esse possano essere registrate, catalogate e visualizzate anche in funzione di tutta una serie di parametri utili per la prevenzione e pianificazione, ma anche per la gestione delle emergenze. Il cuore del lavoro, pubblicato sulla rivista internazionale “Journal of Volcanology and Geothermal Research”, è stato infatti la parametrizzazione delle strutture da inserire nel data-base. Oltre alle informazioni prettamente geografiche e geometriche di ciascuna struttura tettonica, sono stati definiti e creati per tutte le faglie tutti gli appositi campi numerici e testuali necessari per descriverne e caratterizzarne la tipologia, il movimento, la potenzialità di generare terremoti e l’eventuale connessione tra il movimento della struttura e l’attività eruttiva del vulcano. Il documento (www.sciencedirect.com/science/article/pii/S0377027312002612) consente di rappresentare i dati delle faglie direttamente tramite GoogleMap. Si tratta di una cosa tutt’altro che banale, in quanto l’individuazione documentata ed inequivocabile di queste faglie mette un punto fermo sulla loro ubicazione (particolarmente quelle poco visibili in superficie), molto utile per gli uffici del Genio Civile e di altre Istituzioni preposte a rilasciare pareri autorizzativi sull’edificazione di manufatti ed infrastrutture e per quelle preposte ad intervenire e pianificare gli interventi durante le emergenze. Il database è realizzato in modo da potere essere implementato in ogni momento con nuove informazioni che possono essere acquisite in futuro. Il documento rappresenta una sorta di “stato dell’arte” delle conoscenze acquisite sulle faglie etnee, catalogate in un data-base aperto ai contributi: il gran numero di campi descrittivi previsti nel database è appositamente disegnato per accogliere tutte le informazioni necessarie, anche se non ancora disponibili. Il database è sviluppato utilizzando il software ArcGIS ®, che è tra i più completi e diffusi, ed è fornito sotto forma di file in formato “shape”(.shp), universalmente riconosciuti da tutti i software GIS. Si compone di diversi set di dati tematici, sia geografici sia numerici, che analizzano e rappresentano i cinque sistemi di faglie principali che si sviluppano nella regione etnea. Tutti i dati sono georiferiti sul sistema di riferimento globale (WGS84), su cui si basano ormai tutti i dispositivi di localizzazione e mappatura che utilizzano il GPS. Per facilitare ulteriormente l’utilizzo e la lettura dei dati geografici, le coordinate sono fornite in proiezione piana (UTM zona 33N) cioè  in metri (Nord e Est) piuttosto che gradi (Latitudine e Longitudine), in modo da rendere tutto di più facile e immediata lettura. Attraverso specifiche interrogazioni, inoltre, il database è in grado di produrre una grande varietà di mappe di pericolosità e vulnerabilità. Autori del documento scientifico sono i vulcanologi Giovanni Barreca, Alessandro Bonforte e Marco Neri. Pare ragionevole pensare che la geofisica abbia molto da guadagnare dalla fisica quantistica. L’interazione di campo descritta nel lavoro dei fisici dell’Università del Texas, pubblicato su “Science”, è la potenziale candidata, secondo alcuni ricercatori, ad assumere il ruolo di Quinta Forza Fondamentale della Natura. Che andrebbe ad aggiungersi alle Quattro Forze già note: gravitazionale, elettromagnetica, nucleare debole e forte. Se così fosse, si dovrebbe contemplare anche la presenza di qualche nuova, inaspettata, o forse già nota, particella elementare. I fisici sanno che il Modello Standard della Fisica, la Teoria dei Campi che “sposa” Meccanica quantistica e Relatività ristretta, “consacrata” dall’esistenza del Bosone di Peter Higgs, la “Particella di Dio” appena scoperta al Cern di Ginevra grazie al superacceleratore Lhc, prevede l’esistenza di nuove particelle virtuali, scambiate da coppie di elettroni attraverso un’interazione a lunga distanza. L’ipotesi della Quinta Forza non è fantascienza! La Quinta Forza è stata avanzata diverse volte in passato: prevede un’intensità pari a quella della gravità e un raggio d’azione che va da pochi millimetri fino a distanze misurate su scale cosmiche. Se gli Ufo alieni esistono, allora, ne faranno gran uso! Tuttavia, l’ipotesi è rimasta finora tale, supportata solo dall’apparato teorico del Modello Standard. Il team di ricercatori guidato da Larry Hunter, professore di Fisica dell’Amherest College è partito dall’interazione teorica spi-spin a lunga distanza per cercare in profondità la nuova forza. Dal livello in superficie dei loro laboratori, i ricercatori americani hanno puntato gli strumenti in basso a migliaia di chilometri, verso il mantello terrestre, cioè quello strato geologico che separa la crosta dal nucleo centrale del pianeta. Dalla geologia sappiamo che il mantello è costituito in gran parte di materiale ferroso, immerso nel campo gravitazionale terrestre che fornisce agli elettroni degli atomi di cui è composto una specifica orientazione di spin. “Partiamo dal presupposto che un dipolo magnetico (un magnete) ha un’energia più bassa quando è orientato parallelamente al campo magnetico terrestre. Quello che facciamo nei nostri esperimenti – spiega Hunter – è eliminare quest’interazione per stabilire se ci sono altre interazioni analoghe, tra gli elettroni del laboratorio in superficie e quelli del mantello terrestre”. I geo-elettroni sono i valori di intensità e direzione che Hunter ha assegnato alle particelle descritte nella simulazione di calcolo degli elettroni delle viscere della Terra, sviluppata nella prima fase del lavoro. Questi dati sono stati incrociati con quelli ottenuti da Jung-Fu “Afu” Lin, professore associato della Jackson School of Geosciences, a riguardo di spin di elettroni di atomi sottoposti a condizioni di stress simili a quelle del mantello. La stima delle energie delle particelle in superficie in funzione dell’orientazione col campo magnetico terrestre ha indicato, per il momento, solo uno scarto di circa un millesimo tra l’intensità di interazione spin-spin tra due elettroni e la forza gravitazionale. “La cosa più sorprendente e gratificante di questo lavoro – rivela Jung Lin commentando i dati – è stato capire che la fisica delle particelle può essere utilizzata per studiare la geofisica”. Quella branca della Fisica, insieme a tutte le altre scienze, che la distruzione della Città della Scienza di Napoli ha oggi reso meno fruibile. “L’Istituto Nazionale di Geofisica e Vulcanologia – dichiara il Professor Stefano Gresta, Presidente dell’Ingv – esprime la propria costernazione per quanto accaduto alla Città della Scienza di Napoli con il terribile incendio. Sono state fortemente colpite le importanti strutture gioiello della Scienza napoletana riconosciute in tutto il mondo. In questo momento così difficile, l’Ingv dichiara di voler contribuire a sostenere da subito ogni intervento di pronta ripresa delle attività”. Nel frattempo sull’Etna fontane di lava alte più di due grattacieli Empire State Building lanciano al cielo altri segnali. La Terra è viva.

Nicola Facciolini

Una risposta a “Serendipity dal Bosone di Higgs alle catastrofi naturali AD 2013”

  1. […] Serendipity dal Bosone di Higgs alle catastrofi naturali AD 2013 È quanto hanno fatto tredici sismologi di diversa nazionalità, tra cui l'italiano Giuseppe Falcone dell'Istituto Nazionale di Geofisica e Vulcanologia, in uno studio pubblicato nel 2012 sulla rivista scientifica “Geophysical Journal International”, dal … Read more on L’Impronta L’Aquila […]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *