Analisi di rischio e incertezza: l’uso dei metodi Monte ...MOLINARI] Analisi di... · metodologie...

22
Analisi di rischio e incertezza: l’uso dei metodi Monte Carlo per i rischi naturali Daniela Molinari* *Dottoranda in Ingegneria Idraulica Dipartimento di Ingegneria Idraulica, Ambientale, Infrastrutture Viarie, Rilevamento (DIIAR) Politecnico di Milano Piazza Leonardo da Vinci, 32 20133 Milano tel. 02.2399.5457 mail. [email protected] Abstract La stima del rischio associato ad un qualsiasi evento, cioè, le analisi di rischio, sono sempre caratterizzate da un certo grado di incertezza, che può essere più o meno elevato a seconda del livello della conoscenza scientifica in merito al fenomeno trattato. Caratterizzare tale incertezza, ovvero esprimerla e quantificarla nel risultato finale, appare però indispensabile ai fini di un uso del dato più chiaro, giustificato e trasparente. Nel campo dei rischi naturali, la maggior parte delle attuali metodologie di analisi trascura però questo aspetto, non fornendo indicazioni sufficienti in merito all’affidabilità del risultato. Il presente studio propone quindi l’uso dei metodi Monte Carlo, già applicati con successo in altri settori, ai fini di un’analisi dei rischi naturali di tipo probabilistico. In particolare trasforma il cosiddetto “metodo con memoria”, proposto in ambito sismico, in un metodo, trasferibile ad altri ambiti oltre a quello sismico, in grado non solo di comprendere e di caratterizzare l’incertezza legata alla scelta dei parametri che concorrono a quantificare il rischio ma anche di trasferirla e quantificarla nel risultato finale. Un caso studio sul territorio della Garfagnana ha permesso di verificare il metodo. Risk analyses always involve uncertainty which depends on the knowledge analysts have of the phenomenon they are dealing with. So, in order to use risk analyses results in a more transparent, aware and justified way, it is important to characterize and quantify this uncertainty. Unfortunately, in the field of natural risks, present analyses are mainly deterministic and do not allow uncertainty representation. The aim of this study is then proposing and testing Monte Carlo methods, which have already been adopted in other research fields, as tool for probabilistic risk analyses. In particular, the suggested method develops the seismic “Renewal Process” in a new methodology which allows to quantify and characterize both input and output parameters uncertainty. A case study, regarding the Garfagnana region, has validated the methodology. The added value of the proposed method is its transferability in the analyses of other natural hazards. Keywords: Incertezza, rischio, Monte Carlo Keywords: Uncertainty, risk, Monte Carlo 1. Introduzione L’importanza politica e sociale delle analisi di rischio è un dato ormai riconosciuto, globalmente accettato tanto dalla comunità scientifica che dalle istituzioni politiche. Su di esse si basano infatti una molteplicità di decisioni di immediato impatto sulla sicurezza ed il futuro di molti cittadini. E’ chiaro quindi che tali analisi dovrebbero basarsi su metodologie consolidate, affidabili, al fine di fornire la miglior visione possibile della realtà su cui si va ad operare o dei risultati raggiungibili seguendo una certa strategia. Purtroppo però la realtà è un’altra. Spesso i dati sono mancanti, il fenomeno studiato poco conosciuto, le metodologie di stima poco consolidate, con il risultato che troppo spesso i dati forniti dalle analisi di rischio non rispecchiano la situazione reale bensì la alterano fino a distorcerla. Le attuali metodologie di analisi non consentono però di tener “traccia” di tutto questo. Esse forniscono quale risultato un unico dato, o di tipo deterministico o di tipo sintetico, che, a parere dei non esperti del settore, può apparire come un dato certo, cioè non affetto ne da errore ne, tanto meno, da incertezza. Ne consegue che i decisori politici compiono sulla base di tali dati, che

Transcript of Analisi di rischio e incertezza: l’uso dei metodi Monte ...MOLINARI] Analisi di... · metodologie...

Analisi di rischio e incertezza: l’uso dei metodi Monte Carlo per i rischi naturali

Daniela Molinari* *Dottoranda in Ingegneria Idraulica Dipartimento di Ingegneria Idraulica, Ambientale, Infrastrutture Viarie, Rilevamento (DIIAR) Politecnico di Milano Piazza Leonardo da Vinci, 32 20133 Milano tel. 02.2399.5457 mail. [email protected] Abstract La stima del rischio associato ad un qualsiasi evento, cioè, le analisi di rischio, sono sempre caratterizzate da un certo grado di incertezza, che può essere più o meno elevato a seconda del livello della conoscenza scientifica in merito al fenomeno trattato. Caratterizzare tale incertezza, ovvero esprimerla e quantificarla nel risultato finale, appare però indispensabile ai fini di un uso del dato più chiaro, giustificato e trasparente. Nel campo dei rischi naturali, la maggior parte delle attuali metodologie di analisi trascura però questo aspetto, non fornendo indicazioni sufficienti in merito all’affidabilità del risultato. Il presente studio propone quindi l’uso dei metodi Monte Carlo, già applicati con successo in altri settori, ai fini di un’analisi dei rischi naturali di tipo probabilistico. In particolare trasforma il cosiddetto “metodo con memoria”, proposto in ambito sismico, in un metodo, trasferibile ad altri ambiti oltre a quello sismico, in grado non solo di comprendere e di caratterizzare l’incertezza legata alla scelta dei parametri che concorrono a quantificare il rischio ma anche di trasferirla e quantificarla nel risultato finale. Un caso studio sul territorio della Garfagnana ha permesso di verificare il metodo. Risk analyses always involve uncertainty which depends on the knowledge analysts have of the phenomenon they are dealing with. So, in order to use risk analyses results in a more transparent, aware and justified way, it is important to characterize and quantify this uncertainty. Unfortunately, in the field of natural risks, present analyses are mainly deterministic and do not allow uncertainty representation. The aim of this study is then proposing and testing Monte Carlo methods, which have already been adopted in other research fields, as tool for probabilistic risk analyses. In particular, the suggested method develops the seismic “Renewal Process” in a new methodology which allows to quantify and characterize both input and output parameters uncertainty. A case study, regarding the Garfagnana region, has validated the methodology. The added value of the proposed method is its transferability in the analyses of other natural hazards. Keywords: Incertezza, rischio, Monte Carlo Keywords: Uncertainty, risk, Monte Carlo 1. Introduzione L’importanza politica e sociale delle analisi di rischio è un dato ormai riconosciuto, globalmente accettato tanto dalla comunità scientifica che dalle istituzioni politiche. Su di esse si basano infatti una molteplicità di decisioni di immediato impatto sulla sicurezza ed il futuro di molti cittadini. E’ chiaro quindi che tali analisi dovrebbero basarsi su metodologie consolidate, affidabili, al fine di fornire la miglior visione possibile della realtà su cui si va ad operare o dei risultati raggiungibili seguendo una certa strategia. Purtroppo però la realtà è un’altra. Spesso i dati sono mancanti, il fenomeno studiato poco conosciuto, le metodologie di stima poco consolidate, con il risultato che troppo spesso i dati forniti dalle analisi di rischio non rispecchiano la situazione reale bensì la alterano fino a distorcerla. Le attuali metodologie di analisi non consentono però di tener “traccia” di tutto questo. Esse forniscono quale risultato un unico dato, o di tipo deterministico o di tipo sintetico, che, a parere dei non esperti del settore, può apparire come un dato certo, cioè non affetto ne da errore ne, tanto meno, da incertezza. Ne consegue che i decisori politici compiono sulla base di tali dati, che

ritengono rappresentativi del sistema su cui vanno ad intervenire, scelte che possono portare a risultati parziali o diversi rispetto a quelli auspicati. Andrews et al. /1/ dimostrano, però, come il confronto tra rischi di diversa natura comporti priorità di intervento differenti, nel momento in cui si và ad intervenire sull’incertezza di stima dei modelli adottati. O ancora, Moschandreas et al. /13/ evidenziano come, nella valutazione del rischio associato all’esposizione ad un particolare agente chimico, la considerazione o meno dell’incertezza di stima porti a risultati del tutto diversi tra loro. Negli ultimi anni, si sta così facendo sempre più strada la consapevolezza che il tradizionale approccio di tipo deterministico debba essere superato, a favore di nuove metodologie di analisi, di tipo probabilistico, in grado di caratterizzare tutta l’incertezza di stima. Le stesse Environmental Protection Agency (EPA) /17,18/ ed Environmment Agency (EA) /10/ individuano nell’indagine probabilistica, ed in particolare nei metodi Monte Carlo, lo strumento più idoneo alla trattazione di tale incertezza. Solo associando al dato di rischio anche il suo possibile “range di errore” si può infatti raggiungere l’obiettivo di porre i decisori politici di fronte a scelte più chiare e trasparenti. Tuttavia, nel campo dei rischi naturali, l’approccio di tipo probabilistico è poco diffuso, anche a causa della non omogeneità, in letteratura, delle definizioni di rischio e quindi delle metodologie di valutazione adottate. A questo si deve aggiungere poi la notevole complessità insita nella valutazione delle variabili che concorrono alla formazione del rischio. Il presente lavoro, adottando come caso esemplificativo quello del rischio sismico, propone quindi una possibile metodologia di valutazione probabilistica del rischio associato ai fenomeni di origine naturale. Lo strumento matematico adottato è rappresentato dai sopraccitati metodi Monte Carlo. La scelta del rischio sismico quale ambito di prova deriva dal fatto che, in questo campo, è già stato sviluppato un metodo di indagine di tipo probabilistico, il cosiddetto “metodo con memoria” /2,3,4,5,6,16/, da cui partire e attraverso cui validare il “metodo Monte Carlo”. Ciononostante, come verrà ampliamente discusso in seguito, lo scopo principale del presente lavoro non è quello di produrre un metodo per la valutazione del rischio sismico, bensì uno strumento che possa essere applicato anche e sopratutto per rischi di natura diversa, laddove la disponibilità di dati è scarsa o, per alcuni parametri, inesistente. 2. L’incertezza di stima Quando si parla di incertezza, nel campo delle analisi di rischio, la letteratura è ricca di riferimenti e definizioni, anche a sostegno dell’importanza del percorso intrapreso nel presente lavoro. Andrews et al. /1/ propongono una interessante sintesi delle definizioni maggiormente adottate nei vari settori scientifici che, sebbene a un primo sguardo possano sembrare diverse tra loro, in seguito ad una indagine più approfondita permettono di individuare aspetti comuni. Per tale motivo, in questa sede si è scelto di seguire, tra le tante possibili, la classificazione inizialmente proposta dall’EPA ed in seguito adottata anche da diversi autori (si veda ad esempio Moschandreas et al. /13/, Ma /11/, Linkov et al./9/), a sostegno della sua accettabilità a livello internazionale. Secondo tale approccio l’incertezza di stima è legata alla scelta di scenari, modelli e parametri. La prima forma di incertezza (quella legata allo “scenario”) ha origine dalla interpretazione del problema da parte degli esperti. La mancanza di dati o la scarsa conoscenza del fenomeno analizzato possono portare, infatti, a “visioni” anche molto diverse tra loro. Tale fonte di incertezza può essere però ridotta sia mediante osservazioni in situ, al fine di aumentare la quantità di informazioni disponibili in merito al fenomeno, sia mediante tavole rotonde tra gli esperti, al fine di raggiungere una visione univoca e concordata del problema. Il range dei risultati forniti dai vari esperti in seguito a queste due operazioni può essere quindi considerato quale rappresentativo della reale incertezza legata allo scenario. L’incertezza legata al “modello” deriva invece dalla incapacità di un modello di rappresentare fedelmente la realtà ovvero i fenomeni in gioco e le relazioni tra loro intercorrenti. Un’operazione di calibrazione e taratura può portare ad un miglioramento dell’accuratezza dei risultati forniti dal

modello, il quale rimane però un’approssimazione del mondo reale e quindi sempre affetto da errore. Infine, l’incertezza legata ai “parametri”, ovvero alle variabili utilizzate nel modello, ha una duplice natura. Se da un lato, infatti, essa può dipendere dalla mancanza di conoscenza riguardo allo specifico parametro dall’altro essa è strettamente legata alla eterogeneità intrinseca del parametro stesso. Tale forma di incertezza, nota con il termine di variabilità, non può essere in alcun modo ridotta e sarà sempre presente nel risultato finale. In base a quanto sopra, è chiaro quindi che qualsiasi analisi di rischio sarà sempre caratterizzata da un certo grado di incertezza e che, al fine di caratterizzare tale incertezza, dovrebbe essere necessario considerare tutte e tre le forme sopra citate. Tuttavia, sebbene Linkov et al. /9/ abbiano dimostrato come il maggior grado di incertezza sia dovuto alla formulazione del problema (ovvero alla definizione dello scenario) tanto il mondo scientifico che quello normativo si sono concentrati maggiormente sulle altre due forme di incertezza, proponendo metodi di analisi di varia natura. In particolare, i metodi Monte Carlo sono oggi riconosciuti come lo strumento più idoneo alla caratterizzazione dell’incertezza legata ai parametri. Anche nel presente lavoro quindi, data la notevole complessità, tra l’altro già citata, della questione relativa alla definizione di uno scenario comune nel campo dei rischi naturali, si è così scelto di concentrarsi sulla sola incertezza legata ai parametri, ritenendo, già solo questo aspetto, un piccolo passo avanti rispetto alla attuale prassi comune. 3. Il rischio e i metodi Monte Carlo I metodi Monte Carlo, sviluppati per la prima volta negli anni 40 nell’ambito del gioco d’azzardo, permettono di risolvere un modello del tipo input-output in termini probabilistici. In letteratura, principalmente in campo ecologico-ambientale, chimico-industriale e sanitario, molteplici sono gli studi che, da ormai diversi anni, si basano su tale metodologia, soprattutto in seguito alle linee guida emanate dalle diverse agenzie governative /10,17,18/. Si vedano, ad esempio, Moschandreas et al. /13/, Jhonston /8/ e Ma /11/ per gli studi nel campo della valutazione della relazione dose-risposta all’esposizione di agenti chimici, Wells /19/ per gli studi in campo ambientale, Pet-Armacost et al. /15/ in campo chimico-industriale. In ogni caso, l’idea che sta alla base dei metodi Monte Carlo è quella di associare ad ogni input del modello adottato non un valore deterministico bensì una idonea distribuzione di probabilità (pdf), in modo tale da caratterizzare tutta l’incertezza e la variabilità legata al parametro in considerazione (Hayse /7/). L’output del modello viene quindi calcolato n-volte assumendo, quale input, un’estrapolazione casuale dalle pdf individuate. Si ottengono così n valori per l’output che, una volta interpretati, permettono di risalire alla pdf dell’output stesso. Il risultato è quindi una valutazione dell’output non solo di tipo “quantitativo” ma anche in termini di probabilità di accadimento (Figura 1). I vantaggi che ne derivano sono molteplici. Conoscere la distribuzione di probabilità dell’output significa infatti non solo trasferire nel risultato tutta l’incertezza legata ai parametri in ingresso bensì anche poterla caratterizzare, in termini di momenti statistici (media, varianza, deviazione standard, etc.). Significa poi, avere a disposizione tutta una serie di informazioni aggiuntive legate alla tipologia (famiglia) di pdf in uscita, quali trend, informazioni sul tipo di variabile, probabilità di superamento di un certo valore soglia dell’output, etc. A titolo esemplificativo, ed al fine di illustrare i vantaggi che tale metodologia può apportare nell’analisi dei rischi naturali, si consideri il seguente esempio. Sebbene sia ancora aperta la discussione in merito e sebbene non vi sia ancora pieno accordo sui vari termini, la definizione di rischio maggiormente adottata dalla comunità scientifica internazionale (Menoni et al. /12/), nel campo dei rischi naturali, è esprimibile dalla relazione:

rischio = pericolosità * vulnerabilità * esposizione (1) ovvero il rischio è definito come la convoluzione tra pericolosità, vulnerabilità ed esposizione. Con il termine pericolosità si intende non solo la probabilità dell’evento ma anche la sua severità, la sua probabile localizzazione spaziale ed il suo possibile sviluppo ovvero tutto ciò che caratterizza il fenomeno all’origine dal pericolo. Con il termine esposizione si intende invece tutto quello e tutti coloro che sono esposti al pericolo e quindi insediamenti, popolazione, infrastrutture, etc. Infine con il termine vulnerabilità si intende la propensione al danno dell’esposto. La vulnerabilità è quindi una misura della fragilità del sistema, della sua incapacità di resistere al fenomeno pericoloso. Al di là del significato assunto dai vari termini è chiaro però che la (1) altro non rappresenta che un modello input-output al quale è possibile applicare i metodi Monte Carlo, ovvero note le pdf delle tre variabili in ingresso è possibile risalire alla pdf del rischio associato ad un certo fenomeno. Immaginiamo, quindi, di avere svolto un’indagine Monte Carlo per due comuni, A e B, ottenendo il risultato mostrato in Figura 2 (in cui il rischio è quantificato in una scala di valori da 1 a 10, dove al valore 10 corrisponde la situazione peggiore). Nel caso di un’analisi di tipo “classico”, per lo stesso problema, il risultato ottenuto sarebbe stato:

Comune A rischio = 5 Comune B rischio = 4

e, di fronte ad una simile situazione, la priorità di intervento sarebbe rivolta al comune A, interessato da un livello di rischio superiore. Cerchiamo però di analizzare ed interpretare il risultato fornito dai metodi Monte Carlo. Le due distribuzioni di probabilità ci dicono che il comune A è interessato da un livello di rischio pari a 5 e che la bontà della stima è decisamente elevata (ovvero la deviazione standard è contenuta), nel senso che la probabilità che il rischio insistente sul comune A sia effettivamente pari a 5 è molto elevata mentre la probabilità che questo assuma dei valori inferiori o superiori è molto limitata. Viceversa, il comune B è interessato molto probabilmente da un valore di rischio pari a 4 ma vi è pressappoco la stessa probabilità che sul comune insista un rischio maggiore, ma anche minore (la deviazione standard è cioè maggiore). In altre parole, se si valuta la probabilità di superamento di un certo valore critico, ad esempio 6, il risultato fornito dal metodo Monte Carlo ci suggerisce che il comune B si trova in una situazione di rischio peggiore e questo andrebbe a modificare la priorità di intervento. E’ chiaro quindi che la stessa situazione, analizzata con modelli differenti, porterebbe a conclusioni del tutto opposte. In ogni caso però, qualunque sia la scelta di intervento, i metodi Monte Carlo consentono di giustificarla. In quest’ottica, l’applicazione dei metodi Monte Carlo alle analisi di rischio in campo naturale appare quindi di notevole interesse, tanto dal punto di vista scientifico che a supporto dell’attività pianificatoria-decisionale. Al fine di testare tale approccio, il presente lavoro utilizza quindi il “metodo con memoria” /2,3,4,5,6/, così come applicato da Petrini et al. /16/, per la valutazione del danno sismico medio annuo a scala comunale. La scelta del rischio sismico quale primo campo di applicazione dei metodi Monte Carlo deriva dalla considerazione che il metodo sopra citato rappresenta, ad oggi, il metodo di valutazione del rischio più vicino alla concezione di rischio da noi adottata. Il suo punto di forza è infatti rappresentato dalla possibilità di effettuare una valutazione quantitativa e probabilistica non solo della pericolosità dell’evento bensì anche della vulnerabilità del territorio interessato dall’evento stesso e quindi dalla possibilità di combinare i due dati nella valutazione finale del rischio insistente sul territorio in esame. In realtà, il metodo, così come applicato nel presente studio, consente di quantificare la sola vulnerabilità dell’edificato, tralasciando tutti gli altri “oggetti” presenti sul territorio (opere puntuali, reti, etc.) nonché tutti gli aspetti legati ad altre “tipologie” di vulnerabilità, quale quella funzionale e sistemica. Inoltre, il parametro esposizione non viene quantificato in termini probabilistici e non considera la totalità dell’esposto ma compare solo parzialmente, in termini deterministici, attraverso

la considerazione del volume dell’edificato. Ciononostante, l’applicazione di Petrini et al. /16/ del “metodo con memoria” presenta il grande vantaggio di quantificare per la prima volta, anche se parzialmente, la variabile vulnerabilità e di disporre sia di informazioni in merito alle distribuzioni di probabilità di pericolosità e vulnerabilità, sia di informazioni in merito al modello matematico che le lega, nonché di permettere un confronto tra i risultati ottenuti nel corso di questo studio e quelli valutati secondo tale metodo. Soprattutto il primo aspetto, ovvero la conoscenza delle pdf delle variabili in ingresso, rappresenta un punto di fondamentale importanza per lo sviluppo del “metodo Monte Carlo”. La scelta di un’idonea distribuzione di probabilità per gli input è infatti l’aspetto più delicato di tutta la metodologia Monte Carlo, così come riconosciuto dall’EPA in /17/. In genere tale informazione deve essere o ricavata mediante osservazioni in situ o imposta dagli esperti del settore in funzione della conoscenza del fenomeno analizzato. Un’alternativa più semplice consiste invece nell’approssimare la pdf con l’istogramma di un campione di valori indipendenti della variabile, ma in questo caso è necessario assicurarsi che la numerosità del campione sia rappresentativa. Nel caso del metodo applicato da Petrini et al. /16/, le pdf sono state ricavate applicando il metodo della massima verosimiglianza ad un campione di dati numeroso, relativo all’intero territorio nazionale. Possiamo quindi concludere, che la scelta del rischio sismico consente, in un certo senso, di convalidare “il modello probabilistico” sviluppato nel presente lavoro, nell’ottica di utilizzare questo strumento anche laddove le informazioni siano scarse o di difficile reperibilità. 4. Il “metodo con memoria” applicato da Petrini et al. Il metodo applicato da Petrini et al. in /16/ utilizza, quale indicatore del livello di rischio insistente sul territorio di un determinato comune, il valore atteso del danno medio annuo sugli edifici a causa dell’attività sismica nella zona in esame. Per la valutazione di tale valore, il metodo richiede due strumenti: Un modello probabilistico che descriva l’attività sismica della zona (pericolosità) Un modello che consenta di valutare la percentuale di danno provocata agli edifici da un

terremoto di assegnate caratteristiche, in funzione della qualità degli stessi edifici (vulnerabilità) Per quanto riguarda l’attività sismica, il modello probabilistico adottato è costituito dalle densità di probabilità del tempo di interoccorrenza (τ) e delle intensità al sito (I) dei possibili terremoti, valutate dal GNDT per tutti i comuni del territorio nazionale. In particolare, la distribuzione di probabilità di τ, fτ(τ), viene valutata secondo il cosiddetto “metodo con memoria” /2,3,4,5,6/ che tiene conto di due diversi comportamenti:

I. all’interno di una crisi sismica il tempo di attesa tra un evento ed il successivo è in genere breve; il ”rischio immediato” (definito come la probabilità che si verifichi un evento, tra l’istante t e l’istante t+dt, dato che non si è verificato fino all’istante t) è decrescente, per lo meno da un certo tempo in poi, in quanto la crisi sismica è un fenomeno che tende ad esaurirsi.

II. se invece la crisi è ultimata è necessario attendere un tempo relativamente lungo prima che si verifichi un nuovo terremoto ed il rischio immediato è in genere crescente al trascorrere del tempo, tendendo eventualmente ad un valore asintotico.

La distribuzione di probabilità fτ(τ) è quindi ottenuta come combinazione lineare di due diverse funzioni: la prima, con valore medio piccolo, rappresentativa degli eventi interni alla crisi, la seconda, con valor medio più elevato, idonea a rappresentare i periodi tra due crisi successive:

)()1()()( 21 ττττ fppff −+= (2

)

parametro p rappresenta quindi la probabilità che il prossimo evento si trovi all’interno di una Ilcrisi sismica. Le funzioni f1 e f2 sono in genere diverse da sito a sito e dipendono dalle serie temporali degli eventi. Nella maggior parte dei casi si tratta però di una combinazione tra una distribuzione Weibull ed una distribuzione Gamma, entrambe con parametro di forma maggiore di

1, che ben si prestano a rappresentare il duplice comportamento sopra descritto. Nei siti meno sismici, a causa dell’esiguo numero degli eventi, si è soliti però porre p=1 ed adottare una distribuzione di tipo esponenziale o di tipo Gamma. La distribuzione di probabilità delle intensità al sito, fI(I), dipende invece dalle caratteristiche

IsIIFI −−=−

sismogenetiche della zona. Tuttavia , le analisi effettuate sul territorio nazionale, hanno individuato tre possibili forme della rispettiva funzione di distribuzione:

( ) [ ])(exp1 α (3)

IIIF sI ( ) [ ])exp()exp(exp1 αα −=− (4)

( ) [ ])exp()exp(exp1 βαβα +−+=− IIIF sI (5) ove Is (valore di soglia) e’ pari al minimo valore di intensità al sito dei terremoti considerati, posto

e il modello per la valutazione del danno agli edifici, la qualità delle

talità del patrimonio

, il

zione (muratura e cemento armato)

e indicatore del buono

Nel ento armato sia stato costruito prima del 1946

per ogni classe e per ogni comune, è stata stimata facendo ricorso

viene quindi mediante un modello, che mette in relazione l’indice di

dpari a 6, nella scala MCS. Per quanto riguarda inveccostruzioni è descritta da un indice convenzionale di vulnerabilità V (variabile da 0 a 100) calcolato mediante l’ausilio di apposite schede tecniche, che permettono di attribuire un punteggio quantitativo a tutte quelle caratteristiche degli edifici che concorrono alla propensione della struttura a subire, o meno, un danno in caso di sisma. Tali punteggi vengono quindi opportunamente pesati, a fornire l’indice di vulnerabilità V (per maggior dettagli si veda /2,3,4,5,6,16/). Data però la pratica impossibilità di effettuare indagini di vulnerabilità per la toedilizio italiano, Petrini ed i ricercatori del GNDT hanno prodotto una stima delle distribuzioni di probabilità di tale indice (fV(V)) per ogni comune del territorio nazionale, suddividendo l’edificato in tredici classi di edifici, per ognuna delle quali si è proceduto alla stima della rispettiva fV(V). In particolare, sulla base dei dati ISTAT e dei dati raccolti in diverse occasioni dal GNDTpatrimonio edilizio è stato suddiviso in: cinque classi in base all’età di costru due classi in base alla tipologia strutturale due classi in base alla presenza o meno di impianti tecnici efficienti (qual

o del cattivo stato di manutenzione dell’edificio) dettaglio, ipotizzando che nessun edificio in cem

e che la distinzione in base all’efficienza avvenga per i soli edifici in muratura, le classi identificate sono quelle raccolte in Tabella 1. La forma della distribuzione di V, al metodo della massima verosimiglianza, utilizzando i dati degli edifici già censiti. In generale le forme che meglio si adattano ai dati sono o la distribuzione Weibull (con parametro di forma maggiore di 1) o la distribuzione Gamma (anch’essa con parametro di forma maggiore di 1) od una combinazione delle due. Il calcolo del danno avvulnerabilità con la severità della scossa, il cui risultato è un indice d (y,V) così definito:

y y per 1 =

y <y < y per y -yy -y

=

y y per 0 =

V)(y, d

c

ciic

i

i

⎪⎪⎩

⎪⎪⎨

(6)

dove y è l’accelerazione al suolo, rapportata all’accelerazione di gravità g, mentre yi ed yc sono rispettivamente l’accelerazione di inizio danno e l’accelerazione corrispondente ad un danno pari al 100% del valore dell’ edificio (detta accelerazione di collasso). Nella (6) la severità della scossa risulta quindi espressa in termini di accelerazione al suolo. Disponendo però dei dati relativi all’intensità al sito è necessario introdurre una relazione tra le due grandezze che assume la forma:

( ) baIy −=ln (7) da cui è possibile ricavare le densità di probabilità fy(y). Per il calcolo di yi ed yc si assumono invece le espressioni:

([ siii VVy −−⋅= )]βα exp (8)

( )[ 1−−+= γβα sccc VVy ]

)

(9) i cui coefficienti sono stati opportunamente stimati in modo tale da descrivere il comportamento di tutte le tipologie di edifici che compaiono nelle tredici classi di vulnerabilità individuate. In particolare, è importante sottolineare che il parametro Vs rappresenta il valore di soglia minimo assumibile dall’indice di vulnerabilità e, per questo motivo, risulta necessario estendere il campo di variabilità di V nell’intervallo Vs ÷ 100. La conoscenza, in ogni sito delle quattro funzioni individuate (fτ, fy, fv e d) consente quindi di valutare abbastanza agevolmente il valore atteso del danno medio annuo sugli edifici come:

∫ ∫∞

=100

)(),()(Vs yi

yvs dydVyfVydVfWD λ (10)

dove W è pari al volume totale degli edifici mentre λs è il numero medio annuo di eventi al sito con intensità uguale o maggiore ad IS, ricavabile dalla pdf dei tempi di interoccorrenza. In particolare, indicando con µ, µ e µ2 il valor medio della fτ, della f1 e della f2 rispettivamente si ha:

( 121 )1( −−+= µµλ pps (11)

che si riduce a:

µλ 1=s (12)

nel caso di pdf semplice. Da un analisi dimensionale deriva che il danno medio annuo calcolato secondo la (10) esprime il volume di edificato danneggiato da un eventuale sisma, in termini di m3 di edifici. Il danno economico si ottiene quindi moltiplicando tale valore per il costo di ricostruzione a m3. 5. La metodologia proposta: il “metodo Monte Carlo” Come più volte sottolineato, il metodo sviluppato nel presente studio trasforma, mediante l’utilizzo dei metodi Monte Carlo, il modello illustrato nel precedente paragrafo in un modello probabilistico non solo in grado di considerare le variabili in ingresso quali variabili stocastiche ma anche di

ottenere una valutazione del rischio sismico, non in termini sintetici, bensì in termini di densità di probabilità. La valutazione del danno, così come condotta da Petrini et al. /16/, consente infatti si di trasferire nel risultato finale l’incertezza legata ai parametri in input (considerando non il loro valore deterministico bensì la loro distribuzione di probabilità) ma non di esprimere tale incertezza in termini quantitativi, fornendo quale valore indicativo del rischio, il solo valor medio. Sulla base dei metodi Monte Carlo, il “metodo Monte Carlo” sviluppato nel presente studio si articola quindi in quattro step fondamentali: estrazione di un campione di N valori indipendenti dalla densità di probabilità dell’indice di

vulnerabilità per ognuna delle tredici classi in cui è stato suddiviso il patrimonio comunale estrazione di un campione di N valori indipendenti dalla densità di probabilità

dell’accelerazione al suolo per il comune in esame calcolo , mediante la (6), di un campione di N valori indipendenti della variabile indice di

danno, per ognuna delle tredici classi in cui è stato suddiviso il patrimonio comunale, da cui risalire alle rispettive densità di probabilità (approssimate dall’istogramma del campione)

calcolo di un campione di N valori indipendenti della variabile danno medio annuo per il territorio in esame, mediante l’espressione

∑=

⋅⋅=13

1iiis dWD λ (13)

formalmente identica, nel campo discreto, alla (10) e da cui risalire sia alla pdf della variabile stessa (approssimata dall’istogramma del campione) nonché al suo valor medio, pari proprio al valore calcolato da Petrini a mezzo della (10).

Il modello descritto è stato implementato con l’ausilio del software MATLAB. Nelle ultime due fasi l’approssimazione delle densità di probabilità mediante istogramma è supportata e giustificata dall’esito positivo dei test di buon adattamento effettuati sui campioni estratti nelle prime due fasi (vedi Figura 3). 5.1 Il caso studio Ai fini di valutarne la bontà, il “metodo Monte Carlo” è stato applicato ad otto comuni appartenenti al territorio della Garfagnana. I dati di interesse sono stati estratti dallo studio precedentemente condotto da Petrini et al. /16/ e provengono dal 13° censimento ISTAT e dalle indagini di pericolosità e vulnerabilità condotte sul territorio nazionale dal GNDT. In questo modo è stato possibile valutare la bontà dei risultati forniti dal “metodo Monte Carlo” mediante un loro confronto con i valori di danno precedentemente calcolati da Petrini et al. Nella Tabella 2 sono riportati i risultati ottenuti per gli otto comuni in esame. La congruenza tra i dati forniti dai due studi, rappresenta un’importante convalida della metodologia proposta /14/. Una volta validato il modello, le considerazioni più interessanti devono però essere rivolte alle informazioni aggiuntive che il “metodo Monte Carlo” permette di ottenere. Come anticipato, tali informazioni sono essenzialmente legate alla possibilità di conoscere, per la variabile in output, non solo il valore atteso ma anche la sua distribuzione di probabilità, in termini di istogramma. In Figura 4 è riportato, a titolo esemplificativo, l’istogramma tipo ottenuto per le variabili danno medio annuo monetario (moltiplicate cioè, come sottolineato in precedenza per il costo di costruzione a metro cubo). In particolare si riporta l’istogramma relativo al comune di San Romano in Garfagnana. Una prima analisi è stata condotta in merito alla probabilità di superamento di un valore di danno critico. A tal fine, è stato dedotta, per ogni comune, la distribuzione di probabilità della variabile danno medio annuo monetario/abitante, quindi ne è stato calcolato il valor medio, ed infine, un danno medio annuo monetario/abitante regionale. Si è quindi provveduto al calcolo, per ogni

comune, della probabilità di superamento di tale valore. La Tabella 3 mostra i risultati di tale analisi. Come si può notare, per il caso studio, la considerazione del danno medio piuttosto che della probabilità di superamento di un valore medio critico, non influisce sulle priorità di intervento. Tuttavia il risultato non è generalizzabile ma strettamente legato alla forma degli istogrammi ottenuti. Si ritiene perciò che tale verifica debba sempre essere effettuata e considerata come fondamentale nell’individuazione delle priorità di intervento, in quanto consente di comprendere ed analizzare parte dell’incertezza insita nel risultato finale (vedi paragrafo 3). Una seconda considerazione è stata poi sollevata, in merito alla forma assunta dagli istogrammi. Come noto, in presenza di distribuzioni di probabilità fortemente asimmetriche, come quelle ottenute nel caso-studio, media e mediana non solo non coincidono bensì la mediana risulta essere (più che la media) l’indice di posizione più rappresentativo del campione, in quanto non influenzato dai valori “estremi”, “di coda” che invece assumono un peso rilevante sulla media. In quest’ottica è stata quindi calcolata, per ogni comune, la mediana della variabile danno medio annuo monetario/abitante, al fine di verificare un’eventuale inversione di tendenza nella priorità di intervento. La Tabella 4 riporta i risultati ottenuti. Quello che si può notare è che, in funzione dell’indice di posizione considerato, si hanno diverse priorità di intervento e l’inversione è ancora più marcata quando si considera non il valore pro-capite (per abitante) bensì il valore assoluto. Una terza considerazione è quindi stata condotta in merito alla “precisione” dei campioni ovvero al loro grado di dispersione intorno alla media, quale indicatore dell’incertezza di stima. Si è quindi provveduto al calcolo della deviazione standard per i campioni estratti dalla variabile danno medio monetario/abitante per ogni comune. I risultati sono raccolti nella Tabella 5. In questo caso è interessante notare come i valori di danno relativi ai comuni che “appaiono” più a rischio sono anche quelli caratterizzati da una deviazione standard maggiore, ovvero da una maggior incertezza di stima. Questo significa che la bontà del risultato è inferiore rispetto agli altri comuni. È chiaro che una tale informazione può aggiungere significatività e trasparenza alla scelta di intervento e che la formulazione classica del “metodo con memoria” non permette di cogliere questo aspetto, ne tanto meno quelli illustrati in precedenza. L’analisi del caso studio ha quindi permesso oltre di validare la bontà della metodologia proposta anche di verificare l’utilità dell’informazione ottenuta dall’applicazione del metodo. È stato infatti illustrato come la conoscenza della “precisione” del risultato fornito, della sua rappresentatività (intesa come indice di sintesi della variabile casuale ottenuta) nonché della sua distribuzione di probabilità, consenta di arricchire il risultato fornito da Petrini et al. /16/ di informazione significativa a livello decisionale. Ma il metodo presenta anche un altro grosso vantaggio: quello di poter essere utilizzato anche in assenza di un’espressione analitica per le pdf delle variabili in input. Una volta nota la cosiddetta “curva di fragilità” (ovvero la relazione matematica che lega il danno alla pericolosità ed alla vulnerabilità) il “metodo Monte Carlo” può, infatti, essere semplicemente applicato, estraendo un campione dall’istogramma delle variabili in input. Tale istogramma, per essere rappresentativo della variabile casuale che approssima, può essere ottenuto anche con un numero ristretto di osservazioni. Per i casi analizzati si è verificato, ad esempio, che, per quanto riguarda l’indice di vulnerabilità, un campione di 500 osservazioni per ogni classe di edifici è sufficiente alla rappresentatività dei dati (verificata, ancora una volta con un test di buon adattamento). Ovviamente tale valore soglia dipende dalla pdf della variabile considerata e deve essere valutato caso per caso, ma è possibile affermare che, comunque, la quantità di dati richiesta sarà minore che nel caso di una indagine a livello regionale-nazionale come quella richiesta dal “metodo con memoria”. Inoltre con il “metodo Monte Carlo” è possibile evitare un'altra operazione rispetto al “metodo con memoria”: l’applicazione del metodo della massima verosimiglianza, ottenendo ancora una volta un vantaggio dal punto di vista computazionale.

È chiaro però che tale vantaggio sussiste soprattutto nell’analisi di quei rischi, per cui nessuna indagine di vulnerabilità e/o pericolosità è mai stata compiuta, perché consente di ridurre il numero di dati necessari alla valutazione. Quello che si vuole affermare quindi, è che il metodo proposto si rivela di grande utilità, non tanto in campo sismico, dove la ricerca è avanzata, ma per tutti quegli altri rischi (idrogeologico, frane, etc.) dove i metodi di valutazione del rischio sono ancora in fase “embrionale”. 6. Conclusioni Il presente lavoro ha lo scopo di dimostrare l’applicabilità dei metodi Monte Carlo nelle analisi di rischio nell’ambito degli hazard naturali. La scelta di applicare tale metodologia al rischio sismico, deriva dalla possibilità, in questo campo di ricerca, di disporre di un modello matematico e di dati idonei allo scopo. E’ chiaro però, da quanto esposto, che la metodologia proposta è del tutto generica, applicabile a qualsiasi altra fonte di pericolo, a patto di disporre dei dati necessari e di un idoneo modello input-output che permetta di quantificare il rischio insistente su di un determinato territorio. In particolare, si vuole sottolineare come il “metodo Monte Carlo” sia applicabile anche in assenza di un’espressione analitica per la pdf delle variabili in input, a patto di conoscere un campione sufficientemente numeroso delle variabili in gioco e quindi di approssimarne la pdf con l’istogramma del campione stesso. È questo, senza dubbio, un grosso vantaggio che permette di ridurre gli sforzi di analisi richiesti dalla procedura classica (Petrini et al./16/) alla sola determinazione delle curve di fragilità pericolosità-vulnerabilità-danno. Questo punto rappresenta però anche un limite. Se da un lato, infatti, la possibilità di approssimare la pdf con l’istogramma evita la possibilità di errore legata all’assunzione di una famiglia di distribuzione diversa da quella reale, dall’altro è necessario garantire la rappresentatività del campione adottato. In questo senso il metodo Monte Carlo ci viene ancora in aiuto. Dato infatti che il risultato del metodo deve essere indipendente dalla numerosità del campione, è possibile procedere “per tentativi” fino ad individuare il numero minimo di osservazioni necessarie a garantire la stabilità del risultato e quindi la rappresentatività del campione (vedi paragrafo 5). Dati i risultati ottenuti, la ricerca futura dovrà essere rivolta all’applicazione della metodologia proposta anche ad altre tipologie di rischio. In particolare si ritiene di notevole interesse l’estensione al rischio idrogeologico ed al rischio frane dove sono attualmente in atto analisi finalizzate alla raccolta dei dati per l’individuazione delle curve di fragilità. La struttura del “metodo Monte Carlo” consente poi di estendere la valutazione del rischio anche ad altre forme di vulnerabilità (infrastrutturale, sistemica, etc.) che possono comparire nel modello imput-output (curve di fragilità) come nuovi parametri di ingresso. I futuri sforzi di ricerca saranno quindi rivolti anche in tale direzione. Infine, un ulteriore aspetto di approfondimento è rappresentato dall’integrazione nel “metodo Monte Carlo” di un’analisi di sensitività che permetta di individuare l’influenza dei vari parametri in ingresso sul risultato finale. In questo modo sarà possibile aggiungere ulteriore informazione al risultato fornito dal modello, individuando anche il fattore più critico su cui intervenire, per un efficace riduzione del rischio. Ringraziamenti Un doveroso e sincero ringraziamento deve essere rivolto a tutti coloro che hanno permesso la realizzazione di questo lavoro. In particolare:

- alla prof.ssa Scira Menoni, del Dipartimento di Architettura e Pianificazione del Politecnico di Milano, che non solo mi ha sostenuto con continui e preziosi suggerimenti e revisioni ma, soprattutto, mi ha spinto ad intraprendere il presente lavoro

- al prof. Vincenzo Petrini e alla prof.ssa Floriana Pergalani, del Dipartimento di Ingegneria Strutturale del Politecnico di Milano, per la loro sempre immediata disponibilità a

revisionare il mio lavoro ed a fornirmi i dati necessari e grazie alla cui collaborazione questo lavoro è stato possibile.

- alla prof.ssa Giovanna Venuti, del Polo Regionale di Como del Politecnico di Milano, per i suoi preziosi consigli “statistici”.

Riferimenti bibliografici /1/ Andrews C.J., Hassenzahl D.M., Johnson B.B. Accommodating Uncertainty in Comparative Risk. Risk Analysis, Vol.24, No.5 (2004) p. 1323-1335 /2/ Grandori G., Cost-benefit analysis in earthquake engineering. Proc. 7th Eur. Conf. on Earthquake Engineering, Athens (1982) /3/ Grandori G., Guagenti E., Petrini V., On the Use of Renewal Processes in Seismic Hazard Analysis. Proc. 8th World Conf. on Earthquake Engineering, 1, San Francisco (1984) p. 287-294 /4/ Guagenti E., Molina C., Mulas G., Seismic Risk Analysis with Predictable Models. Earthquake Engineering and Structural Dynamics, 16 (1988) /5/ Guagenti E., Petrini V., Drei A., Rischio Sismico Locale in Ipotesi Non poissoniana: Confronto tra Siti, AIMETA 88, Bari (1988) /6/ Guagenti E., Petrini V. Il caso delle vecchie costruzioni: verso una nuova legge danni-intensità. Atti IV Conv. Naz. sulla Ingegneria Sismica in Italia, Milano (1989) /7/ Hayse J.W. Using Monte Carlo analysis in ecological risk assessments (2000) Available at: http://web.ead.anl.gov/ecorisk/issue/pdf/montecarlo.pdf /8/ Johnston J.J. Probabilistic risk assessment for pesticides: estimating effect level s for target and non target species . Proceeding of the 2004 Crystal Ball User Conference. Avaliable at: www.decisioneering.com /9/ Linkov I., Burmistrov D. Model uncertainty and choices made by modelers: lessons learned from the international atomic energy agency model intercomparisons . Risk Analysis, Vol.23, No.6 (2003) p. 1297-1308 /10/ Llewellyn G. Strategic risk assessment – prioritising environmental protection. Journal of hazardous materials, 61 (1998) p. 279-286 /11/ Ma H.W. The incorporation of stochasticity in risk analysis and management: a case study. Stochastic Environmental Research and Risk Assessment, 14 (2000) p. 195-206 /12/ Menoni S. (a cura di) La salvaguardia dei valori storici, culturali e paesistici nelle zone sismiche italiane, Gangemi Editore (2006) /13/ Moschandreas D.J.,Karuchit S. Scenario-model-parameter: a new method of cumulative risk uncertainty analysis. Environmental International, 28 (2002) p. 247-261 /14/ Oreskes N., Shrader-Frechette K., Belitz K. Verification, validation, and confirmation of numerical models in the earth sciences. Science, Feb 4 (1994) 263 5147 p. 641-646

/15/ Pet-Armacost J.J., Sepulveda J., Sakude M. Monte Carlo sensitivity analysis f unknown parameters in hazardous materials transportation risk assessment. Risk Analysis, Vol.19, No.6 (1999) p. 1173-1184 /16/ Petrini V. (a cura di) Pericolosità sismica e prime valutazioni di rischio in Toscana. Pubblicazione a cura di Regione Toscana-Dipartimento Ambiente e C.N.R. (1996) /17/ U.S. Environmental Protection Agency. Guiding principle for Monte Carlo Analysis. (1997) Available at: http://www.epa.gov/ncea/monteabs.htm /18/ U.S. Environmental Protection Agency. Risk Characterization handbook. (2000) Available at: http://www.epa.gov/osa/spc/2riskchr.htm /19/ Wells T. Water quality risk assessment for dredging operations, Plymouth, UK. Proceeding of the 2004 Crystal Ball User Conference. Available at www.decisioneering.com

Didascalie: Figura 1: Schematizzazione dei metodi Monte Carlo

Figura 2: Possibile esito di una indagine Monte Carlo

Figura 3: Esempio di verifica grafica della rappresentatività dei dati, condotta anche

mediante test di buon adattamento

Figura 4: Esempio di istogramma per la variabile danno medio monetario

Tabella 1: Classi di vulnerabilità degli edifici

Tabella 2: Confronto risultati (validazione modello)

Tabella 3: Probabilità di superamento vs danni medi

Tabella 4: Media vs mediana

Tabella 5: Deviazione standard danno medio monetario per abitante

Figura 1: Schematizzazione dei metodi Monte Carlo

Figura 2: Possibile esito di una indagine Monte Carlo

Figura 3: Esempio di verifica grafica della rappresentatività dei dati, condotta anche mediante test di buon adattamento

Figura 4: Esempio di istogramma per la variabile danno medio monetario

Identificativo classe Descrizione classe

1 Edifici in muratura antecedenti il 1919 con impianti efficienti 2 Edifici in muratura costruiti tra il 1919 e 1945 con impianti efficienti 3 Edifici in muratura costruiti tra il 1945 e 1960 con impianti efficienti 4 Edifici in muratura costruiti tra il 1961 e 1971 con impianti efficienti 5 Edifici in muratura costruiti tra il 1972 e 1989 con impianti efficienti 6 Edifici in muratura antecedenti il 1919 con impianti non efficienti 7 Edifici in muratura costruiti tra il 1919 e 1945 con impianti non efficienti 8 Edifici in muratura costruiti tra il 1945 e 1960 con impianti non efficienti 9 Edifici in muratura costruiti tra il 1961 e 1971 con impianti non efficienti 10 Edifici in muratura costruiti tra il 1972 e 1989 con impianti non efficienti 11 Edifici in c.a. costruiti tra il 1945 e il 1960 12 Edifici in c.a. costruiti tra il 1961 e 1971 13 Edifici in c.a. costruiti tra il 1972 e 1989

Tabella 1: Classi di vulnerabilità degli edifici

Danno medio annuo (M£) Comune Valor medio MC Valore stimato Petrini S. Romano in G. 42.40 38.813 Castiglione di G. 76.50 72.324 Fosciandora 32.39 30.115 Molazzana 36.60 34.65 Castelnuovo di G. 148.21 141.33 Pieve Fosciana 78.55 74.131 Camporgiano 70.15 66.225 Piazza al Serchio 91.27 86.819

Tabella 2: Confronto risultati (validazione modello)

Comune abitanti danno medio/abitante (M£/ab)

Probabilità di superamento danno medio/ab regionale

valore priorità valore priorità S. Romano in G. 400 0.106 5° 0.3146 5° Castiglione di G. 611 0.1252 3° 0.3514 3° Fosciandora 151 0.2145 1° 0.4645 1° Molazzana 286 0.128 2° 0.3538 2° Castelnuovo di G. 4852 0.0305 8° 0.0619 8° Pieve Fosciana 1674 0.0469 7° 0.1328 7° Camporgiano 717 0.0978 6° 0.2850 6° Piazza al Serchio 757 0.1206 4° 0.3456 4°

Tabella 3: Probabilità di superamento vs danni medi

Comune abitanti danno medio/abitante (M£/ab)

mediana danno medio/ab (M£/ab)

valore priorità valore priorità S. Romano in G. 400 0.106 5° 0.0483 5° Castiglione di G. 611 0.1252 3° 0.0562 3° Fosciandora 151 0.2145 1° 0.0913 1° Molazzana 286 0.128 2° 0.0547 4° Castelnuovo di G. 4852 0.0305 8° 0.0145 8° Pieve Fosciana 1674 0.0469 7° 0.0203 7° Camporgiano 717 0.0978 6° 0.0425 6° Piazza al Serchio 757 0.1206 4° 0.0571 2°

Tabella 4: Media vs mediana

Comune deviazione standard danno medio/ab S. Romano in G. 0.1450 Castiglione di G. 0.1766 Fosciandora 0.3148 Molazzana 0.1828 Castelnuovo di G. 0.0412 Pieve Fosciana 0.0662 Camporgiano 0.1364 Piazza al Serchio 0.1624

Tabella 5: Deviazione standard danno medio monetario per abitante