UNIVERSITÀ DEGLI STUDI DI ROMA “LA...

136
UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZAFACOLTÀ DI SCIENZE STATISTICHE DIPARTIMENTO DI SCIENZE ATTUARIALI E FINANZIARIE DOTTORATO DI RICERCA IN SCIENZE ATTUARIALI XVIII CICLO TESI DI DOTTORATO METODO SIMULATIVO, FAST FOURIER TRANSFORM ED EXTREME VALUE THEORY PER L’ANALISI DEL COSTO SINISTRI AGGREGATO NELLE ASSICURAZIONI DANNICoordinatore Prof. Fabio Grasso Rocco Roberto Cerchiara Roma, 20 marzo 2006

Transcript of UNIVERSITÀ DEGLI STUDI DI ROMA “LA...

UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA”

FACOLTÀ DI SCIENZE STATISTICHE

DIPARTIMENTO DI SCIENZE ATTUARIALI E FINANZIARIE

DOTTORATO DI RICERCA IN SCIENZE ATTUARIALI XVIII CICLO

TESI DI DOTTORATO

“METODO SIMULATIVO, FAST FOURIER TRANSFORM ED EXTREME VALUE THEORY PER L’ANALISI DEL COSTO SINISTRI AGGREGATO

NELLE ASSICURAZIONI DANNI”

Coordinatore Prof. Fabio Grasso Rocco Roberto Cerchiara

Roma, 20 marzo 2006

2

Introduzione Pag. 4 Capitolo 1 L’analisi del risk profile di una Compagnia Danni nell’ottica del progetto Solvency II

“ 6

1.1 I rischi connessi all’attività assicurativa danni 1.2 Alcuni dei più recenti sistemi di analisi della rischiosità di una

Compagnia danni

1.2.1 Il sistema Risk Based Capital utilizzato negli USA 1.2.2 Il modello proposto dalla FSA nel Regno Unito

1.2.3 L’approccio dell’IAA Insurer Solvency Assessment Working

Party

1.2.4 Lo Swiss Solvency Test 1.2.5 Il progetto Solvency II

1.2.5.1 Il contributo del CEIOPS

1.3 Cenni al caso dell’operational risk 1.4 Commenti in merito ai diversi approcci

6

11

12

20

27

34

38

44

46

52

Capitolo 2 I metodi per la valutazione della funzione di ripartizione del costo sinistri aggregato

“ 54 2.1 Il modello “compound” per il costo sinistri aggregato 2.2 La Teoria dei Valori Estremi e la logica POT 2.3 Il calcolo numerico della distribuzione del costo sinistri aggregato

2.3.1 Cenni ai metodi Ricorsivi

2.3.2 I Metodi di Inversione

2.3.2.1 Il metodo della Fast Fourier Transform

2.3.3 L’approccio simulativo

54

61

71

74

76

77

84

3

2.4 L’utilizzo della FFT nell’ambito della modellizzazione delle

dipendenze e dell’aggregazione tra rami

2.4.1 Caso 1: Indipendenza tra rami 2.4.2 Caso 2: Dipendenza tra rami

2.4.3 L’utilizzo della FFT per variabili bivariate

2.5 Alcuni confronti

2.5.1 Una breve comparazione tra il metodo di simulazione e la FFT

2.5.2 La modellizzazione della dipendenza tra sinistri di entità ordinaria ed i c.d. “Large Claims” nell’ambito di un modello di solvency assessment

Pag.

87

89

90

91

93

95

98

Capitolo 3 Alcuni esempi di applicazione della FFT, EVT e Simulazione

“ 103

3.1 La determinazione della distribuzione del costo sinistri aggregato nel ramo RCA del mercato italiano. Simulazione o FFT? 3.2 L’applicazione dell’EVT ai fini della modellizzazione del danno aggregato

103

117

Conclusioni “ 123 Appendice A Il metodo di Inversione diretta

“ 127

Appendice B Un procedimento nel caso di singoli sinistri considerati come variabili aleatorie indipendenti, ma non necessariamente con la stessa distribuzione

“ 128 Bibliografia “ 132 Ringraziamenti “ 136

4

Introduzione

La corretta determinazione della funzione di ripartizione della variabile

aleatoria costo sinistri aggregato ha un ruolo fondamentale nell’ambito dell’analisi

della rischiosità e della solvibilità di una compagnia di assicurazione contro i danni.

Tale esigenza sta divenendo sempre più pressante anche nell’ottica del progetto

comunitario denominato Solvency II, destinato alla revisione dell’intero complesso di

regole applicabili al settore assicurativo e riassicurativo, sulla base di una struttura

c.d. a tre pilastri che consenta una convergenza con la logica dell’approccio

prospettato in ambito bancario (Basilea II). E’ possibile osservare lo sviluppo di un

numero elevato di studi basati sulla definizione di modellistiche complesse che

consentano un’analisi integrata dei rischi insiti nell’attività assicurativa, volte anche

all’individuazione di eventuali dipendenze o correlazioni tra gli elementi

caratterizzanti il risk profile delle compagnie di assicurazione.

A tal fine nella parte iniziale della tesi sono descritti alcuni dei più recenti

sistemi di analisi del profilo di rischio e della solvibilità delle compagnie di

assicurazioni danni, tra cui il sistema Risk Based Capital (RBC) utilizzato negli USA,

quello proposto dalla Financial Services Authority (FSA), l’approccio

dell’International Actuarial Association Insurer Solvency Assessment Working Party

(IIA ISA-WP) e lo Swiss Solvency Test (SST), evidenziandone le peculiarità in

relazione alla modellizzazione del costo sinistri aggregato.

Le tecniche principali concernenti la modellizzazione del costo sinistri

aggregato sono oggetto del successivo capitolo 2, con particolare riferimento alla Fast

Fourier Transform (FFT), al metodo simulativo di Monte Carlo ed all’Extreme Value

Theory (EVT). Le diverse tecniche vengono analizzate anche ricorrendo a diversi

5

esempi basati su dati reali, come il Database dei dati incendio danesi del periodo

1980-2002.

Nella parte conclusiva del capitolo 2 viene esposto anche il caso semplificato di un

modello complesso di solvency assessment, dove è necessario analizzare la

dipendenza tra sinistri di entità ordinaria ed i c.d. “Large Claims”. In tale ambito é

utilizzato il metodo della FFT a due dimensioni ai fini della modellizzazione di

eventuali dipendenze sulle singole componenti del danno aggregato.

Successivamente nel capitolo 3 vengono fornite alcune applicazioni e confronti

tra i risultati ottenuti dai Metodi di Simulazione e FFT, utilizzando le statistiche

ANIA sul ramo R.C.Auto.

Infine, sulla base del set di dati “1991-1992 SOA Group of Medical Insurance

Large Claims” e sfruttando l’EVT, vengono evidenziate sia le problematiche

connesse alla valutazione del danno aggregato attraverso la logica Peaks Over

Threshold (POT) che la significatività della scelta della soglia in termini di valore

atteso di tale variabile aleatoria.

I risultati finali non mirano a fornire la preferibilità di un metodo rispetto agli

altri, ma evidenziano, con particolare riferimento alla complessità dei modelli

necessari all’applicazione del nuovo sistema di solvibilità, l’importanza e la

possibilità dell’utilizzo integrato di differenti tecniche ai fini dell’analisi della

distribuzione del costo sinistri aggregato di una Compagnia di assicurazioni contro i

danni e quindi la possibile interazione tra le tecniche EVT, FFT Simulazione1.

1 Nota dell’ autore: le variabili aleatorie saranno indicate con il simbolo ∼ in testa alla lettera con cui verranno indicate. Inoltre in luogo della parole “variabile aleatoria” si utilizzerà l’abbreviazione “v.a.”.

6

Capitolo 1

L’analisi del risk profile di una Compagnia Danni nell’ottica del

progetto Solvency II

Nelle pagine seguenti vengono presentati alcuni modelli di analisi del profilo di

rischiosità delle Compagnie di Assicurazione contro i danni, nati in relazione al

futuro progetto di solvibilità, c.d. Solvency II, evidenziandone le caratteristiche

peculiari con particolare riferimento all’underwriting risk e alla modellizzazione del

costo sinistri aggregato delle assicurazioni contro i danni.

1.1 I rischi connessi all’attività assicurativa danni

Innanzitutto è necessario specificare il concetto di rischio: “Risk is the chance

of something happening that will have an impact upon objectives. It is measured in

terms of consequences and likelihood” (si veda Australian and New Zealand Standard

on Risk Management, 1995). Tale definizione quindi non ha una connotazione

esclusivamente negativa, ma anche positiva, infatti: “Risk management is as much

about identifying opportunities as avoiding or mitigating losses”.

In base a quanto mostrato in IAA-WP [2004] si riporta una possibile

classificazione dei rischi in campo assicurativo (danni e vita):

o Underwriting risk: riserve insufficienti, crescita rapida, ecc.;

o Market risk: rischio di tasso di interesse, Asset/Liability Mismatching, ecc.;

o Credit risk: rischio di default, rischio di concentrazione;

o Operational risk: the risk of loss resulting from inadequate or failed internal

processes, people, systems or from external events (si veda Basilea II).

7

o Liquidity Risk;

o Event Risk: rischio reputazionale, legale, ecc.

all’interno dei quali esistono dei rischi specifici che possono a volte essere

caratterizzati da reciproche dipendenze. Di seguito si farà riferimento esclusivamente

all’underwriting risk e un breve cenno all’operational risk che può essere

modellizzato con le tecniche attuariali trattate in questa tesi di dottorato.

Ai fini dell’underwriting risk si richiama la definizione proposta dal IIA WP

[2004]: “is the specific insurance risk arising from the underwriting of insurance

contracts. The risks within the underwriting risk category are associated with both

the perils covered by the specific line of insurance and with the specific processes

associated with the conduct of the insurance business.” In tal caso viene proposto al

suo interno una serie di rischi che possono essere comuni a tutti, o quasi, i rami:

o Underwriting Process Risk: derivante dall’esposizione a perdite

finanziarie relative alla selezione ed approvazione dei rischi da

assicurare;

o Pricing Risk (premi insufficienti);

o Product Design Risk;

o Claims Risk (for each peril): il caso di un sinistro che produca ulteriori

sinistri o delle c.d. Cat Losses;

o Economic Environment Risk: si pensi agli effetti della crescita dei tassi

di inflazione (in particolare per le polizze vita);

o Net Retention Risk: livelli di ritenzione eccessivamente elevate che

compromettono i profitti;

o Policyholder Behaviour Risk: si pensi ad esempio al caso dei riscatti

delle polizze vita in situazioni in cui i mercati finanziari sono poco

appetibili;

o Reserving Risk: riserve tecniche insufficienti o run-off risk.

8

Per comprendere la significatività della corretta quantificazione di tale rischio,

ma non solo di questo, si richiama un interessante studio di A.M. Best sulle principali

cause delle insolvenze avvenute nel mercato USA tra il 1969 ed il 1998 (n. 683),

sintetizzato in Savelli [2005]:

- Riserve/Premi insufficienti: 22%

- Crescita rapida: 13%

- CAT losses: 6%

- Sovrastima assets: 6%

- Insolvenza riassicuratori: 3%

- Andamento società controllate: 4%

- Variazioni significative “core business” 4%

- Frodi 7%

- Miscellanea 7%

- Cause non identificabili 28% TOTALE 100%

Tabella 1.1.1: Cause di insolvenze nel mercato USA (1969-1998) – numero 683 imprese Fonte A.M. Best – Sigma [2000]

dove le prime tre cause indicate nella tabella sono riclassificabili nell’ambito

dell’underwriting risk e forniscono un totale del 41%. Sulla base del precedente

Rapporto Müller [1997], lo “Sharma” report [2002], commissionato dalla EU

Insurance Supervisors, presenta i casi di fallimento o di crisi (near misses) delle

Compagnie di Assicurazione europee tra il 1996 e il 2001. La conclusione è stata che

tali situazioni di sofferenza sono state causate in molti casi da una c.d. “causal chain”

di eventi legati al fallimento, le cui interrelazioni sono risultate molto difficili da

stimare.

Infatti é necessario osservare che non tutti i rischi sono “facilmente” quantificabili

(ad es. l’Operational risk e ovviamente le relative interdipendenze). A titolo di

esempio viene riportato una rappresentazione grafica sulle differenti collocazioni dei

9

rischi in termini di complessità e difficoltà nella relativa quantificazione (fonte

Federal Office of Private Insurance [2004]).

Figura 1.1.1: Relazione tra rischio assicurativo e

complessità nella quantificazione/misurazione

In tale ambito si sottolinea l’importanza di modelli che consentano una

misurazione e aggregazione delle diverse componenti di rischio nell’ambito

dell’attività assicurativa. Esistono in letteratura diversi approcci che consentono la

valutazione della rischiosità di una Compagnia di Assicurazione, tra cui quelli basati

sull’analisi multivariata dei ratios di bilancio (si veda ad esempio De Angelis P., De

Felice M., Ottaviani R. [1988]), di tipo stocastico a “valori di mercato” (De Felice M.

e Moriconi F. [2002]) e modelli di Teoria del Rischio (tra i più recenti Daykin et al.

[1994], Savelli N. [2003]). Nella presente tesi di dottorato si farà riferimento a

quest’ultimo approccio, anche nell’ottica del futuro progetto di solvibilità nella UE

(Solvency II), che in parte sarà basato su Risk Theory Models.

Nella Figura 1.2 viene riportato lo schema generale delle possibili interazioni e

interdipendenze con la teoria del rischio. L’obiettivo generale è esaminare come una

Compagnia di assicurazione possa reagire a diversi eventi potenziali, quali la

variazione del tasso di inflazione e di rendimento degli investimenti, causati da

recessioni o boom nell’economia nazionale, dalla pressione della concorrenza, ecc., e

trovare risposte che offrano una protezione adeguata.

10

Figura 1.1.2: La teoria del rischio e le interazioni possibili (fonte Pentikainen e Rantala [1999])

Nella teoria classica del rischio elementi come l’interesse e le spese erano

ignorati ed assumevano come unica variabile aleatoria il costo sinistri. La moderna

teoria del rischio ha introdotto e sviluppato modelli di simulazione della gestione di

una compagnia di assicurazioni, i cosiddetti management simulation models, in grado

di rappresentare, sfruttando la teoria del rischio, le molteplici interdipendenze

esistenti e valutare, a seguito di reiterate simulazioni, non solo il valore atteso, ma

anche la variabilità, e quindi la rischiosità, del processo economico e patrimoniale

legato all’impresa.

Infine nella figura seguente è possibile individuare un esempio grafico di

aggregazione dei rischi a cui si dovrebbe tendere con il futuro sistema di solvibilità,

TEORIA CLASSICA DEL RISCHIO

(Numero e costo sinistri) Cicli Inflazione Attivi (ROE) Run-off Spese Catastrofi Rischi diversi (frode) Controllo dinamico

SOLVIBILITÀ E SOLIDITÀ FINANZIARIA -Legislazione -Aspetti manageriali -Costo per la solvibilità -Normative nazionali

I N T E R A Z I O N I

DECISIONI DEL MANAGEMENT -Premi -Riserve -Riassicurazione (pieno) -Selezione dei rischi -Investimenti -Politica di vendita -Livello di sicurezza

MERCATO -Modello ad una unità -Strategie di competizione -Modelli a unità multiple -Teoria dei giochi

DISCIPLINE COLLEGATE -Matematica statistica -Analisi matematica -Teoria del controllo -Teorie di mercato dei capitali -Econometria -Sistemi dinamici -Ricerca operativa -Teoria dei giochi -EDP

Organizzazione per la pianificazione e statistiche

11

dove é possibile sintetizzare questo processo: identificare tutte le fonti di rischio,

individuare e combinare le distribuzioni, misurare la necessità di capitale e calcolare

il contributo di ciascuna business line e dei singoli rischi.

Figura 1.1.2: IRM e Aggregazione dei rischi

1.2 Alcuni dei più recenti sistemi di analisi della rischiosità di una Compagnia

danni

Attualmente si stanno sviluppando a livello internazionale i nuovi framework di

vigilanza (tra cui Solvency II), che tendono verso la definizione di ratios patrimoniali

calibrati sul risk profile delle Compagnie (risk-based capital requirements) e i nuovi

principi contabili internazionali che contribuiscono a modificare concetti consolidati

con l’introduzione ad esempio delle riserve sinistri stocastiche, il fair value, ecc.

In tale contesto in continuo mutamento, il progetto Solvency II ha come

obiettivo la riforma delle attuali regole di solvibilità nell’Unione Europea. Lo scopo è

l’introduzione di un regime di solvibilità che non si limiti all’analisi dei soli “rischi

12

tecnici”, ma che consideri l’intero risk profile, che sia flessibile, non eccessivamente

complesso e compatibile con i metodi di controllo delle autorità di vigilanza.

Il progetto "Solvency II" è diviso in due fasi distinte: la prima, avviata all'inizio

del 2001 e conclusasi due anni dopo, è stata sostanzialmente una fase di studio delle

principali problematiche. La seconda fase, avviata nel 2003 e tuttora in corso, è

dedicata all'elaborazione di soluzioni dettagliate ed ha come obiettivo la redazione di

una bozza della nuova direttiva entro il 2005.

Nella prima fase si è ritenuto fondamentale ricercare nei sistemi di vigilanza

esteri, in primis il RBC americano, principi che potessero essere trasferiti alla realtà

europea. A tale scopo nelle pagine successive si riporta la descrizione dei principali

sistemi di solvency assessment per le compagnie danni, con particolare riferimento

alla modellizzazione della v.a. costo sinistri aggregato X~ delle Compagnie Danni.

Ai fini di un elenco esaustivo delle diverse metodologie di analisi della solvibilità in

campo assicurativo si rimanda ad esempio a KPMG Report [2002] e a CEA and

Mercer Oliver Wyman [2005] ed al contributo ad esempio di Meyers [2004], “An

Analysis of the Underwriting Risk for DFA Insurance Company”, in merito all’analisi

dell’Underwriting Risk nell’ambito di modelli di tipo Dinamic Financial Analysis.

1.2.1 Il sistema Risk Based Capital utilizzato negli USA

Un possibile approccio metodologico fornito dalla letteratura attuariale per la

valutazione della solvibilità di una compagnia di assicurazioni é rappresentato dalla

definizione di metodologie di controllo mediante raffinate tecniche di selezione degli

indicatori di bilancio, sulla base dei quali poter valutare lo stato di benessere della

compagnia (oltre alla vasta letteratura statunitense, ricordiamo i contributi forniti da

studiosi italiani, tra cui, Buoro [1980], De Angelis, De Felice e Ottaviani [1988], De

13

Angelis, Gismondi e Ottaviani [1993]). Esso ha conosciuto particolare sviluppo negli

Stati Uniti, paese in cui per molti anni la stessa autorità federale di controllo sulle

imprese di assicurazione NAIC (National Association of Insurance Commissioners)

ha adottato criteri di vigilanza preventivi basati su indicatori di bilancio (c.d. Early

Warning System), laddove l’incisività degli interventi é calibrata a seconda della

vicinanza dei valori registrati per l’impresa a ‘soglie di attenzione” prefissate.

Il sistema Risk Based Capital (RBC) è stato introdotto nel 1993 dal NAIC dopo

che negli anni ’80 l’azione combinata della riduzione dei tassi di interessi e

dell’aumento della frequenza e della gravità dei sinistri mise in crisi un numero

rilevante di compagnie (cfr Quaderno ISVAP [1998]). Difatti il numero di insolvenze

fu più che triplo nel periodo 1984-1992 rispetto agli 8 anni precedenti.

Il principio fondamentale è quello di tenere conto del risk profile della

compagnia, con standard minimi di patrimonialità, cioé il c.d. Risk Based Capital

requirements). Il calcolo è effettuato applicando ai c.d. “valori di base”, coincidenti

con (o ad essi correlati) determinate voci di bilancio, un fattore percentuale

moltiplicativo fissato dalla NAIC. Il capitale minimo così stabilito viene raffrontato

con il capitale proprio dell’impresa. Sono previsti quattro stadi di intervento

dell’autorità di vigilanza, calibrati in funzione della gravità della situazione di rischio

dell’impresa, determinata in base al valore assunto dal rapporto tra il capitale proprio

dell’impresa e il capitale minimo risultante dalla formula.

La formula RBC è basata sulle seguenti categorie di rischio:

o Asset Risk (R0, R1, R2): rischio che il valore degli attivi sia insufficiente a far

fronte agli impegni contrattuali. Tale rischio è quantificato applicando alle voci

di bilancio diversi coefficienti di rischio che variano in funzione delle varie

tipologie di rischio (da 0% al 15%). Si ricavano quindi due requisiti

14

patrimoniali R1 e R2 rispettivamente per obbligazioni ed altri investimenti a

breve e per azioni, beni immobili e partecipazioni. Ad entrambi i requisiti

vengono attuate eventuali maggiorazioni o riduzioni a fronte di concentrazione

o diversificazione degli investimenti (c.d. Bond Size Adjustment Factor).

Inoltre si considera anche un requisito R0 in relazione ad imprese controllate

(funzione quindi del relativo RBC).

o Credit Risk (R3): il requisito è ricavato in funzione del tipo di credito assunto;

per la riassicurazione è prevista una percentuale del 10% e percentuali inferiori

per altri tipi di credito. Nella formula finale R3 viene posto uguale al 50% del

RBC derivante dal Credit risk.

o Off-balance risk: i cosiddetti rischi fuori bilancio, includono quei rischi

potenziali non rilevabili dai valori iscritti a bilancio. Alcuni di essi devono

essere indicati nelle note al bilancio; il requisito di capitale per la loro copertura

è pari all’1% dei relativi importi indicati nelle note. Gli off-balance-sheet risk

sono ripartiti nei vari gruppi prima elencati.

La quarta categoria di rischi, l’Underwriting Risk, é la componente più

significativa della formula e rappresentava negli USA circa i due terzi del requisito

complessivo RBC per il mercato danni (si veda Quaderno ISVAP [1998]).

L’underwriting risk è distinto in due sottocategorie: il rischio derivante da una

inadeguata riservazione (reserving risk) e quello derivante da una inadeguata politica

di tariffazione (pricing risk).

Tali requisiti vengono calcolati utilizzando un coefficiente di ponderazione

differenziato per ramo di attività. I fattori determinati dal Naic per tutte le compagnie

si basano sul peggiore risultato del mercato degli ultimi 10 anni in termini di run-off

ratio per quanto riguarda il rischio di riservazione e di loss-ratio per il rischio di

tariffazione. Questi coefficienti saranno poi modificati per tenere conto delle

15

specifiche caratteristiche in termini di run-off ratio e loss-ratio di ogni impresa

rispetto al mercato.

E’ da evidenziare che l’underwriting risk si calcola in relazione agli affari al netto

della riassicurazione e dipende pertanto in maniera considerevole dall’adeguatezza

(cfr. Quaderno ISVAP [1998]), dall’estensione e dalla tipologia delle cessioni in

riassicurazione (riassicurazione proporzionale, non proporzionale, riassicurazione c.d.

finanziaria).

A) Il rischio di riservazione

I fattori da moltiplicare per le riserve tecniche variano da un minimo di 17,5% (“low

risk profile”) a un massimo di 83,8% (assicurazioni ad alto profilo di rischio) in

funzione della rischiosità del ramo. La formula semplificata per la determinazione del

fattore di ponderazione α può essere espressa nel modo seguente (si veda il Rapporto

Müller [1997]):

α = max {0, [(Fqx (0,5 CDx /IDx + 0,5) + 1) PVqx -1]} (1.2.1.1)

dove

Fqx = fattore determinato dal NAIC in base al peggiore tasso di run-off del mercato

degli ultimi dieci anni per il ramo generico x;

CDx = run-off ratio medio della compagnia negli ultimi 10 anni (massimo = 400%);

IDx= run-off ratio medio del mercato negli ultimi 10 anni;

PVqx= tasso di sconto stabilito dal NAIC per attualizzare le riserve.

Si noti che è possibile, a differenza dell’attuale mercato RCA italiano,

l’attualizzazione delle riserve, con tasso = 5% nel 1998. Si osservi come tale fattore

sia legato al 50% all’andamento della Compagnia e al 50% a quello del mercato,

essendo

16

x

xx

IDIDCD ⋅+⋅ 5,05,0

Inoltre si osservi che se xx CDID = , cioè se la Compagnia è perfettamente allineata con

l’andamento di mercato, dovrebbe accantonare un capitale di sicurezza in grado di

proteggerla dall’ipotesi che la peggiore performance registrata dal mercato in passato

si ripeta nel futuro.

L’aggiustamento, operato per tenere conto dei futuri redditi da investimento, si

rende necessario in quanto in bilancio le riserve sinistri sono generalmente riportate

al lordo di sconti, fatta eccezione per il ramo “workers’ compensation” (infortuni sul

lavoro). In tal modo, considerato che la differenza tra riserve non scontate e riserve

attualizzate rappresenta già un “cuscinetto” implicito contro l’insolvenza, si evita di

aggravare ingiustificatamente il requisito patrimoniale di copertura.

Sono previste delle deduzioni per i contratti in cui l’impresa può richiedere una

integrazione al premio nel caso di aumento della frequenza dei sinistri, per le polizze

di responsabilità civile dei medici che coprono solo i rischi avvenuti e denunciati

prima della scadenza contrattuale, per le imprese con una buona diversificazione del

proprio business su vari rami.

Per le compagnie i cui premi negli ultimi anni sono cresciuti più del 10% il

requisito RBC per il rischio di riservazione dovrà essere incrementato di una

percentuale pari a 50 % * (Tasso di Crescita – 10%) * 90%.

B) Il rischio di tariffazione

Anche in questo caso il requisito di capitale atto a proteggersi dal rischio di

tariffazione si otterrà moltiplicando i fattori di ponderazione per i premi netti di ogni

ramo. I fattori di ponderazione andranno da un minimo del 15,8% a un massimo del

74,2% a seconda della rischiosità del ramo.

17

La formula di calcolo dei fattori di ponderazione è del tutto analoga a quella utilizzata

per il rischio di riservazione.

β = max {0, [f p x (0,5 CLx /ILx + 0,5) PV p x + CEx - 1]} (1.2.1.2)

fpx = un fattore fornito dalla NAIC per coprire il peggiore loss ratio del mercato negli

ultimi 10 anni nel ramo x;

CLx = il loss ratio medio della compagnia registrato nel ramo x negli ultimi 10 anni;

ILx = il loss ratio medio del mercato nel ramo x relativo agli ultimi 10 anni (dato

comunicato dalla NAIC);

PVpx = fattore espresso al valore attuale (al 5% di interesse) fornito dalla NAIC che

rappresenta il valore dei premi al netto dei caricamenti;

CEx= il tasso di caricamento della compagnia per il ramo x.

Vengono inoltre operati gli aggiustamenti già illustrati per il reserving risk, per

tenere conto della stipulazione di contratti che prevedono meccanismi di riduzione

del rischio tecnico e dell’aggravamento del rischio derivante dalla crescita eccessiva.

In relazione a tale ultimo correttivo, il sistema prevede che il RBC per il pricing risk

sia incrementato in base al risultato della seguente formula: 25%*(crescita -10%)*

90%.

Si noti infine che la formula generale non include l’interest rate risk (oggetto

di diverse critiche)2.

Una riduzione generale è contenuta nella formula al fine di prevedere la

parziale compensazione tra i diversi rischi considerati, ma nessun tentativo viene

effettuato per quantificare l’effettiva correlazione esistente tra i vari gruppi di rischio:

2 Infatti, sebbene la American Academy of Actuaries Task Force on Risk Based, che ha coadiuvato la NAIC durante i lavori, abbia raccomandato più volte di includere l’interest rate risk nella formula danni, la NAIC ha rinviato la decisione in attesa di valutare più a fondo la rilevanza del rischio di tasso per le compagnie danni (Quaderno ISVAP 1998).

18

(1.2.1.3)

dove

R4 = R3 + requisito patrimoniale previsto per il rischio di riservazione;

R5 = requisito patrimoniale previsto per il rischio di tariffazione.

Da tale formula si ottiene il c.d. Authorized Control Level (RBC totale). Si noti che i

termini sotto radice sono ipotizzati reciprocamente indipendenti, mentre la loro

somma è correlata con il termine R0 (in cui è anche presente il rischio tecnico).

Dai dati che compaiono nel Quaderno ISVAP [1998] il peso dei rischi tecnici

sull’ACL è pari a circa al 60% (mercato USA 1995).

I tipi di intervento dell’autorità di vigilanza dipendono dal rapporto tra il TAC

(Total Adjusted Capital) che rappresenta grossomodo il patrimonio netto dell’impresa

e il ACL. Se il TAC risulta inferiore a determinate soglie, calcolate in termini di

percentuali dell’Authorized Control Level RBC, sono previsti quattro livelli di

intervento di gravità crescente in funzione dell’aumentare del deficit:

1) Company Action Level RBC = 2 * ACL;

2) Regulatory Action Level RBC = 1,5 * ACL;

3) Authorized Control Level RBC = ACL;

4) Mandatory Control Level RBC = 0,7 ACL.

Se il TAC è inferiore al Company Action Level l’impresa deve presentare

all’autorità di vigilanza, entro 45 giorni, un piano che identifichi le cause del deficit e

le iniziative che intende adottare per risanare la situazione. Il piano deve inoltre

contenere previsioni sull’evoluzione della situazione finanziaria senza e con i

correttivi proposti.

25

24

23

22

210 RRRRRRACL +++++=

19

Se il TAC è inferiore al Regulatory Action Level l’autorità è legittimata a dettare

misure vincolanti per il management dell’impresa.

Se il TAC scende al di sotto dell’Authorized Company Level l’autorità di vigilanza

può disporre l’amministrazione straordinaria dell’impresa o la liquidazione.

Infine se il TAC è inferiore al Mandatory Control Level l’organo di controllo deve

assumere la gestione dell’impresa ed avviare la procedura liquidativa.

Se le misure di vigilanza richieste da un certo livello non vengono rispettate

dalla compagnia si procede con le misure previste dal livello successivo.

Dall’introduzione del nuovo sistema (1994) al 1998, il solvency ratio (capital

funds/premi netti) è salito dal 72% al 103%. Negli stessi anni la media di mercato del

RBC ratio è passato dal 432% del 1994 al 415% del 1998. L’incidenza delle

compagnie al di sotto del CAL è stata compresa tra 1.3% e 2.2%, mentre quella delle

compagnie al di sotto del ACL ha variato tra lo 0.8% e l’1.2% (fonte Savelli [2005]).

Si segnala che negli ultimi tempi si sta auspicando un cambiamento nei livelli

di intervento. Si vuole cioè integrare prevedendo possibilità d’intervento anche al di

sopra del 200% qualora il Combined ratio sia particolarmente sfavorevole (si veda

The Naic RBC formula revisited, CAS Spring Meeting Maggio 2004).

Figura 1.2.1.1: Fonte The Naic RBC formula revisited, CAS Spring Meeting Maggio 2004

20

1.2.2 Il modello proposto dalla FSA nel Regno Unito

In base al Consultation Paper 190 Financial Services Authority, [Luglio 2003],

“Enhanced Capital Requirements and Individual Capital Assessments for non-life

insurers”, il nuovo regime per le assicurazioni danni si basa su due elementi

fondamentali:

o un nuovo risk-based Enhanced Capital Requirement (ECR), basato su un

capitale aggiuntivo in relazione ai tre rischi: asset, underwriting e reserving,

calcolato in base ad una standardized formula, basata su coefficienti

moltiplicativi da applicare rispettivamente a attivi, premi e passività, a loro

connessi alla volatilità dei mercati e dei risultati tecnici e allo sviluppo della

riserva sinistri nel tempo;

o Individual Capital Guidance (ICG): un calcolo aggiuntivo basato su Internal

Models o Stress Scenario Testing da parte degli assicuratori (own view), al fine

di rendere sensibile le Compagnie stesse sui propri requisiti di capitale

(orizzonte temporale). In tale ambito sarà utilizzato un time horizon di un anno

al livello di confidenza del 99,5%. L’ICG non potrà mai essere inferiore al

Margine Minimo di Solvibilità della UE (MMS).

L’obiettivo è giungere a un sistema più trasparente, aderente ai rischi e che permetta

un intervento tempestivo della vigilanza, ma anche rendere risk sensitive le

Compagnie di Assicurazione.

La proposta della FSA è che le Compagnie assicurative devono possedere un

capitale pari al massimo valore tra il MMS UE e l’ ECR (calcolo prescritto dalla FSA

con una maggiore accuratezza al profilo di rischio). Si precisa che il modello si

riferisce a 24 classi di business così individuate: 8 rami o LOBs (Accident&Health,

21

Motor, Aviation, Marine, Transport, Property, Liability, Miscellaneous&Pecuniary

Loss), in cui per ognuno si considerano 3 differenti coperture riassicurative

(Direct&Facoltative, Proportional Treaty e Non-Proportional Treaty).

L’ECR sarà quindi dato dalla seguente formula:

UCRCACECR ++= (1.2.2.1)

dove

AC = Asset Charge, requisito di capitale relativo al rischio delle attività, ottenuto

applicando delle percentuali diverse a seconda della rischiosità delle varie

attività;

RC = Riserve Charge, che rappresenta il requisito di capitale ottenuto applicando i

risk factors di ogni classe di rischio alle riserve (Riserva Sinistri comprensiva

degli IBNR e Riserva Premi) al netto della riassicurazione;

UC = Underwriting Charge, che viene ricavato applicando i coefficienti ai premi di

ogni classe. La FSA nella scelta dei fattori di rischio utilizza diversi elementi:

o il livello di capitale proprio delle imprese;

o il risultato di analisi attuariali in relazione ai dati disponibili relativi ai bilanci

1985-2001 di tutti gli assicuratori più grandi del Regno Unito e la gran parte

delle Compagnie più piccole (Lloyd’s of London non inclusi);

o l’ approccio utilizzato da alcune società di rating (non potendo conoscere, però

tutte le informazioni a disposizione di quest’ultime);

o i requisiti richiesti da altri sistemi di solvibilità;

o la calibrazione dei requisiti di capitale minimo per il settore bancario.

22

In particolare l’approccio si basa su quattro punti principali (si veda anche la figura

1.2.2.1):

PASSO 1

Ricavare le distribuzioni per ciascun fattore di rischio (stimando anche le dipendenze

tra i fattori di rischio). In particolare si è proceduto all’analisi dei dati storici per

ottenere una distribuzione dei possibili risultati per ciascuna delle categorie di attivi e

per ognuna delle classi di riserve e underwriting.

Per il Reserving Risk la variabilità dei risultati delle riserve é stata esaminata

ricorrendo al bootstrapping applicato ai triangoli dei sinistri pagati e riservati

(ricorrendo anche al metodo Chain Ladder) e considerando il run-off attuale in ogni

bilancio per ciascun assicuratore.

I risultati hanno suggerito la selezione di una deviazione standard del run-off delle

riserve dipendenti dalla dimensione attraverso la formula aR-β (dove R è la

dimensione della riserva e a, β sono parametri dipendenti dalla classe di business).

Per l’Underwriting Risk sono stati costruiti modelli separati per ciascuna delle 24

classi. In particolare l’Underwriting Profit al netto della riassicurazione UPNet è dato

da:

UPNet = Premi – Costo sinistri (avvenuti nell’anno) – Spese (avv. anno)

Il ciclo di mercato dell’underwriting per tutte le classi combinate é stato

modellizzato come un processo AR2, che produce un cammino ciclico simile a

quello presente nel settore assicurativo reale:

UWn = UWn-1 + α (UWn-1 - µ) + β (UWn-1 – UWn-2) + errore (1.2.2.1)

dove

23

UWn = underwriting result espresso come una percentuale dei premi di competenza

dell’anno n

µ = é il valore atteso di UW;

α, β sono parametri;

α (UWn-1 - µ) é il c.d. mean reversion term. Se la profittabilità diverge dalla sua

media a lungo termine, ha l’effetto di invertire la tendenza riportando tale indice alla

normalità. Infatti se il mercato non va bene, le Compagnie tagliano alcuni rami o

riducono il loro volume di business;

β (UWn-1 – UWn-2) é un termine che ha l’effetto inverso rispetto alla mean reversion e

che produce il cammino ciclico su indicato. Si tiene conto del fatto che quando i tassi

crescono, spesso tendono a crescere e quando cominciano a diminuire continueranno

secondo tale trend;

Il termine di errore produce le oscillazioni rispetto al valore atteso.

Di seguito sono riportate le figure 1.3.2.1: sono messi in evidenza i risultati ottenuti

per i due rami Property (a sinistra) e Third Part liability (a destra) in relazione a UWn

come percentuale dei premi.

Figure 1.2.2.1: Andamento del Ratio Underwriting result su Premi per i due rami Property (a sinistra) e Third Part liability (a destra)

Successivamente per ciascuna classe (24), il ciclo é stato considerato come una

constante moltiplicata per il ciclo di mercato più un ciclo di una classe specifica ed

un termine di errore.

24

Infine il risultato dell’underwriting per un dato assicuratore e una data classe è stato

calcolato come un multiplo del risultato per quella classe per l’intero mercato più un

ciclo specifico dell’assicuratore ed un termine di errore.

Si noti che si è proceduto dal mercato verso il singolo assicuratore per tenere

conto delle correlazioni che a volte condizionano tutte le Compagnie di un mercato.

PASSO 2

Combinare le distribuzioni per ciascun assicuratore al fine di ottenere una

distribuzione di rischio generale; a questo riguardo é stato prodotto un modello

semplificato DFA per ciascun assicuratore nel mercato (10.000 simulazioni per

assicuratore).

PASSO 3

Sulla base della distribuzione generale i requisiti di capitale sono calcolati per

ciascuna Compagnia secondo il prescelto orizzonte temporale e il livello di

confidenza.

PASSO 4

Selezione dei fattori finali (da applicare per qualsiasi assicuratore) utilizzando un

metodo di ottimizzazione allo scopo di ricavare i ECR il più possibile prossimi ai

requisiti teorici calcolati per ciascuna Compagnia al punto 3. Sono stati sfruttati i

requisiti di capitale teorici per le Compagnie reali e tutti i fattori sono stati

riproporzionati attraverso lo stesso moltiplicatore al fine di mantenere la appropriata

relatività tra le classi (in modo da consentire la diversificazione tra i rischi).

25

Figura 1.2.2.1: I quattro punti principali dell’approccio FSA (Fonte CP 190)

In particolare per l’Underwriting Charge sono stati individuati dei fattori, da

applicare ai premi, variabili dal 5% al 50,7% al livello di confidenza del 99% (Time

Horizon = 1) e dal 5% al 59,2% a fronte di un livello di confidenza del 99,5% (Time

Horizon = 1).

La FSA calcola inoltre quale sarà il requisito di capitale totale richiesto con

l’ECR per tutte le compagnie dando un maggior peso alle imprese più grandi. Lo

stesso studio è stato svolto considerando solo le imprese con meno di 10 milioni di

sterline di premi. I risultati ottenuti (in percentuale dei premi netti) per un orizzonte

temporale di 1 anno e un livello di confidenza del 99,5% sono stati pari a 49% (tutte

le imprese) e 62% (imprese con meno di 10 milioni di sterline di premi). Ovviamente

le Compagnie più piccole sono contraddistinte da un requisito più elevato, essendo

caratterizzate da una volatilità maggiore.

Queste percentuali sono molto superiori al requisito del MMS stabilito ad oggi dal

Solvency I e dunque gli studi effettuati dalla FSA confermano la necessità di requisiti

più elevati almeno per la maggior parte delle compagnie.

26

Si sottolinea un cambiamento chiave nel policy statement (in risposta ai commenti

che l’ FSA ha ricevuto nella consultazione): conferma che l’ECR sarà, per il

momento, privatamente riportato all’FSA e non sarà uno “stringente” requisito di

capitale. L’ECR sarà usato sia come benchmark sia come base per definire un ICA

degli assicuratori non-vita.

Per gli assicuratori non-vita e vita, l’FSA ha chiesto che l’ICA mostri i risultati

basati su un livello di confidenza equivalente al 99,5% sul periodo di un anno (ciò

assicurerà consistenza tra le Compagnie, anche se gli assicuratori auspicano di

adottare un più elevato standard ai fini dei loro scopi manageriali).

27

1.2.3 L’approccio dell’IAA Insurer Solvency Assessment Working Party

L’ International Actuarial Association ha istituito l’Insurer Solvency Assessment

Working Party che ha predisposto un apposito rapporto su un nuovo framework di

vigilanza. Il Case Study sviluppato dal WP per il Non-Life riguarda principalmente

l’Underwriting Risk. Ad avviso del WP per individuare la misura dell’Underwriting

Risk nell’ambito dello Standardised Factor-Based Approach sono necessari i seguenti

dati per ciascuna Linea di Business (LoB):

o Size Factor (SF): per incrementare il livello relativo di capitale per portafogli di

minori dimensioni;

o Coefficiente di Variabilità (CoV)

o Confidence Factor (CF)

o Coefficienti di Correlazione (CC) – per ogni coppia di LoB.

Nel rapporto viene proposto la costituzione di un requisito di capitale più

aderente alle caratteristiche di ciascuna impresa (Target Capital), desumibile da due

possibili approcci: uno standard e uno più avanzato tramite l’utilizzo di modelli

interni (IRM).

Lo IAA sottolinea come possano essere scelti molti approcci standard di differente

complessità. Il metodo più semplice consiste nel considerare un unico fattore o una

sola scala di fattori di rischio per ogni prodotto e per ogni impresa (standard model).

Un approccio più complesso richiederebbe l’identificazione delle molteplici

componenti di rischio delle imprese e la creazione di un requisito di capitale per

ognuna di esse (IRM), che può risultare molto difficile da realizzare.

Il primo metodo consiste nell’individuare la distribuzione di probabilità della

c.d. riserva di rischio (risk margin, surplus, risk riserve, etc.). Scegliendo una

probabilità di non fallimento del 99%, si dovrà determinare il 99° percentile.

28

Indicando con µ la media e σ lo scarto quadratico medio del costi sinistri

aggregato e con p99 il 99° percentile, si avrà:

p99 = µ + K * σ (1.2.3.1)

K è un fattore che varia al variare della distribuzione scelta e del percentile

considerato (ovviamente funzione crescente del percentile e della pesantezza della

coda).

Dato che µ rappresenta il valore medio delle passività, ai fini della sua copertura si

utilizzeranno le riserve tecniche (che forniscono infatti una stima puntuale degli

impegni futuri), mentre K * σ rappresenta il capitale da possedere.

In generale per il ramo j-esimo (o Line of Business – LoB) il requisito minimo di

capitale sarà:

Cj = Kj * σj (1.2.3.2)

Ponendo:

jj

jj vCov ==

µσ

(1.2.3.3)

allora si avrà Cj = Kj * µj * vj. Si noti che µj, essendo legato alla sinistrosità del ramo

j, sarà calcolato dalla compagnia; ad esso sarà legato anche vj (dipendente dalla

dimensione dell’Impresa), mentre Kj sarà indicato dal supervisor.

I requisiti di capitale per ogni ramo saranno quindi combinati in un requisito totale:

jiji

jij

j CCCC **,2 ∑∑

+= ρ (1.2.3.4)

29

dove ji,ρ rappresenta la correlazione tra i rami i e j. Se la correlazione fosse uguale a

1, il requisito totale C sarebbe semplicemente la somma dei requisiti parziali Cj. Se

invece tutti i rami fossero a due a due indipendenti, il coefficiente di correlazione

sarebbe pari a 0 e quindi il secondo termine all’interno della radice si annullerebbe.

E’ quindi necessario stimare la correlazione fra i differenti LoB e questo dovrà essere

un compito dell’autorità di vigilanza.

Lo IIA WP sottolinea che per poter valutare le dipendenze, il concetto classico

di correlazione lineare è insufficiente e propone, per poter indagare adeguatamente le

dipendenze delle code delle distribuzioni, di utilizzare le funzioni Copula (si veda

Wang [1998], IIA WP [2004]).

Il secondo approccio, ai fini della determinazione del requisito minimo da

possedere, consiste nell’approssimare la distribuzione dell’ammontare di capitale

dell’impresa con una specifica distribuzione simulata e calcolare il VaR o il TVaR

per un livello di confidenza scelto (ad esempio il 99% ). Le µj e σj possono essere

utilizzate per calcolare la media e lo scarto quadratico medio del risk capital della

compagnia con la seguenti formule:

jiji

ijj

j

jj

σσρσσ

µµ

*2 ∑∑

+=

=

µ e σ possono essere usati come parametri di una particolare distribuzione (ad

esempio la lognormale). Il requisito totale sarà dunque pari alla misura di rischio

utilizzata (VaR o TVaR) diminuita di µ.

Lo IAA fornisce un esempio (appendice B) di modello Risk Based sensibile al

volume di premi, alla volatilità di ogni linea di business, ai trattamenti riassicurativi e

30

alle dipendenze eventualmente esistenti fra le varie linee di business. La formula

richiede che ogni compagnia inserisca nel modello le proprie uscite attese divise per

ramo di assicurazione. Gli altri parametri saranno invece determinati in modo

univoco dalla vigilanza.

Il modello calcolerà i primi due momenti della distribuzione totale delle uscite e poi

stimerà il TVaR99% assumendo la distribuzione del costo sinistri aggregato come

Lognormale.

Dal punto di vista tecnico si tratta di un modello di simulazione dove è necessario

seguire i seguenti passi (tale metodologia sarà ripresa nei successivi capitoli 2 e 3):

1. Si ricava un numero pseudo casuale qi da una distribuzione Gamma con media

1 e varianza c (si veda Daykin et al. [1994], Savelli [2002] e il successivo

capitolo 2).

2. Si ricava un numero pseudo casuale Ki da una distribuzione con media λi qi

dove λi è il numero di sinistri atteso per la linea di assicurazione i-esima.

3. Per ogni i e per ogni k=1,2, …, Ki si sceglie un importo casuale del costo del

singolo sinistro, Zik da una distribuzione lognormale con media µi e scarto

quadratico medio σi.

4. Si ricava quindi il danno aggregato per la linea di assicurazione i: ∑=

=iK

kiki ZX

1

5. Si sceglie poi un numero casuale p, da una distribuzione uniforme (0,1). Per

ogni linea i si sceglie βt come il p-esimo percentile di una distribuzione con

media E[βt]=1 e Var[βt]=bi. Questo fornisce una distribuzione dei βt in cui

ogni coefficiente di correlazione ρij è uguale a 1.

6. E’ possibile quindi scrivere che il danno aggregato per la compagnia é:

∑=i

ii XX β

31

Si rimanda a IAA WP [2004] e Daykin et al [1994] ai fini della dimostrazione delle

formule dei momenti del danno aggregato. E’ importante evidenziare che con la

media e la varianza delle distribuzione dei sinistri totali della compagnia è possibile

quantificare il TVaRα.

Nel caso della distribuzione lognormale (si veda Klugman et al [1998]) è necessario

stimare due parametri (media e varianza). Successivamente si procede al calcolo del

VaRα del danno aggregato ed infine si giunge alla formula dell’Expected Shortfall

per la distribuzione lognormale:

( ) ( ) [ ] ( )[ ]α

ααα −

−+=

1

~^~~~~ XVaRXEXEXVaRXTVaR (1.2.3.5)

Figura 1.3.4.1: L’expected Shortfall e il Var (Savelli [2005])

Nel rapporto si mette in evidenza la differenza tra il caso in cui il numero sinistri

segua la distribuzione di Posson o invece la distribuzione Binomiale Negativa. In

quest’ultimo caso si dimostra (si veda Daykin et al. [1994]) che la varianza del loss

ratio è caratterizzata da un livello sistematico di variabilità a cui non può essere

eliminato all’aumentare delle dimensioni del portafoglio (fenomeno che invece non

accade in presenza di una distribuzione di Poisson per la v.a. numero sinistri).

32

Nel caso di dipendenza strutturale quindi si dimostra che (si veda anche Heckman e

Meyers [1983]):

iiiikEi

ii cbcbXEX

VAR ++ →

+∞→]

~[]~[

~β (1.2.3.6)

dove bi dipende dalla correlazione tra linee di business diverse, mentre ci dalla

correlazione delle polizze di una stessa linea di business. bi sarà quindi influenzato da

quegli eventi che incidono sul loss ratio di tutti i rami. L’obiettivo è quindi quello di

stabilire dei bi e ci per ogni linea che possano essere utilizzati da tutte le imprese.

L’analisi dei loss ratio riscontrati nelle varie linee di business permette di stimare lo

scarto quadratico medio e ricavare dei possibili bi e ci.

Quindi per utilizzare il modello descritto precedentemente è necessario disporre di:

o Media e Coefficiente di Variazione della distribuzione lognormale dell’importo

del singolo sinistro per ogni ramo (proprio di ogni impresa).

o I parametri bi e ci per ogni ramo forniti dall’autorità di vigilanza e uguali per

tutte le imprese.

Sarà quindi possibile calcolare la media e lo scarto quadratico medio della

distribuzione lognormale dell’importo del sinistro dopo l’applicazione della

riassicurazione. Si potrà poi stimare il numero di sinistri attesi i per ogni ramo

semplicemente dividendo il totale dei sinistri attesi per un ramo con l’intensità di

sinistro attesa µi.

A questo punto sono disponibili tutte le informazioni necessarie per calcolare

media e varianza della distribuzione lognormale aggregata dei sinistri di una

compagnia considerando anche l’eventuale uso di riassicurazione, e quindi il TVaR

33

per ogni impresa. Secondo questo modello standard il risk based capital che le

imprese dovranno possedere sarà pari a:

TC = TVaR99% - Perdite medie sul Business corrente Netto Riass - Perdite medie al

netto sul business corrente sulle riserve Netto Riass + PML per Catastrofi

dove PML per Catastrofi è la c.d. Massima Perdita Probabile in evento ad un sinistro

di natura catastrofale.

Nel case study dello IAA WP viene considerato il RBC di 2 diverse compagnie

aventi entrambe un portafoglio assicurativo composto ciascuno da 6 rami assicurativi

di tipo Property&Liability (diversi solo per il volume complessivo, dove la

compagnia ABC è dieci volte più grande dell’altra XYZ), secondo 3 differenti

strategie di riassicurazione. Il RBC ottenuto per la Compagnia ABC (medio-grande)

corrisponde al 49% del Volume dei Premi Diretti (al lordo della riassicurazione) e al

41,3% (al netto della riassicurazione). Per la società XYZ le percentuali,

rispettivamente, al lordo e al netto riassicurazione sono pari a 63% e 43%

(ovviamente più elevate rispetto alla ABC assicurazioni, data la minore numerosità

del portafoglio).

Lo stesso WP ha ricalcolato il RBC sulla base dell’IRM, che si differenzia

dall’approccio Factor-Based Formula per l’adozione di ipotesi meno conservative in

termini di correlazioni e di CoV della claim severità e lo sviluppo diretto del calcolo

mediante modelli di simulazione senza utilizzare l’ipotesi che la distribuzione di X

possa essere approssimata dalla LogNormale.

In tal caso i risultati del RBC mediante IRM Model:

34

o per l’Insurer ABC – medio/grande si ha una riduzione del RBC tra il 36% (riass.

XL tutti rami) ed il 41% (caso no riass.);

o per l’Insurer XYZ – piccolo si ha una riduzione del RBC tra il 35% (riass. XL

tutti rami) ed il 15% (caso no riass.).

1.2.4 Lo Swiss Solvency Test

In Svizzera il Federal Office for Private Insurers (FOPI) ha prodotto nel 2004 il

c.d. Swiss Solvency Test (SST) in cui i rischi considerati sono sia assicurativi che

finanziari (non sono considerati quindi i rischi operativi o di strategia), ma può anche

essere considerata la Riassicurazione, ivi compreso quindi il rischio di credito

derivante dal default del riassicuratore.

Lo SST si basa su una struttura a moduli, consistente di differenti modelli

standard. Gli output dei modelli standard rappresentano funzioni di distribuzione, che

consentono significative integrazioni dei modelli interni (come si può vedere nella

figura seguente).

Figura 1.2.4.1: Fonte FOPI 2004: Schema di funzionamento del modello non-life

35

Limitando la descrizione ai rami danni, i modelli standard sono rappresentati da:

o Rischio di Mercato: Modelli del tipo Riskmetrics con appross. 25 fattori di

rischio (tassi di interesse, FX, azioni, spreads,…);

o Property & Casualty: Modelli Interni (non una formula ma processi prefissati).

Il risultato tecnico è dato dalla seguente equazione:

Premi Netto Costi – Costo sinistri Attualizzato – Run off Result attualizzato =

P = Premi di competenza;

K = Costi;

P – K = ipotizzato costante;

d(0)CY = fattore di attualizzazione per l’anno corrente (current year);

SCY = sinistri di competenza, che per ogni Line of Business (LoB) sono splittati tra

normali e large claims; si tiene conto anche di eventi catastrofali con effetto

simultaneo su diverse LoB;

d(0)PY = fattore di attualizzazione dell’anno precedente (previous year);

(CPY – 1) R(0)PY = Run off result risk, dove CPY R(0)

PY é la riserva stocastica rivalutata

(distribuita per ipotesi secondo la Lognormale), con valore atteso R(0)PY , cioé la c.d.

Best Estimate. Sul run-off risk agiscono due cause: aleatorietà dei sinistri (stochastic

risk) e l’incertezza nella stima dei parametri (parameter risk).

Per i sinistri ordinari vengono stimati le distribuzioni (Lognormale) e vengono

aggregati utilizzando una matrice di correlazione. Gli elementi della matrice sono

stimati in base ai dati storici (standard values).

(0) (0) (0)( 1)CY CY PY PY PYP K d S d C R= − − ⋅ − ⋅ − ⋅

36

Per i large claims viene utilizzata la distribuzione Compound Poisson-Pareto.

Emerge comunque la Necessità di formulare linee guida per il cut-off della

Distribuzione di Pareto delle LoB con un α (tail index) < 2, caso in cui i momenti

della Pareto non sono finiti. Attualmente vengono utilizzate regole diverse a fronte di

differenti LoB (possibili sviluppi futuri: utilizzare l’Extreme Value Theory o

distribuzioni troncate).

Nel caso di accumulo di sinistri in seguito ad un singolo evento (che coinvolge

differenti LoB) è modellizzato sempre con una distribuzione Compound Poisson. E’

auspicabile l’introduzione di dipendenza strutturale attraverso la distribuzione

Binomiale Negativa per il processo della variabile aleatoria Numero Sinistri.

Attualmente è postulata l’indipendenza tra i diversi sinistri e tra numero e costo.

I sinistri ordinari e large vengono aggregati attraverso la convoluzione che viene

calcolata numericamente in base alla formula ricorsiva di Panjer (si veda il capitolo

2).

L’aggregazione successiva con i sinistri catastrofali viene realizzata in base ad un

metodo per scenari.

Il SST é basato sulla valutazione a valori di mercato delle passività in cui viene

incluso un margine di rischio. L’obiettivo finale é misurare il Target Capital in base

alla formula:

Target Capital = Expected Shortfall + Risk Margin

= Capitale Richiesto + Margine di Rischio

dove il primo addendo copre il rischio lungo un anno di orizzonte temporale, mentre

il secondo fa riferimento al rischio relativo al run-off del portafoglio (figura 1.2.4.2).

37

Figura 1.2.4.2: Target Capital nel SST (fonte CEA [2005])

Il Field Test del 2004 é stato basato esclusivamente sul portafoglio svizzero

(senza filiali in paesi stranieri) per alcune Compagnie mono e multi ramo, dal quale è

emerso che:

o Rischio di Credito: L’approccio standard di Basilea II é difficilmente

implementabile;

o L’Aggregazione di risultati dei modelli standard e valutazioni per scenari non

hanno funzionato in maniera appropriata. Per il field test del 2005, le

aggregazioni saranno modificate;

o Alcuni scenari non sono risultati significativi (non descrivevano alcuni rischi

significativi o contraddistinti da una probabilità più elevata)

o Alcune problematiche necessitano di un margine di rischio oltre la best-estimate:

tra l’1% e il 4% della best estimate delle passività. Tra l’8% e il 40%

dell’Expected Shortfall ad 1 anno (piccolo per Property&Casualty, grande per

portafogli vita);

o Il Capitale Obiettivo (Target Capital) é significativamente superiore a quello

risultante dai requisiti previsti da Solvency I;

o La variabilità del ratio Capitale Obiettivo/Best-Estimate é abbastanza piccola;

o Il Rischio di Mercato é significativo anche per i portafogli Property &Casualty

(si pensi invece al modello RBC USA);

38

o In caso di insolvenza, l’autorità di vigilanza richiede che capitale disponibile sia

tale da consentire ad un secondo assicuratore di acquisire il portafoglio di attivi

e passivi.

1.2.5 Il progetto Solvency II

La formula attuale del Margine Minimo di Solvibilità (MMS) fa riferimento

quasi esclusivamente all’underwriting risk (senza comunque considerare gli effetti di

eventuali livelli significativi di correlazione e/o tail-dependencies tra i vari rami).

Secondo il Müller Working Party (1997) il Margine di Solvibilità deve coprire

solo i rischi che non sono coperti da altre misure di prevenzione e propone in

particolare l’introduzione di un terzo indice “alternativo” (basato sulla riserva

sinistri): proposto al fine di affrontare il rischio di run-off delle riserve sinistri per i

rami (come quelli di R.C.) aventi tempi di liquidazione di vari anni - long term risk e

long tail risk (rischio particolarmente rilevante in alcuni mercati, come quello

italiano).

A tal fine è stata introdotta la nuova disciplina UE, c.d. Solvency I, con la Dir.

2002/13/CE del 5 marzo 2002 (recepita in Italia con D. Lgs. n. 307 del 3 novembre

2003). La nuova normativa (Solvency I) recentemente introdotta in ambito

assicurativo non è ancora soddisfacente per la definizione del margine di solvibilità

delle compagnie. L’unica modifica rilevante rispetto al passato è stato l’inserimento

nel calcolo del margine minimo di un aumento del 50% dei premi e dei sinistri medi

del ramo RCGenerale. Restano dunque irrisolti i numerosi problemi, già evidenziati

dal Report del Müller Working Party nel 1997, primo fra tutti la non sensibilità del

margine minimo rispetto all’effettiva rischiosità dell’impresa di assicurazione.

39

I requisiti di capitale conosceranno quindi con il Solvency I un aumento molto

inferiore a quello ritenuto necessario dalla maggior parte delle analisi svolte: ad

esempio gli studi effettuati dalla FSA per l’introduzione dell’ECR (Enhanced Capital

Requirement) mostrano come, scelta una probabilità di fallimento non superiore allo

0,5%, saranno necessari dei requisiti di capitale pari mediamente al 49% dei premi

netti, percentuale destinata a salire al 62% per le imprese con meno di 10 milioni di

sterline di premi. Il Solvency I va dunque considerato come una misura provvisoria,

non atta al superamento dei limiti della vecchia direttiva, ma ad un semplice

aggiustamento in vista della riforma dei prossimi anni.

Il progetto destinato a cambiare profondamente le compagnie di assicurazione,

interessando tutti i soggetti legati al business assicurativo, dall’azionista

all’assicurato, dal management all’autorità di vigilanza, sarà invece il Solvency II.

La sua importanza è accentuata dal fatto che i nuovi standard contabili IAS

diminuiranno il livello di prudenza in molte nazioni. La prima fase del progetto

solvibilità II è terminata, la seconda è tuttora in corso e si stima che si potrà

concludere, con una prima bozza della nuova direttiva, entro il 2005, mentre la sua

entrata in vigore è prevista per il 2008-2009.

Gli elementi essenziali all’attuazione di Solvency II:

o Ruolo fondamentale assunto nel futuro dai Modelli Interni (IRM).

o Strumenti di analisi quantitativa sono necessari per l’analisi del risk profile

(con particolare riferimento eventi estremi e alle dipendenze).

o Attualmente l’indice minimo di solvibilità nella UE per le Compagnie Danni é

circa pari al 16-20% dei premi netti, mentre i risultati dei recenti studi mettono

in evidenza come il ratio del capitale minimo debba essere significativamente

incrementato (almeno fino al 35-40% dei premi).

40

o Occorre fare attenzione a regole che impongano un eccessivo requisito di

capitale con indesiderabili effetti su un più elevato costo del capitale per il

mercato assicurativo.

Il solvency framework proposto è analogo al Three-Pillars approach di Basel II

(e ripreso anche dalla Commiss. Europea e CEIOPS):

Figura 1.2.5.1: L’approccio a tre pilastri (Seminario IIA 2002)

Il primo pilastro è rappresentato da Minimum Financial Requirements, che comporta

il mantenimento di:

o appropriate riserve tecniche;

o idonee attività a copertura degli impegni tecnici;

o un ammontare minimo di capitale per ogni assicuratore.

Nell’ambito del Pillar I capital requirements, è generalmente condiviso che debbano

essere ricompresi le seguenti tipologie di rischio:

o underwriting risk

o credit risk

o market risk

o operational risk

41

Il secondo pilastro è il Supervisory Review Process, che risulta necessario in aggiunta

al Pillar I, in quanto non tutte le tipologie di rischio possono essere adeguatamente

stimate mediante misure puramente quantitative. Tale fase richiede una Independent

Review (dalla Vigilanza o da una entità qualificata appositamente designata), in

special modo quando sono utilizzati Internal Models.

Tale Review comporterà l’intervento della Vigilanza se il capitale della

compagnia non risulterà sufficiente a far fronte ai rischi assunti. Il Pillar II, come

detto, intende non solo assicurare che le compagnie abbiano un appropriato capitale

di rischio a fronte dei vari rischi d’impresa, ma anche incoraggiare gli assicuratori “to

develop and use better risk management techniques” in modo da monitorare e gestire

il profilo di rischio dell’azienda.

Come in Basilea II, sarà fissato uno Standardized Approach (di seguito SA)

che comporti misure di capitale alquanto prudenziali (ad es. mediante sovrastima dei

coefficienti di correlazione), comportando quindi un maggiore interesse da parte delle

compagnie a stimare il Target Capital tramite Internal Models che colgano con

maggiore precisione la connessione dei vari rischi, determinando in tal modo una

misura di capitale molto verosimilmente più contenuta di quella fissata mediante lo

SA. Gli IRM permetteranno alle Compagnie di personalizzare e correggere i risultati

degli Standard Models: “build risk-based formulas as approximations to internal

model” (Panjer H. [2003]).

Gli IRM potranno essere utilizzati non solo per la stima del capitale da

possedere dalla compagnia, ma soprattutto come valido supporto delle decisioni del

management dell’impresa, per questo dovrà essere sempre considerato il trade-off

rischio-rendimento.

42

Infine il terzo pilastro, Measures to Foster Market Discipline, serve a

rafforzare la market discipline introducendo dei requisiti di disclosure. Secondo vari

esperti il Pillar III dovrebbe giocare un ruolo particolarmente importante in futuro

nello screening degli operatori da parte della clientela, potendo far risaltare con

maggiore evidenza di quanto non sia possibile oggi con il Solvency I l’effettivo grado

di sicurezza della compagnia (es. ass. Vita ed RCA), laddove la clientela ed il

mercato nel suo insieme potranno individuare il trade-off tra pricing e solvency

dell’operatore assicurativo.

I requisiti minimi di capitale si distingueranno in “target capital requirement” e

“minimum capital requirement” e dovranno essere calcolati in modo che risultino

sufficienti dati una certa probabilità di rovina.

Il Target Capital costituirà il capitale auspicabile che ogni impresa dovrà

possedere, il suo calcolo potrà avvenire sia attraverso un metodo standard (tipo RBC

americano) che tramite modelli interni di gestione del rischio.

Nel metodo standard si potrebbero stabilire dei parametri uguali per tutte le

imprese europee oppure permettere una certa diversificazione tramite l’utilizzo di

parametri flessibili per meglio cogliere le differenze di ogni realtà nazionale (ad

esempio la tassazione).

Sarà indispensabile stabilire un requisito di capitale per la copertura

dell’underwriting risk (il più rilevante per una compagnia), del rischio di credito e del

rischio di mercato.

Come visto in precedenza per le analisi del Target Capital è sovente

considerato un orizzonte temporale di 1 anno. Inoltre sono raccomandate dall’IAA

WP due misure di rischio raccomandate dall’IAA-SWP:

43

1) SHORT-TERM: l’ammontare del capitale necessario deve risultare sufficiente per

un livello di confidenza molto alto (99%) che comprende al termine di 1 ANNO il

valore attuale delle future obbligazioni residue (e.g. best estimate value con un

moderato livello di confidenza, come ad es. il 75%);

2) LONG-TERM: per far fronte alla complessa natura di alcuni rischi, può essere

imposta anche una seconda condizione. Qualora il valore attuale delle passività

(riferito ad un orizzonte di 2-3 anni per le ass.ni non-life e considerato ad un livello di

confidenza abbastanza elevato - es. 90/95%) sia più grande, allora dovrebbe essere

mantenuta quest’ultima misura di capitale. Questa seconda misura considera i vari

rischi per gli anni considerati, includendo sia rischi sistematici che rischi non-

sistematici.

I requisiti di capitali saranno così influenzati non solo dalla dimensione

dell’impresa, ma anche dalla differente volatilità dei vari rami assicurativi, dalle

caratteristiche dei trattati riassicurativi, dai caricamenti applicati, dall’inflazione, dal

tasso di crescita e dal tasso di interesse.

Per quanto riguarda il calcolo dei requisiti di capitale per la coperture dei rischi

di credito e di mercato probabilmente si utilizzeranno metodi simili a quelli utilizzati

nei modelli Risk Management che si stanno sviluppando in ambito bancario (ivi

compresi metodi di scorino e di rating, strumenti di analisi statistica multivariata,

ecc.).

Il calcolo del minimum capital requirement (MCR), ovvero del livello sotto il

quale la compagnia non dovrà mai scendere, sarà molto semplice. La scelta consisterà

se calcolarlo come una frazione del target capital o, come sembra più probabile, in

modo simile al margine minimo di solvibilità odierno.

44

In conclusione il progetto Solvency II costituisce una grande opportunità a

disposizione del mercato europeo e dovrà portare al miglioramento

dell’armonizzazione degli standard europei e delle riserve tecniche, ad una più

profonda conoscenza dei rischi, ad una maggiore trasparenza, ad un uso più efficiente

del capitale ed infine ad una migliore protezione degli assicurati.

1.2.5.1 Il contributo del CEIOPS

Il CEIOPS (Committee of European Insurance and Occupational Pensions

Supervisors) é stato costituito alla fine del 2003, su richiesta della Commissione

Europea (call for advice) ed in relazione alla c.d. Procedura Lamfalussy (destinata ad

incentivare il processo di convergenza verso il mercato unico), con compiti consultivi

all’emanazione e all’applicazione della normativa legata al nuovo sistema di

solvibilità per le compagnie di assicurazione vita, danni e di riassicurazione dell’UE.

Tale commissione ha dato e continua a dare luogo ad un a serie di report progressivi

sullo stato dell’arte e risponde ai c.d. call for advice, su diverse tematiche quali la

riassicurazione, la valutazione delle riserve tecniche danni e vita, i Solvency Capital

Requirement e l’utilizzo degli Internal Risk Models, ecc.

Data l’elevata complessità delle tematiche che progressivamente stavano

emergendo il CEIOPS ha continuato a lavorare su Solvency II (a livello globale)

assistendo la UE nell’articolazione delle diverse fasi di realizzazione. In tale ottica la

commissione mira ad occuparsi dell’intero sviluppo del progetto e non solo

contribuire all’emanazione della bozza della prima direttiva (2006).

Attualmente sta contribuendo a colmare alcuni gap sulle tematiche ancora

irrisolte o che hanno bisogno di una maggiore analisi tecnica in relazione ai c.d.

45

Quantitative Impact Studies. In particolare il CEIOPS pubblicherà ulteriori

consultation paper, concentrati su argomenti non completati come le riserve tecniche,

il Pillar 2, ecc.. Gli studi di impatto quantitativo consentono di simulare gli effetti

sulle risorse finanziarie delle imprese di assicurazione dei nuovi requisiti proposti dal

progetto Solvency II. Essi rappresentano un processo iterativo, con simulazioni

successive, man mano più affinate ed estese che serviranno per fornire input alla

Commissione Europea per l’Impact Assessment che dovrà accompagnare la

presentazione della Direttiva Quadro prevista entro luglio 2007. Gli studi di impatto

quantitativo vengono effettuati dalle singole imprese su base volontaria e dovranno

essere completati entro il 31 dicembre 2005.

In ottobre 2005 il CEIOPS ha avviato un Quantitative Impact Study diretto alle

riserve tecniche vita e Danni, con particolare riferimento alla scelta del livello di

prudenza che deve essere adottato nella quantificazione. L’obiettivo è che le riserve

tecniche dovranno essere calcolate secondo criteri più armonizzati di quelli in essere:

central estimate + margin for risk and uncertainty. L’ipotesi di lavoro della

Commissione è il 75% della distribuzione delle probabilità come benchmark per il

livello di confidenza delle riserve.

Un più ampio ed approfondito studio (QIS2), sarà avviato a maggio 2006, in

relazione ai requisiti di capitale. Il Minimum Capital Requirement dovrebbe essere

calcolato in maniera semplificata e avere una ulteriore soglia minima espressa in

valore assoluto (euro). Le opzioni all’esame della Commissione e del CEIOPS per il

Mininum Capital Requirement:

o adottare l’attuale margine di solvibilità (“SOLVENCY I”);

o adottare il margine attuale con l’aggiunta dell’asset risk;

o prendere a riferimento il Solvency Capital Requirement o come base per una

formula semplificata o in termini percentuali;

46

o applicare un semplice “risk margin” alle riserve tecniche.

Stime dei nuovi requisiti minimi, sia pur approssimative, dovrebbero essere

disponibili prima che la direttiva quadro sia formalmente proposta.

1.3 Cenni all’Operational Risk

In base all’Intervento del Comitato di Basilea, è possibile fornire la seguente

definizione di Operational Risk: “Rischio associato a possibili perdite derivanti da

inefficienti procedure interne di monitoraggio e controllo nella gestione del

portafoglio”. Rappresenta tutti i rischi che non possono essere inclusi nei rischi

finanziari e di credito, esclusi i rischi strategici e reputazionali.

Ad esempio: a causa della negligenza di un operatore (fattore di rischio

persone) si verifica un errore di data entry (evento rischio) in una determinata attività

di un processo di back office (punto di rischio); il verificarsi dell’errore sarà

caratterizzato da una certa probabilità di accadimento (frequenza) e comporterà una

perdita che può essere caratterizzata da livelli differenti di gravità (impatto-severity).

Nel sistema bancario internazionale è stato stimato che i rischi possono essere così

ripartiti (fonte Deloitte [2003]):

- rischio di credito 50%

- rischio di mercato 15%

- rischio operativo e altri rischi 35%.

In analogia con il progetto Solvency II è interessante evidenziare i tre approcci

definiti da Basilea II per la misurazione del Rischio Operativo (si veda Basilea II,

Savelli [2005], Embrechts [2005]):

47

Figura 1.3.1: I tre approcci per la misurazione dell’Operational Risk – Fonte: Embrechts [2005] e Savelli N. [2005]

Le banche che utilizzano approcci di tipo Basic Indicator Approach (BIA) o

Standardised Approach (SA) non possono ridurre il Capital Charge (CC) in relazione

all’eventuale impatto della assicurazione (risk mitigation). Tale riduzione può essere

applicata solo nel caso di approcci Advanced Measurement Approach (AMA), nel

limite del 20% del requisito totale per l’OpRisk e sotto certe condizioni.

Inoltre si vuole evitare il c.d. “Cherry-picking Risk”: una volta che le banca ha

adottato un approccio più evoluto, non è più consentito tornare al calcolo del CC

mediante approcci più semplificati.

Per quanto concerne le correlazioni sia per lo SA che per l’AMA il totale del

CC è ottenuto semplicemente mediante la somma dei singoli valori ottenuti per ogni

combinazione (non viene prevista alcuna correzione per tener conto della

correlazione, a causa della mancanza di experience al riguardo).

48

E’ previsto l’utilizzo dell’ Individual Measurement Approach (IMA) o del Loss

Distribution Approach (LDA) a seconda degli eventi connessi all’Operational Risk.

Nel primo caso si ha:

(1.3.1)

dove ei,k = Expected Loss per la business line i e la tipologia di rischio k

Per l’approccio LDA il CC è basato sulla semplice somma dei singoli VaR per

l’OpRisk per ogni classe i,k (Business line/Risk type). Nel LDA va studiata la

variabile aleatoria delle Op.Losses XLDA relative ad un generico anno:

(1.3.2)

dove

L è il numero delle Business Lines (8);

T è il numero delle tipologie degli eventi (7);

N~ i,k rappresenta la v.a. numero degli eventi di perdita della combinazione i,k

che si verificheranno nell’anno considerato;

Z~ i,k,j denota invece la v.a. della j-esima perdita (severity) verificatasi nell’anno,

sempre relativa alla combinazione i,k.

L’approccio è del tutto analogo a quello utilizzato in ambito attuariale classico

nelle assicurazioni danni per lo studio della v.a. del costo sinistri aggregato dei vari

rami danni.

Le ipotesi principali sono che per ogni singola combinazione i,k viene ipotizzato che

le v.a. Z~ i,k,j delle severity siano indipendenti ed identicamente distribuite (i.i.d.),

∑∑∑= = =

=L

i

T

k

N

jjkiLDA

ki

ZX1 1

~

1,,

, ~~

49

nonché il numero delle losses e le severity delle stesse siano reciprocamente

indipendenti.

I passi di calcolo sono simili a quelli visti nel caso dell’approccio dell’IAA WP

[2004]:

o in primo luogo, per ogni combinazione viene individuata la distrib. di

probabilità della v.a. numero delle losses N~ i,k – es. Poisson, Poisson Misturata,

Binomiale Negativa, Binomiale, ecc., con parametri (possibilmente) ricavati dai

dati empirici;

o successivamente, sempre per ogni combinazione i,k viene associata la

distribuzione di probabilità della v.a. Z~ i,k,j (tra cui Weibull, di tipo light-tail,

Gamma, Exponential, Gumbel, LogNormal, di tipo medium-tail o Pareto, di tipo

heavy-tail distrib). In genere nelle ass. danni le distrib. di riferimento sono la

LogNormale e la Pareto.

o Solitamente la distribuzione composta delle losses non è agevole da ottenere in

forma analitica, ed a tal fine si ricorre a Modelli di simulazione Monte Carlo per

ottenere la distrib. simulata di X~ (tra le alternative vi sono la FFT e la Recursion

formula di Panjer come si vedrà in dettaglio nel capitolo 2).

o Le Unexpected Losses (Time Horizon = 1 anno) vengono individuate sulla base

del livello di confidenza fissato (es. 99%, 99.5%, 99.9%) e della misura di

rischio prescelta (VaR o TVaR).

o Nel caso delle Operational Losses è particolarmente difficile individuare

(mediante gli approcci attuariali classici) la coda estrema della distribuzione con

sufficiente affidabilità (e quindi stimare le UL), soprattutto per livello di

confidenza molto elevati (maggiori del 99.9%). In tali casi, spesso si ricorre alla

Extreme Value Theory (EVT) per la stima delle large losses (per l’esattezza

delle losses in eccesso di una elevata soglia u, come si vedrà nel capitolo 2),

mentre per le losses piccole/medie si mantiene l’approccio attuariale

tradizionale.

50

Figura 1.3.2: Rappresentazione delle Operational losses (Fonte Savelli [2005])

In merito alle differenze tra LDA e IMA, è necessario precisare che la prima

metodologia ha l’obiettivo di stimare direttamente le UL e non é basata sull’ipotesi

sottostante l’IMA che le UL possano esprimersi in funzione delle EL mediante i

fattori moltiplicativi γi,k.(es. ULi,k= γi,k x ELi,k). Il LDA ha il vantaggio di accrescere

la sensibilità del CC al risk–profile effettivo della banca per l’OpRisk. Ovviamente

per l’applicazione di tale approccio sono necessari:

o requisiti sulla “qualità” dei dati;

o “robuste” tecniche di stima;

o metodi di validazione “appropriati”.

Il Comitato di Basilea incoraggia il settore bancario a continuare nello sviluppo

di tali approcci, dato che sono emerse difficoltà nella modellizzazione

dell’operational risk secondo l’approccio attuariale tradizionale, con particolare

riferimento alla irregolarità dei rischi estremi (ricorso alla Estreme Value Theory).

51

Nel prossimo futuro sarà opportuno stimare anche le correlazioni interne tra le

differenti LoB dell’Operational Risk e quelle esterne con i diversi fattori di rischio

complessivo (Credit Risk e Market Risk).

Sarà necessario introdurre una classificazione delle cause che generano il

rischio operativo, che sia il più generale possibile. Oltre ai cosiddetti “problemi di

sistema”, controlli “poor”, “errore umano o di processo”, è necessario considerare

altri eventi, che comunque hanno un effetto sul conto economico (spese legali, spese

per interessi, etc.), adottando una classificazione delle perdite per area di impatto sui

risultati, con l’obiettivo di spiegare la volatilità dei guadagni, derivante, appunto,

dall’effetto diretto di tali costi sui risultati.

E’ auspicabile concentrarsi, non sul sistema complessivo, ma su alcuni processi

più “sensibili”. Infatti alcuni processi possono essere esposti al rischio di “failure”,

ma con effetti monetari che possono essere alquanto trascurabili e quindi non oggetto

di un’immediata analisi.

La stima dell’Operational Risk per le compagnie di assicurazione rivestirà un

ruolo altrettanto strategico alla luce del Solvency II. L’esperienza del settore bancario

risulterà senz’altro utile, dato che sta avviando modelli di scoring, di rating e di

analisi statistica multivariata per la quantificazione di tale rischio.

52

1.4 Commenti in merito ai diversi approcci

Da quanto esposto un aspetto di indubbio interesse è rappresentato dai livelli di

intervento dell’autorità di vigilanza nel RBC americano ai fini della futura

applicazione del progetto Solvency II, che però andranno calibrati sulla realtà delle

Compagnie europee di assicurazioni.

In chiusura al capitolo, sulla base di quanto esposto in CEA and Mercer Oliver

Wyman [2005], nella Figura 1.4.1 viene riportato un interessante confronto in termini

di valutazione di attivi e passivi tra il sistema FSA e quello Svizzero. Nel caso del

SST il Target Capital é dato dalla somma del capitale richiesto eccedente dal valore

di mercato delle passività, ma include anche il risk margin (a differenza del modello

FSA).

Figura 1.4.1: Target Capital nei sistemi FSA e SST

Di seguito viene riportata una tabella dove vengono indicati i sistemi che

utilizzano come misura di rischio il VaR e quelli che usano il TVaR. Come si vede

l’unico sistema è il SST ad usare il Tail VaR (si noti che vi sono inclusi anche altri

sistemi non considerati in questa tesi, tra cui il sistema proposto dalla FTK

dell’Olanda, o dalla GDV in Germania, ecc.).

53

Figura 1.4.2: Misure di rischio nei diversi sistemi di assessment della solvibilità

Infine viene riportata la tabella di confronto in termini di livello di confidenza

adottato. Emerge come nel RBC USA sia incluso nel calcolo dei fattori di rischio

(seppur non specificato direttamente), mentre l’FSA ricorre al 99,5% e il SST si rifà

invece al concetto legato al TVaR. Si noti che a differenza di Solvency I, in Basilea II

sono implicitamente utilizzati diversi livelli di confidenza a fronte dei diversi rischi.

Figura 1.4.3: Livelli di confidenza adottati nei diversi sistemi di solvency test

54

Capitolo 2

I metodi per la valutazione della funzione di ripartizione del costo sinistri aggregato

In questo capitolo sono descritti i differenti approcci utilizzabili ai fini della

valutazione della funzione di ripartizione del costo sinistri aggregato, con particolare

riferimento alle tecniche:

• Extreme Value Theory

• Fast Fourier Transform

• di Simulazione

2.1 Il modello “compound” per il costo sinistri aggregato

L’approccio considerato è quello della teoria del rischio secondo

l’impostazione collettiva, il cui modello base fu presentato da Ph. Lundberg al VI

Congresso Internazionale degli Attuari in Vienna nel 1909 e rielaborato

successivamente dall’autore stesso e soprattutto da H. Cramer (1930) e da Laurin

(1930).

Viene determinata, in funzione della variabile aleatoria numero di sinistri e

della variabile aleatoria ammontare del costo del singolo sinistro, la distribuzione

della variabile aleatoria danno aggregato X~ .

La variabile aleatoria danno aggregato è data dalla:

∑=

=k

iiZX

~

1

~~ (2.1.1)

55

dove k~ è la variabile aleatoria numero sinistri mentre iZ~ indica il costo dell’i-esimo

sinistro.

Nella letteratura attuariale la variabile aleatoria numero di sinistri è tipicamente

descritta dalle distribuzioni di probabilità di Poisson o Binomiale Negativa.

Nel primo caso avremo che la probabilità che si verifichino esattamente k

sinistri è data da:

,...2,1,0,!

==−

kk

epk

kλλ (2.1.2)

dove λ>0 è l’unico parametro (che corrisponde alla media e alla varianza di tale

distribuzione).

La funzione generatrice delle probabilità (FGP) è data dalla:

[ ] ( )1~~ )( −== tkk etEtP λ (2.1.3)

Adottando tale distribuzione implicitamente si suppone che i rischi siano omogenei,

che non sussistano fluttuazioni a breve termine o cicli di lungo periodo (si veda Beard

et al. [1984] e Daykin et al. [1994]).

Nel secondo caso avremo che la probabilità che si verifichino esattamente k

sinistri è data da:

( )( ) ,...2,1,0

111

!=

+

+⋅Γ

+Γ= k

kp

k

k ββ

βαβα

α

(2.1.4)

56

o secondo Beard et al. [1994] e Savelli [2003], introducendo la v.a. continua 0~ >q fattore di disturbo o misurante: ( ) ( ) ( ) ( ) ( ) qdqf

kqeqdqfqkPqp q

kq

Qk ∫∫∞ −∞

==0

~0 !

|~ λλ

, con ( ) 1~ =qE .

La distribuzione Binomiale Negativa ha la funzione generatrice delle

probabilità pari a:

[ ] ( )[ ] αβ −−−== 11)(~

~ ttEtP kk . (2.1.5)

Per tale distribuzione si ha [ ] αβ=kE ~ < [ ] ( )βαβ += 1~kVar , mentre il rapporto Varianza

su Media (si veda Heckman e Meyers [1983] e Beard et al. [1984]) è pari a

β+= 1]~[]~[

kEkVar (2.1.6)

Diversi autori utilizzano tale ratio per descrivere la distribuzione Binomiale Negativa.

In particolare Heckman e Meyers [1983] usano il cosiddetto “contagion parameter” c

per definire la relazione tra varianza e media di tale distribuzione:

( )]~[1]~[]~[ kcEkEkVar +⋅= (2.1.7)

Per quanto concerne la variabile aleatoria costo del singolo sinistro Z~ in molti

casi è possibile applicare distribuzioni teoriche, tra cui Pareto, Gamma, Weibull,

Lognormale, ecc., che possono essere ordinate secondo il seguente ranking in base

alla pesantezza delle code (si veda Wang [1998]):

57

Distribuzione Ranking

Pareto 1

Lognormale 2

Gaussiana Inversa Esponenziale 3

Gaussiana Inversa 4

Weibull 5

Gamma 6

Ai fini delle applicazioni realizzate in questa tesi di dottorato è stata sfruttata

anche la Teoria dei Valori Estremi. La metodologia basata sull’Extreme Value

Theory (EVT) consente di ottenere una rappresentazione parametrica della coda della

distribuzione del costo del singolo sinistro, senza la necessità di avanzare ipotesi sulla

forma funzionale dell’intera “distribuzione originaria” delle suddette perdite (si veda

il paragrafo 2.2 e la Figura 2.1.1).

Figura 2.1.1: Esempio di stima parametrica mediante l’EVT

Una volta individuate le distribuzioni utili alla rappresentazione delle variabili

aleatorie k~ e Z~ (si veda Klugman et al. [1998]), si può procedere all’individuazione

della funzione di ripartizione della )(~ xFX , nell’ipotesi che il numero sinistri e il costo

del singolo sinistro siano stocasticamente indipendenti e che le iZ~ siano i.i.d.:

58

{ } { } ( )xSpkkxXpxXxF kZ

kk

kkX

*~

00

~~~Pr~Pr)( ⋅==≤=≤= ∑∑

=

=

(2.1.8)

dove ( )xS k

Z*~ è la k-esima convoluzione della funzione di ripartizione del costo del

singolo sinistro Z~ , che a sua volta può essere ottenuta come:

( )

≥<

=0,10,00*

~xx

xSZ

e, nel caso di variabili aleatorie continue,

( ) ( ) ( )∫+∞

∞−

− −= ydSyxSxS Zk

Zk

Z ~)1(*

~*~ .

Nel caso di variabili discrete si avrà

( ) ( ) ( )∑=

− ⋅−=x

yZ

kZ

kZ ysyxSxS

0

~)1(*

~*~ . (2.1.9)

dove )(~ ysZ è la funzione di densità del costo del singolo sinistro. E’ importante distinguere tra tre casi: • se k

~~Poisson Pura allora X~ definisce un processo di Poisson composto;

• se k

~~Poisson mista allora X~ definisce un processo di Poisson composto misto;

• se k

~~Polya allora X~ definisce un processo di Polya composto.

La formula (2.1.8) è chiamata distribuzione composta, a cui corrisponde una

funzione di densità:

∑∞

=

=0

*~~ )()(

k

kXkX xspxf (2.1.10)

La corrispondente Funzione Generatrice delle Probabilità (di seguito FGP) è

data dalla seguente formula (si veda ad es. Klugman et al. [1998]):

59

( ) [ ] [ ] [ ])()( ~~~

~~

~ tPPtPEtEtP Zkk

ZX

X === (2.1.11) dato che le iZ~ sono i.i.d.

Esistono simili relazioni per le altre funzioni generatrici:

Funzione Caratteristica (FC) In base al teorema di Eulero )sin()cos( titeit += con i2 = -1 si ha

( ) [ ] ( )[ ]tPeEt ZkXit

X ~~~

~ φφ == (2.1.12) Panjer e Willmot [1992] utilizzano la Trasformata di Laplace, la cui esistenza è

sempre assicurata per variabili aleatorie non negative:

( ) [ ] ( )[ ]tLPeEtL ZkXt

X ~~~

~ == − (2.1.13) Funzione Generatrice dei momenti (FGM) ( ) ( )[ ]tMPtM ZkX ~~~ = (2.1.14) Infine i momenti di X~ possono essere ottenuti in termini dei momenti di k~ e Z~ :

[ ] [ ] [ ]ZEkEXE ~~~ ⋅= [ ] [ ] [ ] [ ] [ ]22 ~~~~~ ZEkVarZEkEXVar ⋅+⋅= (2.1.15) [ ]( )[ ] [ ] [ ] [ ] [ ] [ ]3~,3~,3

3 ~~~~3~~~ ZEZVarZEkVarkEXEXE kZ ⋅+⋅⋅⋅+⋅=− µµ

60

Nel caso della distribuzione di Poisson Composta Semplice i momenti della X~ sono

(si veda Bear et al. [1994]):

( )( )( ) 33

22

1

~

~

~

anXk

anX

anXE

⋅=

⋅=

⋅=

σ

( )23

2

3~

na

nax =γ

avendo indicato con aj il momento semplice di ordine j del costo del singolo sinistro,

mentre nel caso della distribuzione di Poisson Composta Misto i momenti della X~

sono dati dalle:

( )( )( ) 33

2~21

22

21

~

~

~

anXk

ananX

anXE

q

⋅=

⋅⋅+⋅=

⋅=

σσ

( )23

2~

21

22

3~~

31

32~2

23

~3

q

qqqx

anna

anmanna

σ

σγσγ

+

+⋅+=

In pochi casi è possibile ottenere risultati analitici che consentono di ridurre i

problemi computazionali relativi alla convoluzione (Klugman et al. [1998]). Ad

esempio nel caso in cui le jZ~ siano i.i.d. e di tipo esponenziale con media θ e

( ) ( ) 1~ 1 −⋅−= xtM Z θ , e k~ segue la distribuzione geometrica con parametro β

( ) ( )[ ] 1~ 11 −−−= ttPk β , allora la distribuzione della X~ è di tipo Compound Geometric-

Exponential (si veda Klugman et al.). In tal caso la funzione di ripartizione del danno

aggregato è data dalla

( ) .0,1

exp1

1)(~ ≥

+

−+

−= xxxFX βθββ

(2.1.16)

Un altro caso che semplifica i problemi computazionali connessi alla convoluzione,

sempre in relazione alla scelta della Z~ , è quello relativo alle distribuzioni “chiuse

sotto convoluzione” (closed under convolution): la condizione essenziale è che

61

aggiungendo “membri” i.i.d. di una famiglia si ottiene un altro membro di quella

famiglia.

Ad esempio la distribuzione Gamma soddisfa tale condizione e gode dell’ulteriore

proprietà che nel caso vengano aggiunti k membri di una famiglia si ottiene un

membro con tutti, ad eccezione di uno, i parametri modificati ed il rimanente

parametro moltiplicato per k.

Indicando con ( )azfZ ;~ la funzione di densità del costo del singolo sinistro, allora la

funzione di densità di kZZ ~...~1 ++ è data dalla ( )akzfZ ⋅;~ . In questo caso si ricava che

∑∑∞

=

=

⋅==1

~

1

*~~ );();()(

kZk

k

kZkX akzspazspxf , (2.1.17)

cioè si elimina la necessità di eseguire la convoluzione.

Per la maggior parte delle distribuzioni delle variabili aleatorie k~ e Z~ , i valori

della distribuzione composta possono essere ottenuti solo numericamente (si veda

Klugman et al [1998]).

2.2 La Teoria dei Valori Estremi e la logica POT

La Teoria dei Valori Estremi (di seguito EVT) é una delle possibili tecniche di

modellizzazione della coda della distribuzione della v.a. Z~ e quindi utile nello studio

del comportamento della variabile X~ .

Il numero di contributi scientifici, basati su questa teoria, in ambito finanziario,

ingegneristico, climatologico, idrologico sta crescendo esponenzialmente e le più

recenti applicazioni stanno volgendo verso l’analisi delle dipendenze e la

modellizzazione delle variabili multivariate (Embrechts et al. [2005]). Nell’ambito

62

assicurativo è sicuramente importante menzionare, tra i numerosi autori, Embrechts

P. et al. [1997], McNeil [1997] and Berlaint J. [2001].

In queste pagine viene richiamata brevemente la parte teorica utile alle

applicazioni realizzate nel lavoro di Cerchiara e Esposito [2004] e successivamente in

questa tesi.

Dato un insieme di dati del costo del singolo sinistro nZZZ ,..., 21 , assunti per

ipotesi independenti e i.i.d., con

{ }zZPF iZi≤= (2.2.1)

si pone l’attenzione sulla distribuzione del massimo ),....,(max 1 nn ZZM = .

In particolare viene analizzata la distribuzione limite allo scopo di studiare il

comportamento dei sinistri estremi.

In base al Teorema di Fisher–Tippet le sequenze di numeri reali 0>nc e Rdn ∈

sono tali che

( ) HdMc dnnn →−−1 se ∞→n

per una distribuzione non degenere H.

Qualsiasi distribuzione dei valori estremi può essere ricondotta alla famiglia delle

funzioni di distribuzione della seguente forma:

{ }[ ]{ }

=−−≠+−

=−

,0expexp,0)1(exp)(

/1

ξξξ ξ

ξ sezsezzH (2.2.2)

con z tale che 1+ξ z >0.

Questa generalizzazione é nota come Generalised Extreme Value (GEV) distribution.

E’ caratterizzata dal parametro ξ , detto “tail index”, che fornisce indicazione della

63

pesantezza della coda. Più è grande il tail index, maggiore è il peso della coda della

distribuzione. Inoltre la (2.2.2) raggruppa 3 distribuzioni dei valori estremi che

differiscono tra loro in base al valore assunto da ξ . In particolare:

1. Distribuzione di Frèchet se ξ > 0

2. Distribuzione di Weibull se ξ < 0

3. Distribuzione di Gumbel se ξ = 0.

In queste pagine viene richiamata la logica Peaks Over Threshold (POT), uno

dei possibili approcci per stimare la funzione di ripartizione dei valori oltre una certa

soglia.

Definita una soglia u, gli eventi estremi vengono definiti come “Peaks (Excesses)

Over Threshold”. Si è interessati a determinare la distribuzione limite (per la soglia u

che tende all’infinito) di tali eccessi.

In particolare è possibile definire la excess distribution function

( ) ( )( ) 0,

1

~)~|~()( ≥

−−+

=>≤−= yuF

uFuZFuZyuZPyFu (2.2.3)

64

dove u é una data soglia, mentre )~|~()( uZuZEue >−= é nota come mean excess

function della variabile aleatoria Z~ , che rappresenta il valore atteso delle eccedenze

oltre la soglia u.

Il teorema Pickands-Balkema-de Haan dimostra che la distribuzione degli eccessi

tende alla Distribuzione Generalizzata di Pareto (GPD):

( )

=−−

≠+−=≈>≤−=

0 se )/exp(1

0 se )/1(1)~|~()(

1

,

ξβ

ξβξξ

βξ

z

zzGuZzuZPzFu (2.2.4)

Il parametro ξ é già stato descritto in precedenza, mentre β é il parametro di scala.

Alcuni risultati notevoli (Embrechts et al. [1997]) della EVT consentono di

individuare le stime per il Quantile px̂ al livello di confidenza p (e quindi per la coda

destra 1-F(x)):

( )

−+=

11ˆˆ

ˆξ̂

ξβ p

Nnux

up (2.2.5)

dove

n = num. osservaz. totali

Nu = num. osservaz. in eccesso della soglia u.

L’applicazione di tale metodo necessita di un’attenta analisi dal punto di vista

grafico della distribuzione che si sta analizzando, che va condotta sulla base di diversi

passi che si ritiene, ai fini di una migliore comprensione della metodologia, di

riportare sulla base di un esempio relativo a dati reali.

L’obiettivo è quindi capire se è possibile utilizzare la GPD e cercare di determinare la

soglia sulla base dell’EVT (logica POT), in riferimento al Database aggiornato

(rispetto alla versione presentata in Embrechts et al. [1997]) dei dati Incendio Danesi

relativo ai periodi 1980-2002, che riporta gli importi rivalutati in base all’indice del

65

costo della vita (CPI) danese al 31.12.20023. Le analisi sono state condotte

utilizzando congiuntamente i software R e Matlab. Di seguito si riporta una breve

descrizione dei dati (1980-2002):

Numero di sinistri 6.870 Media 4.572.984 Somma 31.416.397.376

Minimo 206.837 Standard Deviation 10.539.402 25% Quantile 1.787.635

Massimo 412.032.891 Coefficiente di Variazione 2,30 50% Quantile 2.439.245

Range di variazione 411.826.054 Skewness 17,64 75% Quantile 3.974.104

Tabella 2.2.1. Alcuni dati di sintesi dati incendio danesi (1980-2002) – valori in DK

Si noti l’elevata asimmetria, pari a 17,64 e l’elevato range di variazione.

Successivamente si riportano i grafici su scala logaritmica separando i dati relativi a

1980-1990, 1991-2002 e 1980-2002 (in milioni DK), dato che la prima parte del

Database è stato oggetto di studio di numerosi lavori (Embrechts et al. [1997],

McNeil [1997], Corradin [2002]) e si cercherà di capire se l’intero set di informazioni

può essere modellizzato con l’EVT:

Istogramma dei Data Danesi - 1980-1990

dati in milioni su scala logaritmica

Freq

uenz

e

1 2 3 4 5 6

010

2030

Istogramma dei Data Danesi - 1991-2002

dati in milioni su scala logaritmica

Freq

uenz

e

-1 0 1 2 3 4 5

010

2030

4050

60

Istogramma dei Data Danesi - 1980-2002

dati in milioni su scala logaritmica

Freq

uenz

e

0 2 4

020

4060

8010

0

Figura 2.2.1. Grafici su scala logaritmica dati relativi ai periodi 1980-1990, 1991-2002 e 1980-2002 (dati in milioni DK)

3 Tali informazioni sono state messe gentilmente a disposizione da Mette Rytgaard.

66

Da queste prime analisi emerge come la distribuzione sia caratterizzata da una

coda pesante.

Un altro importante strumento grafico é rappresentato dall’Exponential QQ Plot,

dove vengono comparati i quantici empirici con quelli della distribuzione

esponenziale (sull’asse delle ordinate). Se i punti giacciono approssimativamente su

una linea retta é possible osservare che i dati provengono da una distribuzione

esponenziale, ma se il grafico mostra un andamento concavo è possibile asserire che i

valori empirici sono contraddistinti da una coda più pesante di quella esponenziale.

Nei seguenti 3 grafici viene evidenziata quest’ultima caratteristica:

Figura 2.2.2. Exponential QQ Plot dei dati relativi ai periodi 1980-1990, 1991-2002 e 1980-2002 Un ulteriore strumento di analisi é il c.d. Sample Mean Excess Plot: rappresenta

l’andamento della funzione mean excess empirica al crescere della soglia. Un trend

crescente conferma il comportamento di tipo heavy-tailed. Inoltre qualora tale

funzione sia caratterizzata da un gradiente positivo a fronte di una determinata soglia,

si può concludere che la coda abbia un comportamento simile a quella della

distribuzione di Pareto (si veda Embrechts et al. [1997]). Qualora si verifichi un trend

decrescente si può ipotizzare invece che la distribuzione é thin-tailed.

In tutti i tre set di dati emergono le caratteristiche di una distribuzione a coda

pesante. Inoltre il Database può essere analizzato nel suo complesso con l’EVT,

senza quindi condurre analisi separate.

67

Figura 2.2.3. Empirical Mean Excess Function dei dati relativi ai periodi 1980-1990, 1991-2002 e 1980-2002 (dati in milioni DK)

Si può notare che il trend lineare e variazioni di pendenza si verificano in particolare

in due punti (si vedano le parti cerchiate). In tal caso si ha una prima indicazione ai

fini della scelta della soglia in relazione ai valori 10 e tra 20 e 30.

La scelta della soglia è tipicamente un compromesso fra (si veda McNeil [1997]):

o selezionarne una sufficientemente alta da poter considerare verificate in modo

essenzialmente esatto le tesi del teorema asintotico;

o individuarne una sufficientemente bassa da poter disporre di un sufficiente

numero di valori estremi tale da ottenere stime significative dei parametri.

Si tratta dunque di un trade-off fra varianza e distorsione della stima. Incrementando

il numero di osservazioni per la serie di valori estremi (cioè con una soglia più bassa),

alcune osservazioni dal centro della distribuzione empirica vengono introdotte nella

serie dei valori estremi, e la stima ottenuta per il tail index sarà più precisa (a varianza

più bassa), ma distorta. D’altra parte scegliendo una soglia più elevata la stima

risulterà meno distorta ma al tempo stesso più volatile, a causa delle minori

osservazioni a disposizione.

Nella figura seguente dove viene riportato l’andamento dello shape parameter al

variare della soglia. Nelle zone dove la spezzata è approssimativamente parallela

68

all’asse delle ascisse consente di individuare una soglia accettabile (non varia di

molto quindi lo shape parameter).

Figura 2.2.4. Shape parameter al variare della soglia

E’ importante ricordare che esistono anche strumenti più sofisticati per

l’individuazione della corretta soglia (si veda Cebrian et al. [2003]).

Si ritiene comunque di utilizzare la soglia pari a 10 milioni di DK (confermando

quanto visto in McNeil [1997]), che consente di avere a disposizione un maggiore

numero di eccedenze. Si ottengono i seguenti parametri, stimabili ad esempio in R

con il metodo della massima verosimiglianza:

523,0=ξ ; 78,8=β .

Il test sul fitting della coda è stato condotto in MATLAB. I grafici seguenti

confermano il corretto fitting della coda utilizzando la GPD con i parametri su

indicati, anche attraverso la comparazione con le distribuzioni Lognormale e

Gaussiana Inversa.

69

2 4 6 8 10 12 14 16

x 104

0.75

0.8

0.85

0.9

0.95

1

1.05

1.1

Data

Cum

ulat

ive

prob

abili

ty

Dati EmpiriciLognormalGPD_Soglia_10mlnInverse Gaussian

1.6 1.8 2 2.2 2.4 2.6 2.8 3

x 105

0.75

0.8

0.85

0.9

0.95

1

1.05

1.1

Data

Cum

ulat

ive

prob

abili

ty

Dati EmpiriciLognormalGPD_Soglia_10mlnInverse Gaussian

2 4 6 8 10 12 14 16

x 104

0.4

0.45

0.5

0.55

0.6

0.65

0.7

0.75

Data

Cum

ulat

ive

prob

abili

ty

Dati EmpiriciLognormalGPD_Soglia_10mlnInverse Gaussian

2 4 6 8 10 12 14 16

x 104

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

Data

Cum

ulat

ive

prob

abili

ty

Dati EmpiriciLognormalGPD_Soglia_10mlnInverse Gaussian

Figura 2.2.5. Comparazione sul fitting della coda tra GPD, Lognormale, Gaussiana Inversa

Si nota anche dalla tabella seguente come le altre distribuzioni forniscano dei valori

delle probabilità cumulate tendenti velocemente ad 1 e quindi non approssimano

efficacemente la distribuzione di probabilità empirica, come invece riesce a fare la

GPD in particolare per percentili molto elevati.

X GPD LOGNORMAL INVERSE GAUSSIAN

10000 0.0000 0.1284 0.1224

50000 0.9028 0.9176 0.8902

90000 0.9650 0.9896 0.9840

130000 0.9819 0.9981 0.9973

170000 0.9889 0.9995 0.9995

210000 0.9925 0.9999 0.9999

250000 0.9946 1.0000 1.0000

290000 0.9959 1.0000 1.0000

330000 0.9968 1.0000 1.0000

370000 0.9974 1.0000 1.0000

410000 0.9979 1.0000 1.0000

Tabella 2.2.2 Confronto tra le Funzioni di Ripartizione della GPD, Lognormale e Gaussiana Inversa

70

Si rimanda a Rytgaard [2005] per un’interessante analisi di tale database dove

la coda é modellizzata con una distribuzione di Pareto considerando il parametro ξ

come v.a..

L’EVT è stato oggetto di numerosi studi in campo non solo assicurativo, ma

finanziario, geologico, ecc. Meritevole di menzione è il contributo della Banca di

Italia in ambito bancario, con particolare riferimento a Moscadelli [2004]. In tale

lavoro emerge un’attenta analisi di comparazione tra i tradizionali modelli attuariali

di analisi del costo sinistri e l’EVT secondo la logica POT, dove emerge una

significativa efficacia di quest’ultima metodologia “non tradizionale”.

Si sottolinea che, come emergerà nelle pagine successive, la preferibilità di un

metodo è fortemente condizionato dai dati e dal fenomeno che si stanno analizzando

e modellizzando, e difficilmente un metodo è più efficace di un altro in qualsiasi

situazione. A tale riguardo sono meritevoli di menzione, ad esempio i contributi di

Clemente e Parrini [2005] e Cooray K. e Ananda M. [2005]. In particolare in

quest’ultimo contributo viene dimostrato come i dati del Danish Fire Database

(periodo 1980-1990) presi a riferimento da diversi autori, tra cui ad esempio

Embrechts et al. [1997], McNeil [1997], possano essere modellizzati con un buon

livello di fitting attraverso una distribuzione composta Lognormale a due parametri

per i sinistri al di sotto di una certa soglia (sinistri ordinari) e Pareto a due parametri

per i large claims.

Di seguito si riporta un esempio di tale distribuzione composta (θ>0 e α>0).

(2.2.5)

71

Figura 2.2.6 – Distribuzione Lognormale-Pareto con parametri θ =50 e α=0.5

Per un maggiore dettaglio sulle diverse tipologie di distribuzione per la severity

si rimanda a Hogg e Klugman [1984] e a Klugman et al. [1998].

2.3 Il calcolo numerico della distribuzione del costo sinistri aggregato

In letteratura esistono diversi approcci ai fini della valutazione numerica della

distribuzione del costo sinistri aggregato.

L’utilizzo di distribuzioni approssimate (si veda Beard et al [1984]) consente di

evitare il calcolo diretto della (2.1.8). Ad esempio si supponga che i dati empirici

relativi ad un portafoglio assicurativo forniscano i seguenti valori:

[ ][ ] 141.52;247.179~

3,2;7,6~

~

~

==

==

Z

k

ZE

kE

σ

σ

In base alle (2.1.15) si ottiene [ ] 955.200.1~ =XE e [ ] 1110*88180,1~ =XVar .

Ipotizzando che la X~ si distribuisce secondo la Lognormale, i parametri possono

essere stimati attraverso il metodo dei momenti ed in base ai dati empirici:

[ ] ( )[ ] ( )22

2

22exp~2/exp~

σµ

σµ

+=

+=

XE

XE (2.3.1)

Con semplici passaggi quindi si ricava 93731.13=µ e 122636.2 =σ . In tal modo è

possibile conoscere, ad esempio la

…. = Lognormale ___ = Pareto ---- = Distribuzione Composta

72

{ } 128.0123626.0

93731.13337.681.1log1337.681.1~Pr 5.0 =

Φ−=>Xob

ricorrendo quindi alle tavole della distribuzione Normale Standardizzata. Ovviamente

i metodi approssimati sono molto semplici da applicare, ma parimenti presenta alcuni

svantaggi molto significativi con particolare riferimento alla modellizzazione di

distribuzione con coda destra molto pesante. A titolo di esempio si riportano

graficamente i risultati di confronto tra differenti metodi di approssimazione (si veda

Daykin et al. [1994]).

Nei Grafici seguenti è possibile vedere l’indebolirsi dell’accuratezza dei metodi

d’approssimazione Normal, Normal Power, Wilson Hilferty e Haldane all’aumentare

dell’indice di asimmetria. Distribuzione x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0F o 1-F 0,0205 0,0646 0,1586 0,1586 0,0249 0,0019 0,0001Normale 0,02275 0,066807 0,158655 0,158655 0,02275 0,00135 0NP 0,1587 0,0249 0,0019 0,0001WH 0,0205 0,0645 0,1586 0,1586 0,0249 0,0019 0,0001HA 0,0205 0,0646 0,1587 0,1587 0,0249 0,0019 0,0001

Grafico aIndice di asimmetria = 0,08

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0

x

F o 1-FNormaleNPWHHA

Distribuzione x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0F o 1-F 0,0162 0,0595 0,1578 0,1579 0,0288 0,0031 0,0002Normale 0,0228 0,0668 0,1587 0,1587 0,0228 0,0013 0NP 0,1587 0,0289 0,0031 0,0002WH 0,016 0,0594 0,158 0,1581 0,0288 0,0031 0,0002HA 0,016 0,0594 0,1581 0,1582 0,0288 0,003 0,0002

Grafico bIndice di asimmetria = 0,24

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0

x

F o 1-FNormaleNPWHHA

Distribuzione x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0F o 1-F 0,0078 0,0456 0,1506 0,1529 0,0362 0,0068 0,0011Normale 0,0228 0,0668 0,1587 0,1587 0,0228 0,0013 0NP 0,1587 0,0372 0,0064 0,0009WH 0,0059 0,0443 0,1538 0,1554 0,0361 0,0064 0,0009HA 0,0067 0,0447 0,1522 0,1541 0,0359 0,0066 0,001

Grafico cIndice di asimmetria = 0,59

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0

x

F o 1-FNormaleNPWHHA

Distribuzione x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0F o 1-F 0,0033 0,0322 0,1357 0,1376 0,0376 0,0125 0,0042Normale 0,0228 0,0668 0,1587 0,1587 0,0228 0,0013 0NP 0,1587 0,047 0,0119 0,0027WH 0 0,0145 0,1384 0,1491 0,0431 0,0112 0,0028HA 0,0006 0,0209 0,1307 0,1419 0,0407 0,0116 0,0035

Grafico dIndice di asimmetria = 1,08

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

x=-2,0 x=-1,5 x=-1,0 x=1,0 x=2,0 x=3,0 x=4,0

x

F o 1-FNormaleNPWHHA

Figura 2.3.1: Influenza dell’indice di asimmetria sulle formule di approssimazione

73

In linea generale non vi sono grandi differenze di accuratezza tra gli approcci

NP, WH e di Haldane. Grande rilevanza ai fini di una scelta è la convenienza pratica,

che in tale ottica fa propendere per la formula di WH. Per quanto riguarda la

Normale, essa fornisce un’approssimazione alquanto deficitaria, eccetto il caso in cui

l’asimmetria è molto limitata.

E’ possibile trovare una notevole raccolta di confronto tra metodi esatti,

approssimati in Pentikainen [1987], dove sono considerate 54 distribuzioni di tipo

diverso. Dai test applicati è emerso che l’accuratezza dei metodi approssimativi è di

regola buona, o quantomeno soddisfacente, nel caso di scarsa asimmetria, quando il

numero di sinistri non è troppo piccolo e se la distribuzione dell’importo del singolo

sinistro non è molto eterogenea, cioè non ha una lunga coda (in genere quest’ultima

condizione è soddisfatta quando i rischi di punta vengono riassicurati).

Meritevole di menzione è anche l’utilizzo dell’approssimazione in base alla

distribuzione Beta per il claim ratio seguito da Campagne negli studi preparatori del

margine di solvibilità danni CEE (si veda De Wit e Kastelijn [1980]).

Una seconda alternativa è rappresentata dal c.d. calcolo diretto, cioè dalla

valutazione numerica degli integrali

∫−

− −=x

kk ydSyxSxSZZZ

0

)1(* )()()( ~~~ (2.3.2)

Tali integrali sono in forma Lebesgue-Stieltjes, valutabili attraverso metodi di

integrazione numerica che conducono ad una elevata, a volte eccessiva, complessità

computazionale (si veda Loss Models [1998] in merito ai metodi pratici per ovviare a

tali problemi tecnici), in genere di ordine n3, per ottenere distribuzioni per valori di x

da 0 a n.

74

Esistono metodi che consentono di calcolare più rapidamente la distribuzione

del danno aggregato riconducibili a tre grandi categorie:

o Metodi Ricorsivi: riducono il numero di computazioni ad un ordine di n2, ma si

possono applicare solo in presenza di alcune distribuzioni della k~ (si veda in

particolare Panjer [1981])

o Metodi di Inversione

o Simulazione.

2.3.1 Cenni ai metodi Ricorsivi

Tale approccio sarà trattato brevemente, non essendo oggetto della presente

tesi (si noti che tale metodo viene utilizzato anche dal FOPI nello SST).

Il problema è stato studiato da vari autori, tra cui ricordiamo Panjer [1981] che

ha proposto una formula ricorrente che permette di calcolare la funzione di

ripartizione in questione, nell’ipotesi che le variabili aleatorie, rappresentanti il danno

di ciascun sinistro, siano mutuamente indipendenti ed identicamente distribuite. Dal

1981 ad oggi sono stati scritti numerosi articoli per generalizzare la formula di

Panjer, ma occorre sottolineare che l’estensione della formula iniziale comporta

condizioni via via meno comode per le applicazioni.

E’ possibile valutare tale funzione attraverso la formula ricorrente di Panjer, che nel

caso di distribuzione discreta del costo di ogni singolo sinistro, definita per valori

positivi, allora si risolve in una semplice relazione di ricorrenza, mentre se il costo

del singolo sinistro é una variabile aleatoria continua, essa si trasforma in una

relazione di ricorrenza nella forma di equazione integrale di Volterra. Nel caso di una

75

distribuzione mista si ricorre a procedure di discretizzazione4 al fine di ottenere limiti

superiori ed inferiori ed approssimazioni per la distribuzione del danno cumulato.

Indicando con:

∑∞

=

∗⋅=0

)( )()(n

nn ifpig (2.3.1.1)

la probabilità che la determinazione del danno aggregato é pari ad i, allora la formula

di Panjer é la seguente:

( ) ( ) ( )∑=

+=

i

jjigjf

ijbaig

1 (2.3.1.2)

Un’ulteriore ipotesi emersa nei primi lavori per l’applicabilità é che la probabilità pn

sia rappresentata dalla distribuzione di Poisson, o dalla distribuzione binomiale o

dalla binomiale negativa, od anche dalla distribuzione geometrica. Successivamente è

stata estesa a numerose altre distribuzioni (distribuzione di Waring, Ipergeometrica,

Negativa Ipergeometrica, Waring generalizzata, ecc.).

Infatti per le distribuzioni su elencate vale la seguente relazione ricorrente:

+= − n

bapp kk 1 k= 1,2,3,... (2.3.1.3)

dove a e b sono dei numeri reali da determinare e dipendenti dalle distribuzioni scelte

per rappresentare il numero di sinistri, come è possibile vedere nella Tabella 2.3.1.1

(si veda Panjer H. e Willmot G. [1992]).

Distribuzione

numero sinistri

Valore di

a

Valore di

b

Poisson (λ) 0 λ

Binomiale(q,m) -q/(1+q) (m+1)[q/(1-q)]

Geometrica(β) β/(1+β) 0

Binomiale Neg.(β,r) β/(1+β) (r-1)[β/(1+β)]

Tabella 2.3.1.1: Parametri per differenti distribuzioni del numero sinistri, soddisfacenti la (2.3.1.3) 4 Sussistono essenzialmente due metodi per rendere discreta la distribuzione del costo globale sinistri: il metodo del punto medio ed il metodo del valore atteso non distorto. Per chi fosse interessato all’argomento si veda Daykin et al.[1994].

a

Bino. Neg. r >1

0<r<1

Geom. r=1

Poisson Binomiale m=1 2 3 ecc.

b

rette b=-(m+1)a

76

2.3.2 I Metodi di Inversione

I metodi di inversione sono utilizzati ai fini della valutazione numerica della

distribuzione di probabilità (tra i primi Bohman [1964] e Seal [1971]) o di alcune

funzioni ad essa correlate, come ad esempio l’aggregate excess of loss premium (si

veda Heckman e Meyers [1983]), ricorrendo ad una trasformata di una tra la FGP,

FGM o FC della variabile aleatoria considerata.

Le distribuzioni composte sono facilmente trattabili con tale approccio, dato

che le loro trasformate sono ancora funzioni composte e immediatamente valutabili

una volta note le distribuzioni delle variabili aleatorie k~ e Z~ . Richiamando le

espressioni della FC si ha:

( ) [ ] ( )[ ]tPeEt ZkXit

X ~~~

~ φφ == (2.3.2.1)

La FC esiste sempre ed è unica ed a fronte di una data FC, esiste sempre un’unica

distribuzione.

L’obiettivo dei metodi di inversione è ottenere numericamente la distribuzione dalla

FC. Inoltre possono essere ricondotti a tre grandi categorie:

• Fast Fourier Transform (Brigham [1974], Bertram [1981], Robertson [1983],

Wang [1998]), su cui saranno basate parte delle applicazioni di questa tesi di

dottorato.

• Inversione numerica diretta (Heckman e Meyers [1983]), che verrà esposta

brevemente nell’Appendice A.

77

• Il procedimento di inversione della Trasformata di Fourier nel caso dei singoli

costi sinistri considerati come v. a. indipendenti, ma non necessariamente con

la stessa distribuzione proposto da Ferrara et al. [1996] (Appendice B).

2.3.2.1 Il metodo della Fast Fourier Transform

I metodi che sfruttano la trasformata di Fourier (Fast Fourier Transformation),

a cui sono ricorsi, tra i primi, Bohman e Esscher [1964], Bertram [1981], Heckman e

Meyers [1983] e Robertson [1983], sono procedimenti che consentono di ottenere la

funzione di ripartizione del danno globale, ma possono essere sfruttati anche come

controllo esterno del calcolo diretto adottato6.

La Fast Fourier Transform (FFT) è un algoritmo che può essere usato per

invertire la Funzione Caratteristica al fine di ottenere la distribuzione di probabilità di

variabili aleatorie discrete. La prima applicazione al costo sinistri aggregato è dovuta

a Robertson [1983], il quale nel suo lavoro fornisce una dettagliata descrizione sia a

livello teorico che implementativo che risulta molto utile in particolare per chi

affronta per la prima volta tale argomento.

Ai fini della esposizione di tale approccio si prenderà come riferimento Robertson

[1983], Klugman et al. [1998] e Wang [1998].

Per una funzione continua f(x), la Trasformata di Fourier è la mappa (o

applicazione dallo spazio dei numeri complessi Cn allo spazio Cn):

( ) ∫+∞

∞−

⋅= dxexfzf izx)(&& (2.3.2.1)

6 Si veda C. Ferrara et al. [1996].

78

La funzione di partenza può essere riottenuta dalla sua Trasformata di Fourier:

( ) ∫+∞

∞−

−⋅= dzezfxf izx)(21 &&π

(2.3.2.2)

Si noti che se f(x) è una funzione di densità, allora )(zf&& è la sua FC (come visto in

precedenza).

Nel caso di variabili aleatorie discrete (o di tipo misto) la definizione può essere

generalizzata.

Sia fx una funzione definita per tutti i valori interi di x, periodica con periodo di

lunghezza n (in modo che fx+n = fx per ogni x). Allora a fronte del generico vettore

(f0,f1, …, fn-1), la Trasformata discreta di Fourier è la c.d. one-to-one mapping xf&& di n

punti in n punti (dove x = …., -1,0,1,….), definita dalla

∑−

=

−=

=

1

0,...1,0,1.....,,2exp

n

jjk kjk

niff π&& (2.3.2.3)

Tale mappa è biettiva ed inoltre kf&& è periodica con lunghezza n.

L’inversa di questa applicazione rappresenta la funzione di partenza:

∑−

=

−=

−=

1

0

,...1,0,1....,,2exp1 n

kkj jkj

nif

nf π&& (2.3.2.4)

E’ ovvio che, in base alla trasformata discreta di Fourier, per ottenere n valori di kf&& , è

necessario valutare un numero di termini di ordine n2.

79

E’ possibile ricorrere, quindi, alla c.d. Fast Fourier Transform (di seguito FFT),

cioè ad un algoritmo che consente di calcolare la trasformata discreta di Fourier, ma

che riduce il numero di iterazioni ad un ordine di n log2 n (si veda Robertson per una

esauriente spiegazione tecnica). Tale effetto è sicuramente significativo, in particolar

modo quando il numero di punti è molto elevato (si noti quanto indicato nella tabella

successiva):

Caso I Caso II Caso III n (punti) 100 1.000 10.000 Trasformata Discreta di Fourier (n2) 10.000 1.000.000 100.000.000 FFT (n log2 n) 664 9.966 132.877 Riduzione - 9.336 - 990.034 - 99.867.123 Riduzione % -93,36% -99,00% -99,87%

Tabella (2.3.2.1)

Il concetto su cui si basa la FFT è che la trasformata discreta di Fourier di lunghezza

n = 2r può essere riscritta come la somma di due trasformate discrete, ciascuna di

lunghezza n / 2 = 2r-1, riferite rispettivamente alla prima metà e alla seconda metà dei

punti:

∑∑

∑∑

=+

=

=+

=

=

+

=

=

++

=

=

=

1

012

1

02

12/

012

12/

02

1

0

2exp2exp22exp

)12(2exp22exp

2exp

m

jj

m

jj

n

jj

n

jj

n

jjk

jkm

ifkn

ijkn

if

kjn

ifjkn

if

jkn

iff

πππ

ππ

π&&

dove m = n/2. Quindi

bk

akk fk

niff &&&&&&

+=π2exp (2.3.2.5)

80

A loro volta akf&& e b

kf&& possono essere scritte come la somma di due trasformate di

lunghezza m / 2 = 2r-1. Tale procedimento può essere continuato successivamente fino

ad arrivare ad un numero r di volte dove le trasformate hanno lunghezza 1.

Una volta note le trasformate di lunghezza 1, è possibile ricomporre le trasformate di

lunghezza 2, 22, 23, …, 2r attraverso la (2.3.2.5).

E’ importante notare che:

o La FC mappa una funzione di densità continua in una funzione continua a

valori complessi.

o La FFT invece mappa un vettore di n valori in un vettore di n valori complessi.

Tale analogia con la FC è fondamentale ai fini della comprensione delle

applicazioni della FFT (si veda Wang [1998]).

o La FFT della somma di due v.a. stocasticamente indipendenti è pari al prodotto

delle FFT delle due v.a.

o Esistono diversi software che prevedono una routine di calcolo in base alla FFT

e non impongono quindi la necessità di scrivere un apposito programma: R,

Matlab, Excel con differenti capacità in termini di numero massimo di punti

elaborabili (di seguito sarà utilizzato Matlab).

o Per utilizzare in modo ottimale la FFT è necessario che il vettore iniziale sia di

lunghezza 2r. In caso negativo è sufficiente aggiungere in coda (a destra) un

numero di zeri tali da raggiungere la dimensione ottimale.

Ai fini delle applicazioni in campo attuariale e probabilistico, le fj possono

rappresentare delle probabilità, ad esempio ponendo ( ) { }jkobfjf jk ===~Pr~ . Se una

v.a. k~ ha le seguenti probabilità:

p0 = 0.5 p2 = 0.4 p5 = 0.1

81

è possibile rappresentarle con il vettore

kf ~ = [0.5,0,0.4,0,0,0.1].

Applicando la FFT a tale vettore si ottiene il seguente vettore f&& :

[1.0; 0.35-0.2598i; 0.25+0.433i; 0.8; 0.25-0.433i; 0.35+0.2598i]. Si noti che se si aggiunge uno zero in coda al vettore delle probabilità il risultato

cambia nettamente. Infatti applicando la FFT a

kf ~ =[0.5;0;0.4;0;0;0.1;0]

si ottiene

[1.0; 0.389-0.293i; 0.0495+0.130i; 0.812+0.235i; 0.812-0.2345i; 0.0495-0.1302i;

0.3887+0.2925i].

Tale elemento è essenziale nella corretta applicazione della FFT (come si vedrà di

seguito).

Nell’ambito dell’approccio collettivo della Teoria del Rischio la FFT riveste un

ruolo fondamentale nella determinazione della distribuzione del danno aggregato.

Prima di descrivere l’applicazione della FFT è importante premettere che la FC può

essere riscritta nel modo seguente (si veda Wang [1998]):

[ ] ( )[ ][ ] [ ] ( ))()(~)( ~~~

~~~...~~

~~

~ 21 tPtEkkeEEeEt Zkk

ZkZZZti

kXti

Xk φφφ ===== +++⋅⋅ (2.3.2.6)

Quindi la FC del danno aggregato è pari alla FGP della variabile aleatoria numero

sinistri calcolata nella variabile )(~ tZφ (FC della v.a. costo del singolo sinistro). Tale

relazione consente di comprendere meglio i passi necessari ai fini dell’applicazione

della FFT:

82

1. Scegliere il valore n = 2r del numero di punti desiderati per la distribuzione

del costo sinistri aggregato (che indicherà quindi la dimensione del vettore

delle probabilità da ricercare) a fronte di un determinato valore intero r. Si noti

che la conoscenza a priori del valore medio e della standard deviation della v.a.

X~ facilita l’individuazione del corretto valore di n.

2. Discretizzare5 la distribuzione di probabilità della Z~ (qualora sia continua).

Esistono diverse metodologie che consentono la discretizzazione (si veda

Klugman et al . [1998], Wang [1998]), tutte comunque basate sul c.d. span h

(passo o fattore di scala), la cui scelta è funzione della precisione desiderata e

della pesantezza della coda della distribuzione della Z~ (che sarà quindi uguale

a 0*h, 1*h, 2*h, …, (m-1)*h). In tal modo si ottiene il vettore

[ ])1(),....,1(),0( ~~~~ −= mffff ZZZZ.

Come detto in precedenza è necessario aggiungere al vettore di probabilità così

ottenuto, un numero di zeri tale che il numero di elementi sia pari a n (c.d.

padding zeros). In tal modo si otterrà il seguente vettore discreto:

[ ])1(),....,1(),0( ~~~~ −= nffff ZZZZ

3. Applicare la FFT al Z

f ~ : )( ~~ ZZfFFTf =&& ottenendo la FC della distribuzione

discretizzata della v.a. Z~ , cioè la )(~ tZφ . Il risultato è ancora un vettore di n = 2r

elementi.

4. Applicare la FGP della v.a. k~ , elemento per elemento, alla FFT del vettore

delle probabilità della v.a. Z~ :

( )ZkX

fPf ~~~&&&& = .

5 Si noti che Robertson [1983] utilizza distribuzioni piecewise di tipo uniforme per la v.a. Z~ .

83

Si ottiene quindi la FC della v.a. danno aggregato: ( ))()( ~~~ tPt ZkX φφ = ,

rappresentato da un vettore di n = 2r elementi.

5. Applicare la Inverse FFT (IFFT), anch’essa disponibile nei software

menzionati in precedenza, che, in base alla (2.3.2.4), risulta essere differente

dalla FFT solamente per una variazione di segno e una divisione per n. In tal

modo si ottiene la distribuzione esatta del danno aggregato:

( )XX

fIFFTf ~~&&=

Si noti che la scelta del numero di punti n è cruciale ai fini dell’accuratezza

della valutazione della distribuzione della X~ . In particolare nel caso di distribuzioni

della Z~ in cui si hanno probabilità non nulle oltre il valore n, può verificarsi un errore

nella stima nella coda destra della distribuzione della X~ , dato che viene violata

l’ipotesi iniziale che la funzione e la sua trasformata siano entrambe periodiche con

periodo n. In questo caso Klugman et al. [1998] suggeriscono di inserire tutte le

rimanenti probabilità nel punto n, in modo che la somma di tutte le probabilità sia

pari a 1 e quindi sia garantita la periodicità e che anche la somma delle probabilità

Xp ~ stimate sia 1.

Comunque è importante che n sia abbastanza grande. La scelta è dettata ovviamente

sia dal tipo di software che si utilizza (in Excel il numero massimo di punti è 4.096 =

2r, con r = 12, mentre in Matlab si riesce anche ad utilizzare r = 20 e quindi

1.048.576 punti), ma anche la conoscenza della distribuzione, o comunque i relativi

momenti, della v.a. oggetto di studio. Tale elemento, a parere di scrive, può, a volte,

creare una sorta di loop tra metodo di stima e obiettivo della stima stessa.

Un altro elemento, come si vedrà nelle applicazioni del capitolo 3, è la scelta

dello span. Infatti un valore troppo elevato può influenzare l’accuratezza della

distribuzione discretizzata. Un valore troppo piccolo però può produrre il c.d.

wrapping nella distribuzione del danno aggregato, cioè la presenza di probabilità

diverse da zero in prossimità del numero massimo di punti n.

84

2.3.3 L’approccio simulativo

I precedenti metodi numerici conducono alla determinazione di una

distribuzione da ritenersi “esatta”, a meno di un livello di errore che comunque può

essere ridotto in modo significativo all’aumentare dei punti considerati.

Il secondo elemento da sottolineare è che la reale distribuzione del costo del

singolo sinistro viene sostituita da una distribuzione alternativa: “aritmetizzata” nel

caso della FFT e della formula ricorsiva, una piecewise linear function nel modello di

Heckman e Meyers [1983]. A volte tale elemento può comportare una distorsione

nell’accuratezza della stima.

Un approccio alternativo è rappresentato dall’approccio simulativo basato sul

Metodo di Monte Carlo, fondato sul seguente Lemma:

“A fronte di qualsiasi variabile aleatoria X~ e di una determinazione u di una

variabile aleatoria U~ distribuita uniformemente in (0,1), X~ e ( )uFX1~ − hanno la stessa

Funzione di Ripartizione”:

( ){ } { } )()(PrPr ~~1~ xFxFuxuF

XXX =≤=≤−

Quindi una simulazione con il metodo di Monte Carlo di una variabile X~ può essere

ottenuta attraverso la generazione di un numero pseudo casuale u secondo la

distribuzione uniforme U~ ∼ Uniforme(0,1) e successivamente invertendo )(1~

* uFx X−= .

Graficamente (si veda ad esempio Daykin et al. [1994]) la procedura è

rappresentabile nella figura seguente:

85

x

u

x*

1

F

Figura 2.3.3.1

Ad esempio la distribuzione di Pareto con parametri (α,β,D), la cui densità è

dove α > 0 e β > -D, può essere simulata generando prima il numero pseudo casuale

u e poi ricavando ( ) αβ /11 /)(1 uDuFz +=−= − .

In merito ai generatori di numeri pseudo casuali si rimanda ad es. a Klugman et al.

[1998]. Si tiene a precisare che una sequenza di numeri pseudo casuali per la v.a. X~

è tale che nessuno, che non conosce la loro origine, può distinguerli da un campione

casuale della v.a. X~ (cfr. Klugman et al. [1998]).

Gli attuali software (Matlab, R, etc.) dispongono di procedure di calcolo che

consentono di generare numeri pseudo casuali scrivendo direttamente un’istruzione.

Ad esempio in Matlab scrivendo gamrnd(4,3) si ottiene:

Figura 2.3.3.2: Esempio di simulazione della distribuzione Gamma

DzZDzS ≥

+

+−= ,~1)(

α

ββ

86

Ai fini della simulazione del processo composto della v.a. X~ è sufficiente

seguire i seguenti passi (si veda Daykin et al. [1994]):

1. Generare il numero di sinistri k in base ad una determinata distribuzione di

probabilità (poisson semplice, binomiale negativa, etc.).

2. Generare esattamente k numeri Z1, Z2, …, Zk secondo una determinata

distribuzione di probabilità (lognormale, pareto, etc.).

3. La somma Z1 + Z2 + … + Zk = X fornisce un numero pseudo casuale della v.a.

danno aggregato.

4. Ripetere i tre precedenti step per ottenere il numero n desiderato di valori di X~ .

Si noti che nel caso k~ segua la distribuzione negativa in genere si procede ad un

doppio stadio di simulazione:

o generare un numero pseudo casuale q secondo l’apposita

distribuzione (Gamma(h,h) nel caso del Processo di Polya);

o generare un numero pseudo casuale in base alla distribuzione di

Poisson Semplice con parametro n q in luogo di n (si veda Daykin et

al [1994] e Savelli [2003] per i dettagli).

Il passo numero 4 ovviamente pone la questione dell’accuratezza della stima e

quindi della scelta del numero di simulazioni da effettuare. In questo senso si può

ricorrere al Teorema del Limite Centrale. Sulla base dell’esempio riportato in

Klugman et al. [1998] si può individuare un numero minimo di simulazioni affinché

il valore atteso della v.a. da simulare sia compreso in un intervallo ± 1% del valore

reale ad un livello di confidenza del 95%:

87

( )

+≤≤−=

=

+≤

−≤−=≤≤=

µσ

µσ

µσσ

µµ

σµµ

nY

n

nnX

nX n

n

01.0~01.0Pr

01.001.0Pr01.199.0Pr95.0

dove Y~ è la v.a. Normale Standardizzata. Quindi il livello minimo potrà essere

desunto da 96.101.0=µ

σ n, da cui ( )2/38416 µσ=n , dove σ e µ possono essere ricavati

dai valori campionari della deviazione standard s e media x nelle simulazioni.

La regola che consente di terminare le iterazioni sarà data dalla:

( )2/38416 xsn ⋅=

Si noti che oltre all’accuratezza della stima, occorrerebbe stimare anche eventuali

errori di modello e di parametro (si veda ad es. Daykin [1994]).

Si rimanda ad esempio a Wang[1998], Embrechts [2005] ai fini dell’utilizzo

della simulazione nella modellizzazione delle dipendenze in connessione con le c.d.

Copule.

Si veda Rytgaard e Savelli [2004] in merito all’applicazione del metodo

simulativo per la modellizzazione di sistemi di tipo RBC, in presenza di diversi

trattati riassicurativi.

2.4 L’utilizzo della FFT nell’ambito della modellizzazione delle dipendenze e

dell’aggregazione tra rami

Il metodo utilizzato da Wang [1998] é contraddistinto da un’elevata velocità di

elaborazione e gode anche di un’importante peculiarità rappresentata dalla

88

possibilità di estendere il metodo della FFT alla modellizzazione di variabili

multivariate o la combinazione di diverse linee di business (rami). Tale elemento

ovviamente riveste particolare importanza per quanto menzionato in merito al

progetto Solvency II.

Si supponga che una Compagnia di assicurazioni danni sia caratterizzata da

solo due rami:

o Ramo 1 dove la v.a. numero sinistri è k~ , mentre la severity è descritta

dalla v.a. Z~

o Ramo 2 dove la v.a. numero sinistri è h~ , mentre la severity è descritta

dalla v.a. Y~ .

Si ipotizzi inoltre che k~ , Z~ , h~ e Y~ siano tutte mutuamente indipendenti. L’obiettivo

è calcolare la distribuzione del danno aggregato derivante dalla combinazione dei due

rami:

)~...~~()~...~~(~~21~21 hk YYYZZZX +++++++=

In base a quanto ipotizzato si ha che

( ) ( ))()()( ~~~~~ tPtPt YhZkX φφφ ⋅= (2.4.1)

In base alla proprietà precedente allora la FFT della distribuzione della v.a. X~

derivante dall’aggregazione dei due rami si può ricavare secondo i seguenti passi:

o si ricavi per i due rami:

)()( ~~~~YhZk fPmefPg &&&&&&&& ==

o invece di applicare la Inverse FFT (IFFT) a ciascuno dei due vettori di cui al

punto precedente, si effettua il prodotto elemento per elemento di g&& e m&& .

89

o Infine si applica la IFFT:

( )mgIFFTfX

&&&& ⋅=~ .

Sotto tale approccio quindi la v.a. numero sinistri “aggregata” deriva dalla

convoluzione delle singole distribuzioni delle v.a. numero sinistri dei due rami.

Generalizzando per n linee di business è necessario distinguere tra il caso in cui

sussista indipendenza tra i diversi rami o meno per quanto concerne la v.a. numero

sinistri.

2.4.1 Caso 1: Indipendenza tra rami

Qualora le n linee di business siano indipendenti e ciascun ramo sia

caratterizzato da una v.a. numero sinistri distribuita secondo la Poisson Semplice con

media λj e distribuzione del costo del singolo sinistro Sj, con j = 1, …, n, in termini di

FC si otterrà il seguente risultato:

( ) ( )( ) ( ) ( )( )1

1

1

1

~~~~ −

=

=

=== ∏∏ tn

j

tn

jZkX

ZjZj

jjeetPt φλφλ

φφ (2.4.1.1)

dove nλλλλ +++= ...21 rappresenta il numero atteso di sinistri del portafoglio

aggregato e )(...)()( ~~1

~1

tttnZ

nZZ φ

λλ

φλλφ ++= la relativa FC risultante come media pesata

delle singole FC con pesi dati dai rapporti tra numero sinistri di ramo e numero atteso

sinistri totale. Di conseguenza la Funzione di Ripartizione del costo del singolo

sinistro del portafoglio aggregato sarà data da

( ) ( ) ( )zSzSzS nn

λλ

λλ

++= ...11 (2.4.1.2)

90

2.4.2 Caso 2: Dipendenza tra rami

Nel caso di correlazione tra rami (o in presenza dei fattori di disturbo), è

possibile ricorrere alla distribuzione Binomiale Negativa per modellizzare le v.a.

numero sinistri dei singoli rami. In tal caso [ ]jkE ~ rappresenta il numero atteso di

sinistri di ciascuna linea di business j e jβ+1 rappresenta il c.d. ratio Varianza/Media.

Seguendo ad esempio Wang [1998] si dimostra banalmente che il numero

atteso sinistri del portafoglio aggregato sarà dato da:

[ ] [ ] [ ]nagg kEkEkE ~...~~1 ++= (2.4.2.1)

mentre la varianza totale sarà pari a:

[ ] [ ] [ ]∑∑∑<==

+=

=

ijij

n

jj

n

jjagg kkCovkVarkVarkVar ~,~2~~~

11 (2.4.2.2)

In tal caso si ipotizza che il numero sinistri del portafoglio aggregato si distribuisca

secondo la Binomiale Negativa con parametri stimabili dalle due relazioni precedenti.

Quindi la distribuzione del costo del singolo sinistro per tutte linee è:

( ) ( ) ( )zSkEkEzS

kEkEzS n

agg

n

agg ]~[]~[...

]~[]~[

11 ++= (2.4.2.3)

Si noti che in questo caso la differenza tra l’approccio individuale (dove

ciascuna linea di business è caratterizzata da una specifica Binomiale Negativa) e

quello aggregato è l’ipotesi che il numero sinistri aggregato per tutte linee si

distribuisca secondo la Binomiale Negativa e quindi i diversi fattori di disturbo

vengono sintetizzati in unica variabile, con il rischio di perdere l’effetto di ciascun

91

ramo. Wang [1998] evidenzia come poter facilmente tenere conto di tale elemento. A

fronte di una matrice di correlazione tra le n v.a. numero sinistri:

nnnn

n

n

ρρρ

ρρρρρρ

...............

...

...

21

22221

11211

,

è possibile calcolare il ratio totale Varianza/Media ricorrendo alla (2.4.2.2) e alla

formula

[ ] ( ) ( )ijjiij kVarkVarkkCov ~~~,~ ρ= .

Ovviamente tale metodo non è esatto se la v.a. numero sinistri di ciascuna linea

si distribuisce seconda una specifica Binomiale Negativa. Si rimanda ad esempio a

Wang [1998], dove viene fornita una vasta gamma di metodi che evitano tale

approssimazione (copule, distortion method, component method, ecc.) ed un’analisi

di confronto tra copule-simulazione da una parte e FC-FFT dall’altra.

2.4.3 L’utilizzo della FFT per variabili bivariate

Di seguito si farà un breve accenno al caso di distribuzione bivariate la cui

distribuzione può essere costruita secondo la metodologia precedentemente vista,

utilizzando però la FFT a due dimensioni (in Matlab è disponibile ad esempio

l’istruzione fft2).

L’applicazione è facilmente comprensibile attraverso l’esempio ripreso da Homer e

Clark [2004]. Nell’ambito di un trattato di riassicurazione si vuole costruire la

distribuzione bivariata della v.a costo sinistri aggregato trattenuto INSX~ e dell’eccesso

di perdita aggregato REX~ (per ipotesi discretizzate).

92

Per modellizzare la variabile bivariata connessa alla riassicurazione è necessario

utilizzare la matrice di probabilità Mf , dove il generico elemento m(j,k) rappresenta la

probabilità che INSX~ = h1 * j e REX~ = h2 * k, dove h1 e h2 sono gli span relativi alle

due v.a..

Nel caso di un solo sinistro la matrice è facilmente costruibile. Si indichi con

( ) ( )3.0;3.0;4.0,, 321~ == ffffZ

il vettore delle probabilità del costo del singolo sinistro

(che in questo caso coincide con il danno aggregato), nel caso quindi possa assumere

le determinazioni h * k, dove h è il fattore di scala (ad esempio pari a euro 1.000) e k

= 0,1,2. Allora a fronte di una priorità di un trattato excess of loss pari a euro 1.000 e

posto h1 = h2 = h = 1.000, si avrà (j indica le righe e k indica le colonne):

=

00003,03,0004,0

fM

Tale matrice esprime pienamente le probabilità e le dipendenze delle due v.a. INSX~ e REX~ . La somma degli elementi di ciascuna riga (0,4;0,6;0) fornisce la distribuzione di INSX~ , mentre la somma degli elementi di ciascuna colonna (0,7;0,3;0) rappresenta la

distribuzione di REX~ .

Il vantaggio di tale rappresentazione è che la tecnica FFT può essere applicata anche

al caso bivariato per calcolare la distribuzione del danno aggregato, la procedura

precedentemente esposta e che viene riportata sinteticamente (ovviamente va

effettuato il padding per garantire un numero di punti sufficienti per la X~ ):

M = IFFT(FGP(FFT(Mf))) (2.4.3.1)

dove ovviamente FFT e IFFT sono riferite al caso a due dimensioni.

93

2.5 Alcuni confronti

Negli ultimi tre decenni diversi metodi sono stati proposti per la valutazione

della distribuzione del danno aggregato:

o Panjer [1981] introduce la formula ricorsiva, caratterizzata da una notevole

semplicità nella comprensione ed applicabilità. L’unico livello di errore può

intervenire nella discretizzazione della distribuzione della v.a. Z~ .

o Heckman e Meyers [1983] utilizzano invece un metodo di inversione diretto

della FC.

o Robertson [1983] sfrutta il metodo della FFT, basato però su una distribuzione

piecewise di tipo uniforme per la v.a. Z~ . Tale metodo viene ripreso con alcuni

accorgimenti da Wang [1998].

o Ferrara et al. [1996] utilizzando un metodo alternativo basato comunque sulla

trasformata di Fourier.

Il metodo proposto da Wang [1998] ovviamente è contraddistinto da un’elevata

velocità di elaborazione, ma è anche estendibile alla modellizzazione di variabili

multivariate (così come l’approccio simulativo).

Il metodo ricorsivo può incorrere in alcuni problemi di overflow/underflow a

fronte di un elevato valore del numero atteso di sinistri e quindi per portafogli con

dimensioni elevate, a cui Panjer e Wilmott [1986] hanno fornito una soluzione.

L’approccio proposto da Heckman e Meyers [1983] invece funziona efficientemente

nel caso su indicato (così come i metodi approssimati nel caso di asimmetria

limitata).

Nel caso della FFT la soluzione invece è quella di ridurre lo span h in modo da

cogliere bene le caratteristiche della distribuzione del costo del singolo sinistro. Nel

94

caso di distribuzioni divisibili della v.a. k~ come la Poisson Semplice o la Binomiale

Negativa, il problema può essere aggirato costruendo la distribuzione del danno

aggregato per “pezzi”, cioè sulla base di un piccolo numero di sinistri alla volta e

combinando i risultati attraverso la convoluzione.

Inoltre risulta essere più veloce rispetto al metodo ricorsivo riducendo il numero di

iterazioni da n2 a n log2 n.

Per quanto concerne il metodo simulativo, esso differisce significativamente

dai precedenti per quanto già indicato nel paragrafo 2.3.3.

Un indubbio vantaggio è rappresentato dalla flessibilità, cioè dal poter articolare e

complicare il modello (tipico caso degli Internal Risk Models), sulla base però di una

buona esperienza di programmazione.

Un’ulteriore problematica è rappresentata dal fatto che, fornendo solo valori numerici

campionari, è molto difficile riuscire a comprendere le interrelazioni tra variabili

aleatorie utilizzate nel modello implementato.

In base a quanto evidenziato nessun modello risulta essere migliore di un altro

in qualsiasi casistica, ma l’analista dovrebbe utilizzarli come strumenti

complementari per avere una garanzia maggiore sull’attendibilità dei risultati.

Nel paragrafo 2.5.1 si riportano alcuni esempi di confronto tra i metodi di

simulazione e la FFT ai fini della determinazione della distribuzione della v.a. X~ . I

risultati ed i grafici sono ripresi dal sito della CAS:

http://www.casact.org/library/aggregate.htm, dove è possibile scaricare il software D-

Builder implementato da Hou-wen Jeng.

Nel paragrafo 2.5.2 si riporta un interessante caso, basato sul lavoro di Homer e

Clark [2004]. E’ un esempio di modello semplificato di solvency assessment nel cui

95

ambito è necessario modellizzare della dipendenza tra sinistri di entità ordinaria ed i

c.d. “Large Claims” (si ricordi anche quanto visto per il SST).

2.5.1 Una breve comparazione tra il metodo di simulazione e la FFT

A fronte di una distribuzione della v.a. k~ con parametro pari a 100 e una

distribuzione di Pareto con α = 3 e β = 100 (valori ipotizzati), nella figura successiva

è possibile osservare i primi due valori caratteristici del danno aggregato.

Figura 2.5.1.1 – FFT - λ = 100

Di seguito invece vengono riportati i risultati ottenuti con il metodo della FFT (h = 50 – Figura 2.5.1.2)

Figura 2.5.1.2 – FFT - λ = 100 e nella Figura 2.5.1.3 quanto ottenuto con il metodo simulativo (Monte Carlo –

10.000 simulazioni - λ = 100).

96

Figura 2.5.1.3 – 10.000 simulazioni - λ = 100

E’ evidente come il metodo FFT risulti un metodo esatto confrontando la funzione di

densità ottenuta con il metodo simulativo. Si noti inoltre come vengano riportati nella

Figura 2.5.1.3 i limiti inferiori e superiori per ciascun livello di probabilità e non il

singolo quantile come nella Figura 2.5.1.2 relativo alla FFT.

Si osservi anche che al livello di probabilità al 99.97%-99.98% le stime dei percentili

risultano sostanzialmente diverse tra la FFT e la simulazione: tale elemento sottolinea

l’importanza e l’attenzione che deve essere adottata in sede di stima dei percentili

nelle code delle distribuzioni del danno aggregato.

A titolo di esempio si riporta il caso in cui, a parità di distribuzione del costo

del singolo sinistro, il parametro della v.a. numero sinistri sia pari a 1.000 (e non

100).

Nelle Figure 2.5.1.4 e 2.5.1.5 si nota come la differenza delle stime nelle code tende

ad ampliarsi nella coda destra della distribuzione a seguito nell’incremento del

numero di atteso di sinistri (che contribuisce ad una riduzione della variabilità

relativa e dell’indice di asimmetria).

97

Figura 2.5.1.4 – FFT - λ = 1.000

Figura 2.5.1.5 – 10.000 simulazioni - λ = 1.000

Aumentando il numero di simulazione ovviamente si tende ad avere una maggiore

stabilità nelle stime del metodo simulativo (Figura 2.5.1.6 - 100.000 simulazioni).

Figura 2.5.1.6 - 100.000 simulazioni - λ = 1.000

98

2.5.2 La modellizzazione della dipendenza tra sinistri di entità ordinaria ed i c.d.

“Large Claims” nell’ambito di un modello di solvency assessment

Sulla base di quanto evidenziato nel lavoro di Homer e Clark [2004] una

ipotetica Compagnia di Assicurazioni Danni ha sviluppato un modello, basato su un

approccio simulativo, con l’obiettivo di individuare la distribuzione di probabilità dei

risultati, includendo la modellizzazione dei tassi di interesse e di diverse complesse

strutture riassicurative.

Tale modello però è basato su una ipotesi semplificatrice, in quanto “piccoli” e

“grandi” sinistri vengono simulati separatamente e quindi i relativi costi sinistri

aggregati sono ipotizzati reciprocamente indipendenti (si veda anche il paragrafo

3.2). In particolare la procedura simula un valore “aggregato” per tutti i sinistri

ordinari e simula individualmente i grandi sinistri (come nello SST presentato nel

capitolo 1).

Riprendendo tale esempio ed utilizzando l’EVT si riesce ad individuare la

soglia pari a DK 10.000.000 come discriminante tra piccoli e grandi sinistri

(truncation point). L’obiettivo è quello di dimostrare la possibilità di un utilizzo

congiunto tra EVT, FFT e simulazione. Si immagini di avere individuato delle

dipendenze tra small e large claims. Al fine di modellizzare il costo sinistri aggregato

si ipotizzi ora di avere discretizzato la distribuzione (nel senso della FFT) in solo 5

(ipotetici ) punti, ottenendo la seguente distribuzione discreta: Probabilità Severity

0,00% 0

43,80% 2.000.000

24,60% 4.000.000

13,80% 6.000.000

7,80% 8.000.000

10,00% 10.000.000

Media 4.312.000

Tabella 2.5.2.1: Distribuzione di probabilità ipotizzata per la Z~

99

Di seguito viene riportata la matrice che consente di individuare le dipendenze

tra sinistri ordinari e grandi sinistri (secondo la procedura vista nel paragrafo 2.4.3).

Nella prima colonna viene riportata la distribuzione di probabilità della Z~ fino al

valore della soglia (di seguito indicati come sinistri small) e nella cella (0,1) viene

riportata la probabilità di avere un sinistro di entità maggiore della soglia (10%).

Numero sinistri Large Importo Sinistri small 0 1 2 3 4 5

- 0,000 0,100 0,000 0,000 0,000 0,000 2.000.000 0,438 0,000 0,000 0,000 0,000 0,000 4.000.000 0,246 0,000 0,000 0,000 0,000 0,000 6.000.000 0,138 0,000 0,000 0,000 0,000 0,000 8.000.000 0,078 0,000 0,000 0,000 0,000 0,000 10.000.000 0,000 0,000 0,000 0,000 0,000 0,000 12.000.000 0,000 0,000 0,000 0,000 0,000 0,000 14.000.000 0,000 0,000 0,000 0,000 0,000 0,000 16.000.000 0,000 0,000 0,000 0,000 0,000 0,000 18.000.000 0,000 0,000 0,000 0,000 0,000 0,000 20.000.000 0,000 0,000 0,000 0,000 0,000 0,000 Tabella 2.5.2.1: Matrice congiunta del numero sinistri small e large

Tale rappresentazione fornisce anche un esempio della flessibilità del metodo

che può operare su grandezze con unità di misura diverse (numeri ed importi).

In presenza di dipendenze tra piccoli e grandi sinistri e se viene utilizzata una

singola frequenza per generare il numero complessivo di sinistri K, allora la

covarianza tra il costo sinistri aggregato relativo ai due gruppi, rispettivamente, SmallX~

e eLX arg~ (si veda Homer e Clark [2004]) può essere scritta:

[ ] [ ] [ ]( )kEZEpZEpXXCov keLSmalleLSmall ~~)1(*~)~,~( 2

~argarg −⋅⋅−⋅= σ (2.5.2.1)

dove p è la probabilità che un sinistro sia “piccolo”. Nel caso in cui k~ si distribuisca

secondo la Binomiale Negativa il segno della (2.5.2.1) è positivo; qualora segua la

distribuzione Poisson Semplice la covarianza è nulla e si può ricorrere al caso di

indipendenza su indicato.

100

In virtù delle dipendenze ipotizzate, per la v.a. numero sinistri viene quindi utilizzata

una distribuzione Binomiale Negativa con media = 10 e varianza = 20 (per ipotesi).

La distribuzione aggregata sarà data dall’espressione:

10

~~

)2(

)))(((−−=

=

tFGP

MFFTPGFIFFTM Zx

Una volta eseguita la procedura si ottiene la seguente matrice ( XM ~ ):

Numero sinistri large

SmallX~ 0 1 2 3 4 5 6

Totale Riga = ( )xXpr Small =~

- 0,37% 0,15% 0,03% 0,01% 0,00% 0,00% 0,00% 0,6% 2.000.000 0,57% 0,25% 0,07% 0,02% 0,00% 0,00% 0,00% 0,9% 4.000.000 0,74% 0,36% 0,09% 0,03% 0,00% 0,00% 0,00% 1,2% 6.000.000 0,91% 0,50% 0,14% 0,04% 0,00% 0,00% 0,00% 1,6% 8.000.000 1,19% 0,65% 0,20% 0,06% 0,01% 0,00% 0,00% 2,1% 10.000.000 1,44% 0,83% 0,28% 0,08% 0,01% 0,00% 0,00% 2,6% 12.000.000 1,71% 1,03% 0,36% 0,10% 0,02% 0,00% 0,00% 3,2% 14.000.000 1,87% 1,23% 0,45% 0,13% 0,03% 0,00% 0,00% 3,7% 16.000.000 2,10% 1,42% 0,54% 0,16% 0,03% 0,01% 0,00% 4,3% 18.000.000 2,23% 1,78% 0,62% 0,19% 0,04% 0,01% 0,00% 4,9% 20.000.000 2,41% 1,82% 0,70% 0,21% 0,05% 0,01% 0,00% 5,2% 22.000.000 2,46% 1,83% 0,77% 0,24% 0,06% 0,01% 0,00% 5,4% 24.000.000 2,55% 1,90% 0,82% 0,26% 0,06% 0,01% 0,00% 5,6% 26.000.000 2,44% 1,94% 0,86% 0,28% 0,07% 0,02% 0,00% 5,6% 28.000.000 2,39% 1,95% 0,88% 0,30% 0,08% 0,02% 0,00% 5,6% 30.000.000 2,31% 1,93% 0,89% 0,31% 0,08% 0,02% 0,00% 5,5% 32.000.000 2,21% 1,87% 0,89% 0,31% 0,08% 0,02% 0,00% 5,4% 34.000.000 2,09% 1,80% 0,87% 0,31% 0,09% 0,02% 0,00% 5,2% 36.000.000 1,95% 1,71% 0,84% 0,31% 0,09% 0,02% 0,00% 4,9% 38.000.000 1,81% 1,61% 0,81% 0,30% 0,09% 0,02% 0,01% 4,6% 40.000.000 1,70% 1,57% 0,76% 0,29% 0,08% 0,02% 0,01% 4,4% 42.000.000 1,66% 1,55% 0,72% 0,28% 0,08% 0,02% 0,01% 4,3% 44.000.000 1,40% 1,26% 0,66% 0,26% 0,08% 0,02% 0,00% 3,7% 46.000.000 1,32% 1,20% 0,61% 0,25% 0,08% 0,02% 0,00% 3,5% 48.000.000 1,16% 1,04% 0,56% 0,23% 0,07% 0,02% 0,00% 3,1% 50.000.000 1,03% 0,93% 0,50% 0,21% 0,07% 0,02% 0,00% 2,8% Totale 100,0% Tabella 2.5.2.2: Distribuzione bivariata del numero dei grandi sinistri e dell’importo dei sinistri ordinari (in dollari) La distribuzione marginale della v.a. SmallX~ si ottiene sommando le probabilità in

ciascuna riga. In tal caso [ ]SmallXE ~ = 28.010.459 DK.

101

Di seguito viene riportata la corrispondente funzione di ripartizione.

Funzione di Ripartizione Marginale dell'importo dei piccoli sinistri

-0.10.20.30.40.50.60.70.80.91.0

-

4,00

0,000

8,00

0,000

12,000

,000

16,000

,000

20,000

,000

24,000

,000

28,000

,000

32,000

,000

36,000

,000

40,000

,000

44,000

,000

48,000

,000

52,000

,000

56,000

,000

Figura 2.5.2.2: Funzione di Ripartizione di SmallX~

Successivamente viene ricavata la distribuzione di frequenza condizionata per i

grandi sinistri, attraverso il “rescaling” della XM ~ , rapportando ogni elemento al totale

della rispettiva riga:

Numero "grandi" sinistri

SmallX~ 0 1 2 3 4 5 6 Totale - 64,7% 26,2% 5,2% 1,6% 0,8% 0,8% 0,8% 100.0% 2.000.000 62,4% 27,4% 7,2% 1,6% 0,4% 0,4% 0,4% 100.0% 4.000.000 60,3% 29,3% 7,3% 2,0% 0,3% 0,3% 0,3% 100.0% 6.000.000 57,0% 31,3% 8,8% 2,2% 0,2% 0,2% 0,2% 100.0% 8.000.000 56,3% 30,8% 9,5% 2,6% 0,5% 0,2% 0,2% 100.0% 10.000.000 54,5% 31,4% 10,6% 2,8% 0,4% 0,1% 0,1% 100.0% 12.000.000 53,1% 32,0% 11,2% 2,9% 0,6% 0,1% 0,1% 100.0% 14.000.000 50,4% 33,1% 12,1% 3,4% 0,8% 0,1% 0,1% 100.0% 16.000.000 49,3% 33,3% 12,7% 3,6% 0,7% 0,3% 0,1% 100.0% 18.000.000 45,8% 36,5% 12,7% 3,8% 0,8% 0,3% 0,1% 100.0% 20.000.000 46,3% 35,0% 13,5% 3,9% 1,0% 0,3% 0,1% 100.0% 22.000.000 45,8% 34,1% 14,3% 4,4% 1,1% 0,3% 0,1% 100.0% 24.000.000 45,5% 33,9% 14,6% 4,6% 1,1% 0,3% 0,1% 100.0% 26.000.000 43,5% 34,6% 15,3% 4,9% 1,2% 0,3% 0,1% 100.0% 28.000.000 42,5% 34,7% 15,7% 5,2% 1,4% 0,4% 0,1% 100.0% 30.000.000 41,7% 34,8% 16,1% 5,5% 1,4% 0,4% 0,1% 100.0% 32.000.000 41,1% 34,7% 16,5% 5,7% 1,5% 0,4% 0,1% 100.0% 34.000.000 40,3% 34,7% 16,8% 5,9% 1,8% 0,4% 0,1% 100.0% 36.000.000 39,6% 34,7% 17,1% 6,2% 1,9% 0,5% 0,1% 100.0% 38.000.000 39,0% 34,7% 17,4% 6,4% 1,9% 0,5% 0,1% 100.0% 40.000.000 38,4% 35,5% 17,2% 6,4% 1,8% 0,5% 0,1% 100.0% 42.000.000 38,5% 35,9% 16,7% 6,4% 1,9% 0,5% 0,1% 100.0% 44.000.000 38,0% 34,2% 17,9% 6,9% 2,2% 0,6% 0,1% 100.0% 46.000.000 37,9% 34,5% 17,5% 7,1% 2,2% 0,6% 0,1% 100.0% 48.000.000 37,5% 33,7% 18,2% 7,4% 2,4% 0,6% 0,2% 100.0%

50.000.000 37,3% 33,8% 18,1% 7,4% 2,5% 0,7% 0,2% 100.0%

Tabella 2.5.2.3: Rescaling della Tabella 3.2.1.2

102

Quest’ultima tabella consente di evidenziare ancora meglio le dipendenze tra i

sinistri ordinari e large claims. A questo punto è possibile ricavare il valore atteso

della v.a. discreta numero di grandi sinistri (v.a. condizionata): ]~

[ arg eLkE = 0.8713566.

Effettuando 200.000 simulazioni per la eLZ arg~ (numero in genere sufficiente a

garantire un buon grado di approssimazione) in base alla distribuzione GPD con

parametri 523,0=ξ ; 78,8=β (si veda il paragrafo 2.2) si ottiene un valore medio

]~[ arg eLZE = 27,6299 * 107.

Infine il danno aggregato è dato da:

]~[]~

[]~[]~[ argarg eLeLSmall ZEkEXEXE ⋅+= = 28.010.459 + 240.754.946 = 268.765.405

La procedura del modello di solvency assessment è stata quindi ottimizzata e occorre

eseguire i seguenti passi:

1. Si ricava il valore atteso di SmallX~ dalla distribuzione marginale;

2. Determinare il numero di grandi sinistri in base alla distribuzione marginale di

frequenza (condizionata a quella dei piccoli sinistri);

3. Simulare il valore della severity per ciascun grande sinistro.

In tal modo quindi si procede efficientemente senza simulare singolarmente i piccoli

sinistri, ma si riesce comunque a preservare la struttura di dipendenza individuata.

Tale esempio quindi fornisce un caso di applicazione congiunta tra EVT, FFT e

simulazione6 anche nel caso di variabili multivariate.

6 Si rimanda inoltre a Embrechts [2005] in riferimento ad esempio all’applicazione dell’EVT al caso di variabili multivariate e al concetto di Extreme Value Copula.

103

Capitolo 3

Alcuni esempi di applicazioni della FFT, EVT e Simulazione

In questo capitolo vengono fornite alcune applicazioni e confronti tra i risultati

ottenuti dai Metodi di Simulazione e FFT, utilizzando le statistiche ANIA sul ramo

R.C.Auto.

Inoltre, sulla base del set di dati “1991-1992 SOA Group of Medical Insurance

Large Claims” e sfruttando l’EVT, vengono evidenziate sia le problematiche

connesse alla valutazione del danno aggregato attraverso la logica Peaks Over

Threshold (POT), che la significatività della scelta della soglia in termini di valore

atteso di tale variabile aleatoria.

3.1 La determinazione della distribuzione del costo sinistri aggregato nel ramo

RCA del mercato italiano. Simulazione o FFT?

L’obiettivo è stimare la distribuzione del Danno Aggregato attraverso

l’approccio simulativo e l’approccio seguito con la FFT (Wang [1998]), in presenza

di una frequenza sinistri variabile per classi di Bonus Malus.

Di seguito vengono richiamati, ai fini di una più chiara comprensione, i risultati

ottenuti in Cerchiara [2003], [2005]. In tali lavori, sulla base principalmente dei

contributi di Lemaire [1995], Grasso [1996], Verico [2000], Picech et al. [2003],

Savelli [2002], sono stati analizzati gli effetti della tariffazione a posteriori (in

presenza di differenti sistemi Bonus Malus e No Claim Discount) sulla Riserva di

Rischio ed in termini di probabilità di rovina su un orizzonte temporale di 30 anni e

portafoglio chiuso (Cerchiara [2003]) e su un time horizon di 60 anni a portafoglio

aperto (Cerchiara [2005]). Il modello è stato costruito sulla base dell’approccio

104

collettivo della Teoria del Rischio e del metodo simulativo di Monte Carlo (realizzato

in Matlab), in presenza di una frequenza sinistri variabile per classi di Bonus Malus

(stimata dalle statistiche ANIA del 2001, mercato italiano RCA, settore I autovetture

ad uso privato) e di un costo del singolo sinistro costante (stimato dalle su indicate

statistiche ANIA). Il sistema BM Svizzero (contraddistinto da regole di evoluzione

più penalizzanti, un maggior numero di classi) è risultato in entrambi i paper la

migliore tecnica di tariffazione a posteriori in relazione agli effetti sulla solvibilità di

una Compagnia Danni (confermando quanto da Lemaire [1995] dal punto di vista

dell’efficienza della tariffa BM).

Come si può vedere nella Figura 3.1.1, la frequenza sinistri media della

popolazione assicurata in un sistema BM o NCD, a gruppo chiuso, è caratterizzato da

un trend decrescente, dovuto alla convergenza degli assicurati nelle classi di bonus

dove la frequenza sinistra è più bassa (si veda Lemaire [1995], Gigante et al. [2003],

Cerchiara [2003]).

Figura 3.1.1. L’andamento della frequenza sinistri della popolazione assicurata (100) lungo

l’orizzonte temporale di 60 anni (si veda Cerchiara [2005]).

Tale andamento è maggiormente compresenbile facendo riferimento ai momenti del

Danno Aggregato e all’effetto del BMS.

Indicando con N0 il numero di assicurati e con ν0 la frequenza sinistri della

popolazione in t = 0, allora il numero atteso sinistri sarà:

105

( ) ∑=

⋅=⋅=M

iii NvNkE

1,0,0000

~ ν (3.1.1)

dove ν0,i e N0,i sono, rispettivamente, la frequenza sinistri e il numero di assicurati

nella classe i. Nel generico anno t>0 allora il numero atteso di sinistri è dato da:

( ) ( )[ ] ( )[ ] ( ) ( ) ( )tBMtttBMot gkEgNkE ααν −⋅+⋅=+⋅⋅−⋅= 11~11~

00 (3.1.2)

dove g é il tasso di crescita della popolazione assicurata, tale che ( )tt gNN +⋅= 10 ; (1-

αBM) é il fattore di riduzione annuo della frequenza sinistri della popolazione,

dipendente, come si vede in Figura 3.1.1, dal tipo di BMS o NCDS utilizzato, e αBM è

quindi una successione di valori crescenti fino ad un certo valore temporale t

(dipendente a sua volta dal sistema usato) e successivamente costante.

Il valore atteso di tX~ sarà:

( ) ( ) ( ) ( ) ( ) ( ) ( )tBMttttt igXEZEkEXE α−⋅+⋅+⋅=⋅= 111~~~~

0 (3.1.3)

dove i è un tasso costante di inflazione annua del costo del singolo sinistro, mentre

varianza e skewness sono dati da (si veda Savelli [2002]):

( ) ( ) ( ) ( ) ( )tBMttt igXX ασσ −⋅+⋅+⋅= 111~~ 2

022 (3.1.4)

( ) ( )( ) ( )tBMt

t

gXX

αγγ

−⋅+⋅=

11

1~~0 (3.1.5)

Nell’ambito delle applicazioni realizzate nella presente tesi di dottorato si è

considerato il solo sistema Bonus Malus italiano. Dato un portafoglio di polizze

RCA omogeneo a priori, per calcolare, in ogni istante t, l’ammontare dei premi,

106

quello dell’i-esimo sinistro e la distribuzione degli assicurati nelle M classi di merito,

è sufficiente:

1. conoscere la struttura del sistema BM;

2. particolarizzare le distribuzioni del numero di sinistri annui e dell’ammontare

degli stessi tk~ e tiZ ,~ .

In merito al punto 1, indicando con M il numero massimo di classi e con s la classe di

ingresso, si riportano le regole evolutive del sistema BM italiano7 (M = 18 e s = 14):

( )

=−+

=−=+

,.....3,2,1~)1~3~,18min(

0~1,1~max~

1

ttt

tt

t

kkY

kYY (3.1.6)

Per quanto concerne la v.a. numero sinistri è stata scelta la distribuzione di

Poisson, nonostante non sempre si adatti bene al modellizzare tale v.a., ai fini degli

obiettivi di tale applicazione non è essenziale utilizzare una distribuzione che

consenta un perfetto fitting dei dati osservati (si veda ad esempio Lemaire [1995] per

le possibili distribuzione del numero sinistri del ramo RCA).

Il parametro λ, come già premesso, è costituito da un vettore di frequenze

relative, i cui elementi sono variabili per classe di appartenza, stimato dalla reale

curva nel mercato italiano nel 2003 (dati Ania, settore I autovetture ad uso privato).

Si vedano le figure 3.1.2 (si noti la concentrazione di assicurati nella classe 1) e 3.1.3

dove viene riportata la su indicata curva perequata della frequenza sinistri.

7 Per il Sistema Bonus Malus italiano è stata considerata, per tutti gli assicurati, la classe di ingresso 14, ipotizzando quindi rischi assicurati per la prima volta.

107

Ripartizione percentuale Veicoli Anno nelle classi di BM - ANNO 2003

-

5.0

10.0

15.0

20.0

25.0

30.0

35.0

40.0

45.0

50.0

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18Classi di BM

Figura 3.1.2. Ripartizione percentuale dei veicoli anno nelle classi di BM (Ania 2003).

Frequenza Sinistri variabile per classe di BM

0%

5%

10%

15%

20%

25%

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

CLASSI DI BM

Freq Sinistri OSSERVATA

Freq Sinistri PEREQUATA

Figura 3.1.3. Frequenze sinistri osservata e perequata (Ania 2003).

Per quanto concerne la distribuzione del costo del singolo sinistro è stata scelta la

Lognormale (utilizzando le stesse distribuzioni presentate nel contributo del IIA WP

[2004]) caratterizzata dalla seguente densità:

[ ]

2

2)ln(

2)(1)( σ

µ

πσ

−−−

⋅⋅−=

dz

edz

zs

dove z > d = 0. I valori caratteristici fino al terzo ordine sono dati da:

[ ]

+

== 21

2

~σµ

eaZE e [ ] ( )2222

2~ σµ+== eaZE

[ ] ( ) ( )1~ 222 −⋅= + σσµ eeZVar

[ ] ( )

−⋅+= 12~ 22 σσγ eeZ

y = 6.18 * exp(0.05 * x)

108

Ai fini della stima dei parametri della lognormale sono state sfruttate le

seguenti formule (si ricordi anche la 2.3.1):

+=

+

=

222

2

2

2

1

σµ

σµ

ex

ex µσ

µ

ˆ2

lnˆ

2lnln2ˆ

22

21

−=

−=

x

xx (3.1.7)

I dati sono stati desunti dalle sopra indicate statistiche ANIA, i cui valori numerici

sono riportati nella tabella seguente:

STATISTICHE ANIA 2003 STIME

Classe Veicoli Distrib. Frequenza Frequenza

Momenti Empirici

Parametri Lognormale

Bonus /Malus Anno

Veicoli Sinistri

Sinistri Ponderata

Costo Medio

1x

sqm (Ipotesi CV = 4)

Varianza (Ipotesi CV =

4)

Momento secondo

2x

µ̂

2σ̂

(in %) (in %) (in %) (in euro) (in euro)

1 7.204.119 45,01 5,35 2,41

3.550

14.200

201.640.000

214.242.500 6,8 2,83

2 764.693 4,78 8,15 0,39

3.440

13.760

189.337.600

201.171.200 6,7 2,83

3 888.813 5,55 8,03 0,45

3.570

14.280

203.918.400

216.663.300 6,8 2,83

4 721.696 4,51 8,02 0,36

3.590

14.360

206.209.600

219.097.700 6,8 2,83

5 611.424 3,82 8,45 0,32

3.660

14.640

214.329.600

227.725.200 6,8 2,83

6 638.447 3,99 8,22 0,33

3.640

14.560

211.993.600

225.243.200 6,8 2,83

7 619.707 3,87 8,34 0,32

3.710

14.840

220.225.600

233.989.700 6,8 2,83

8 575.226 3,59 8,77 0,32

3.580

14.320

205.062.400

217.878.800 6,8 2,83

9 604.214 3,77 9,85 0,37

3.950

15.800

249.640.000

265.242.500 6,9 2,83

10 560.494 3,50 9,17 0,32

3.670

14.680

215.502.400

228.971.300 6,8 2,83

11 569.860 3,56 9,28 0,33

3.910

15.640

244.609.600

259.897.700 6,9 2,83

12 624.355 3,90 9,49 0,37

3.990

15.960

254.721.600

270.641.700 6,9 2,83

13 690.932 4,32 10,46 0,45

4.230

16.920

286.286.400

304.179.300 6,9 2,83

14 819.602 5,12 23,75 1,22

4.240

16.960

287.641.600

305.619.200 6,9 2,83

15 66.971 0,42 16,54 0,07

4.460

17.840

318.265.600

338.157.200 7,0 2,83

16 30.082 0,19 19,33 0,04

4.750

19.000

361.000.000

383.562.500 7,0 2,83

17 7.098 0,04 16,34 0,01

3.620

14.480

209.670.400

222.774.800 6,8 2,83

18 9.580 0,06 21,64 0,01

3.760

15.040

226.201.600

240.339.200 6,8 2,83

Totale

16.007.313 100,00 8,08

3.770

15.080

227.406.400

241.619.300 6,8 2,83

σ̂ 1,68

Tabella 3.1.1: Statistiche ANIA e stima dei parametri della distribuzione Lognormale.

109

Come si vede nella tabella precedente i parametri della distribuzione

Lognormale non cambiano significativamente da classe a classe di BM, per cui viene

utilizzata una lognormale con parametri µ = 6,8 e σ2=2,83, ipotizzando un

coefficiente di variazione σ / µ = 4 (si ricorda che l’obiettivo finale del lavoro è

l’analisi comparata tra simulazione e FFT, e non tanto il corretto fitting della

distribuzione della Z~ per la quale attualmente non si hanno molti dati disponibili).

Tale ipotesi è avvalorata da quanto emerge nelle statistiche ANIA 2003, con

particolare riferimento alla distribuzione osservata per la distribuzione empirica del

costo del singolo sinistro, caratterizzata da un’assimmetria pressoché nulla e da una

variabilità molto elevata (Figura 3.1.4).

Distribuzione sinistriDati ANIA 2003

0

100,000

200,000

300,000

400,000

Scaglione di indennizzo

tot n

° sin

istri

,00 - 75,00 75,00 - 125,00 125,00 - 250,00 250,00 - 500,00 500,00 - 750,00 750,00 - 1.500,00 1.500,00 - 2.500,00 2.500,00 - 3.750,00 3.750,00 - 5.000,00 5.000,00 - 7.500,00 7.500,00 - 10.000,00 10.000,00 - 12.500,00 12.500,00 - 15.000,00 15.000,00 - 20.000,00 20.000,00 - 25.000,00 25.000,00 - 37.500,00 37.500,00 - 50.000,00 50.000,00 - 75.000,00 75.000,00 - 100.000,00 100.000,00 - 150.000,00 150.000,00 - 250.000,00 OLTRE 250.000,00

Figura 3.1.4. Distribuzione dei sinistri per classi di indennizzo (Ania 2003). Si noti che le classi non hanno la stessa ampiezza.

Il grafico successivo contiene un esempio di distribuzione Lognormale con

parametri pari a quelli desunti dalla statistica ANIA 2003.

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

x 104

0

0.2

0.4

0.6

0.8

1

1.2x 10

-3

Z - costo del singolo sinistro Figura 3.1.4. Distribuzione dei sinistri per classi di indennizzo (Ania 2003).

110

In base alle seguenti ipotesi, di seguito vengono riportati i risultati ottenuti

attraverso il modello di simulazione basato sui seguenti parametri:

o ik~ ∼ Poisson(λiBM);

o Z~ ∼ Lognormale(6,8;2,83);

o Numero assicurati = 10.000;

o Numero Simulazioni (Matlab) = 10.000;

o Time horizon = 3 anni;

o Portafoglio chiuso.

E’ importante notare che in questo caso il numero massimo di simulazioni è

fortemente condizionato dal tipo di modello che si è cercato di sviluppare. Dato che

viene utilizzata una frequenza sinistri variabile per ogni classe di BM è necessario

controllare per ogni testa assicurata la classe di appartenenza ed in funzione di

quest’ultima selezionare la corretta frequenza sinistri da inserire nel generatore di

numeri pseudo casuali utilizzato per la v.a. numero sinistri in base alla distribuzione

di Poisson (in Matlab poissrnd).

Quindi è necessario simulare il numero di sinistri per ciascuna testa assicurata e

non si può procedere ad unica simulazione per l’intero collettivo (si veda ad esempio

Savelli [2002]). Tale elemento spiega il notevole tempo computazionale necessario

per effettuare le 10.000 simulazioni per le 10.000 teste distribuite in modo diverso

nelle 18 classi nei 3 anni di sviluppo (circa 12 ore). Al problema del time consuming

contribuiscono anche le simulazioni del costo del singolo sinistro (si ricordi quanto

evidenziato nel paragrafo 2.3.3).

Si sottolinea inoltre che nei precedenti lavori del [2003] e [2005] si era cercato

un diverso compromesso, dato che le finalità erano diverse, considerando un numero

minore di assicurati (100), un numero maggiore di anni di sviluppo (rispettivamente

30 e 60 anni) e utilizzando un costo medio del singolo sinistro costante.

Di seguito sono riportati i risultati ottenuti con tale modello :

111

0 1 2 3 4 5 6 7 8 9

x 106

0

0.2

0.4

0.6

0.8

1

x - Valori Simulati

F(x)

Funzione di Ripartizione SIMULATA T=1

Figura 3.1.5. Distribuzione simulata del danno aggregato.

T=1 Valori "Esatti" Valori Simulati Errore Percentuale

Media Numero Sinistri 1.243 1.244 0,07%

Costo medio del singolo sinistro 3.770 3.765 -0,12%

Media Danno Aggregato = n*a1 4.686.587 4.683.853 -0,06%

Deviazione Standard Danno Agg 548.054 543.888 -0,76%

Coefficiente di variazione 11,7% 11,6% -0,70%

Indice di Asimmetria 1,99 1,76 -11,35%

T=2 Valori "Esatti" Valori Simulati Errore Percentuale

Media Numero Sinistri 1.206 1.205 -0,04%

Costo medio del singolo sinistro 3.770 3.773 0,07%

Media Danno Aggregato = n*a1 4.546.468 4.547.688 0,03%

Deviazione Standard Danno Agg 539.799 547.693 1,46%

Coefficiente di variazione 11,9% 12,0% 1,44%

Indice di Asimmetria 2,02 2,77 -11,35%

T=3 Valori "Esatti" Valori Simulati Errore Percentuale

Media Numero Sinistri 1.169 1.169 0,01%

Costo medio del singolo sinistro 3.770 3.778 0,20%

Media Danno Aggregato = n*a1 4.408.659 4.417.820 0,21%

Deviazione Standard Danno Agg 531.555 582.804 9,64%

Coefficiente di variazione 12,1% 13,2% 9,41%

Indice di Asimmetria 2,05 4,95 141,53%

Tabella 3.1.2: Risultati delle 10.000 simulazioni

I valori esatti sono stati ricavati applicando i dati osservati nelle formule dei momenti

del Processo Composto di Poisson semplice di cui al capitolo 2.

112

Si noti come all’aumentare del tempo il numero atteso di sinistri diminuisca per

effetto di concentrazione degli assicurati verso le classi di bonus dove la frequenza

sinistri è più bassa (risultato che si riflette anche in termini di variabilità della v.a. k~ ).

Per quanto concerne i momenti del danno aggregato non emergono significative

differenze per [ ]XE ~ tra i valori esatti e quelli simulati in tutti i tre anni considerati.

E’ importante invece commentare quanto accade per la varianza del danno

aggregato dove, all’aumentare del tempo, la differenza tra valore esatto e valore

simulato tende ad ampliarsi. Tale fenomeno è dovuto all’aumento di variabilità nel

processo del costo del singolo sinistro, imputabile sia alla procedura di simulazione

(dato che a fronte di un maggiore numero di assicurati la variabilità dei risultati

diminuirebbe) sia alla diminuzione del numero atteso di sinistri che influisce anche

sul numero di simulazioni che vengono effettuate per la v.a. Z~ (si ricordi i passi di

simulazione evidenziati nel paragrafo 2.3.3 e le formule dei momenti del danno

aggregato). Analogo ragionamento può essere fatto per l’indice di asimmetria.

I risultati ottenuti nel precedente approccio sono stati quindi confrontati con

quelli ottenuti utilizzando la FFT in riferimento, per semplicità, ad un anno come

orizzonte temporale di sviluppo.

In questo caso l’obiettivo è individuare la distribuzione del costo sinistri aggregato

per tutte le 18 classi del sistema Bonus Malus (BMS) e successivamente aggregare

tali risultati secondo la metodologia evidenziata nel paragrafo 2.4.1. In tal caso si

suppone che non vi siano correlazioni fra le v.a. numero sinistri nelle diverse classi di

BM (Wang [1998] considera il caso dell’aggregazione tra rami).

Indicando con [ ] jjkE λ=~ il numero atteso di sinistri per j-esima classe (j=1,

…,18) ricavato come visto nella (3.1.1) ed utilizzando la stessa distribuzione del costo

del singolo sinistro per ciascuna classe di merito (Sj = S), in base alla (2.4.1.1):

113

( ) ( )( ) ( ) ( )( )118

1

118

1

~~~~ −

=

=

=== ∏∏ t

j

t

jZkX

ZjZj

jjeetPt φλφλ

φφ

si dimostra che in questo caso, dato che 1821 ... λλλλ +++= ,

)()(...)(...)( ~~1~~11

tttt ZZn

Zn

Z nφφ

λλ

λλφ

λλφ

λλ

=

++=++ .

L’ipotesi di utilizzare un’unica distribuzione per le jZ~ semplifica quindi

l’applicazione della FFT. Ai fini dell’individuazione della distribuzione del costo

sinistri aggregato per le 18 classi si applica quindi la procedura vista nel paragrafo

2.3.2.1:

o Discretizzare la distribuzione Lognormale della Z~ , ottenendo

[ ])1(),....,1(),0( ~~~~ −= mffff ZZZZ (in tal caso si è proceduto utilizzando

un’apposita procedura in Matlab basata sull’istruzione histc applicata

alla distribuzione della Z~ ricavata da 2 milioni di simulazioni);

o Scegliere il numero di punti, n=2r , necessari per la distribuzione della

X~ ;

o Aggiungere zeri al vettore precedente in modo tale che il numero di

probabilità sia pari a n: [ ])1(),....,1(),0( ~~~~ −= nffff ZZZZ

o Applicare la FFT ottenendo )( ~~ ZZfFFTf =&& , ottendendo la FC della Z~ ;

o Applicare la FGP della k~ , elemento per elemento, alla FFT:

)( ~~~ ZkXfPf &&&& = , ottenendo quindi la FC del danno aggregato;

o Applicare la IFFT per ottenere il vettore delle probabilità ricercato:

)( ~~ XXfIFFTf &&= .

114

Per quanto concerne il numero di punti della distribuzione della v.a. X~ si è

provveduto a considerare n = 216 punti con un passo h= 250 euro, sulla base della

conoscenza dei momenti di tale v.a., che consente di evitare errori nell’individuare il

possibile range di variazione della v.a.

T=1 Valori "Esatti" Valori Simulati Errore Percentuale Valori FFT Errore Percentuale

Media Numero Sinistri 1.243 1.244 0,07% 1.243 0,00%

Costo medio del singolo sinistro 3.770 3.765 -0,12% 3.777 0,17%

Media Danno Aggregato = n*a1 4.686.587 4.683.853 -0,06% 4,408,966 -5,92%

Deviazione Standard Danno Agg 548.054 543.888 -0,76% 571.086 4,20%

Coefficiente di variazione 11,7% 11,6% -0,70% 13,0% 10,76%

Indice di Asimmetria Danno Aggregato 1,77 1,76 -0,70% 1,69 -4,85%

Tabella 3.1.3: Confronto tra i risultati delle 10.000 simulazioni.

3 4 5 6 7 8 9 10

x 106

0

0.25

0.5

0.75

11

X

SIMULAZIONE

3 4 5 6 7 8 9 10

x 106

0

0.25

0.5

0.75

1

Funzione di Ripartizione del DANNO AGGREGATOFFT

Figura 3.1.6. Confronto fra le Funzioni di Ripartizione del danno aggregato X~ , ricavate con la simulazione e con la FFT.

Alla luce dei risultati ottenuti si sottolinea che la minor accuratezza della stima

è imputabile in parte al processo di discretizzazione della distribuzione della v.a. Z~

che comporta un certo margine di errore. Inoltre ai fini della modellizzazione

dell’evoluzione della collettività assicurata il metodo della FFT è risultato essere

molto più complicato rispetto a quello simulativo.

A titolo di esempio si riporta nella figura successiva le distribuzioni di probabilità

dopo 1 anno, successivamente al passaggio dei 10.000 assicurati nelle classi di merito

115

13 (8.831 teste senza sinistri), 16 (1.098 assicurati con 1 sinistro) e 18 (71 teste con 2

o + sinistri). Il numero di componenti di ciascuna classe spiega la diversa variabilità

tra le distribuzioni.

0 500 1000 1500 2000 2500 3000 35000

0.005

0.01

0.015

0.02

0.025

0.03

0.035

0.04Distribuzioni di probabilità per CLASSE DI BM ALLA FINE DEL PRIMO ANNO

Classe 13Classe 16Classe 18

Figura 3.1.7. Distribuzioni di probabilità nelle diverse classi dopo un anno.

Si noti che l’individuazione del numero di punti da utilizzare per la v.a. X~ e la

conseguente scelta del passo e della procedura di discretizzazione della Z~

condizionano fortemente i risultati ottenuti con la FFT (si veda Wang [1998]). In

particolare la distribuzione del danno aggregato va discretizzata in base agli stessi

intervalli della v.a. Z~ . Come si é visto l’unità di misura di quest’ultima v.a. é in

genere in migliaia di euro, mentre un’appropriata scala per la X~ sarebbe in centinaia

o milioni di euro. Tale elemento complica la scelta del passo ed a volte come in

questo caso va attuato un compromesso tra accuratezza della stima e applicazione con

rigore del metodo (si veda il metodo di Heckman e Meyers nell’Appendice A per

evitare tale problema).

Tale metodo sembra più appropriato nel caso, ad esempio, di modellizzazione dei

sinistri oltre una elevata priorità in un trattato excess of loss, dove in genere il numero

atteso di sinistri è molto piccolo: The FFT method is at its best in high reinsurance

layers where the usual claim severity models are fairly flat, and the expected claim

count is small (cfr. Meyers: Discussion by Glenn Meyers about Aggregation of

Correlated Risk Portfolios by Shaun S. Wang, Ph.D. [1999]).

116

I risultati sono condizionati anche dalla scelta di una distribuzione (ipotizzata)

della Z~ con numerosi piccoli sinistri, ma con una coda molto lunga: tale elemento

condiziona sia i risultati che i tempi di elaborazioni richiedendo una notevole

frammentazione della distribuzione di partenza: The FFT method is at its worse when

the claim severity distributions have a high proportion of small claims, but also a

long tail, and the expected claim count is large (cfr. Meyers: Discussion by Glenn

Meyers about Aggregation of Correlated Risk Portfolios by Shaun S. Wang, Ph.D.

[1999]).

A giudizio dell’autore nell’ambito di modelli con elevata complessità del tipo

Risk Based Capital, dove sono presenti diverse componenti aleatorie, rimane la

preferibilità del metodo simulativo, dove oltre all’accuratezza anche i tempi di

elaborazione sono essenziali ai fini dell’applicabilità di un approccio o meno.

117

3.2 L’applicazione dell’EVT ai fini della modellizzazione del danno aggregato

Nel paragrafo 2.1 è stato fornito un esempio di come capire se l’EVT secondo la

logica POT sia adatta o meno a descrivere la coda della distribuzione della v.a. Z~ che

nell’ambito di questa tesi di dottorato rappresenta il costo del singolo sinistro.

Nelle pagine seguenti viene evidenziato come modellizzare il danno aggregato

secondo l’EVT utilizzando la logica POT (si veda Gigante et al. [2002], Cebrian et al.

[2003], Cerchiara e Esposito [2005]).

Sono stati considerati i dati messi in rete dalla Society of Actuaries (SOA),

relativi a “1991-1992 SOA Group of Medical Insurance Large Claims”. Sono

costituiti da 75.789 osservazioni di sinistri eccedenti $25.000 nel periodo 1991.

Il costo medio del singolo sinistro é pari a $58.410; il database é caratterizzato da un

significativo numero di sinistri di importo elevato, con un massimo pari a $ 4.518.420

(Tabella 3.2.1).

Numero di sinistri 75.789

Minimo 25.000 Range 4.493.420

Massimo 4.518.420 Media 58.413

25% Quantile 30.543 Deviazione Standard 66.005

50% Quantile 40.224 Coefficiente di Variazione 1,13

75% Quantile 61.322 Skewness 13,21

Tabella 3.2.1: Alcuni dati statistici per il Database SOA (ammontari in $)

Sulla base di quanto evidenziato nel paragrafo 2.1 si pone l’attenzione sulla coda

della distribuzione empirica. Emerge una notevole asimmetria positiva (13,21) ed un

ampio intervallo di variazione ($ 4.493.420).

118

Figura 3.2.1: Istogramma su base logaritmica del Database SOA

La Figura 3.2.1 conferma la pesantezza della coda destra dei dati. Come evidenziato

in precedenza si procede quindi all’utilizzo di strumenti di analisi grafica come il

QQ-Exponential plot (Figura 3.2.2).

Figura 3.2.2: QQ Exponential Plot Database SOA

In tal caso la pesantezza della coda é ancora più significativa rispetto all’esempio del

paragrafo 2.1. Il possibile utilizzo della GPD è avvalorato dal grafico della Empirical

Mean Excess Function.

119

Figura 3.2.3: Empirical Mean Excess Function

Si rimanda a Cebrian et al. [2003] e Cerchiara e Esposito [2005] per maggiori dettagli

sulla bontà del fitting attraverso la GPD.

In base al grafico precedente la soglia ideale sembra cadere nell’intervallo $ 100.000

and $ 300.000 dove la funzione sembra seguire un trend lineare. A tal fine si ricorre

quindi la rappresentazione grafica del GPD Index ξ (Shape Parameter) al variare

della soglia (attraverso le procedure presenti in R).

Figura 3.2.4: GPD Index al variare della soglia

Si noti che l’intervallo su indicato viene confermato anche nella Figura 3.2.4, dato

che l’indice assume valori stabili nell’intervallo $100.000 and $300.000 e che, tra

120

l’altro assicura un buon numero di eccedenze. Cebrian et al. [2003], sulla base del

Gertensgarbe plot, individuano la soglia ideale in circa u= $ 200.000.

A fronte di tale soglia si ottiene un fitting efficace della distribuzione di partenza

(Figura 3.2.5).

Figure 3.2.5: Coda Empirica versus GPD (u =200.000)

L’obiettivo é evidenziare l’utilità dell’EVT nella modellizzazione del danno

aggregato e la significatività della corretta scelta della soglia. A tal fine l’analisi è

condotta considerando non un’unica soglia, ma un intervallo di threshold compreso

tra $ 100.000 and $ 300.000.

Nella tabella 3.2.2 si riportano innanzitutto i quantili al livello 99.0%, 99.5% e

99.99% empirici a confronto con le stime dei quantici ricavabili con la GPD in base

alla formula (2.1.4), dove in tal caso n è il numero di sinistri pari a 75.789.

u 99,00% 99,50% 99,99%

300.000 306.510 405.236 1.640.367

225.000 306.926 405.200 1.651.005

200.000 307.337 406.129 1.625.770

175.000 307.578 406.333 1.608.526

150.000 305.472 404.673 1.701.722

100.000 304.519 405.049 1.775.419

Empirical Quantiles 1991 305.983 406.516 1.716.546

Tabella 3.2.2: Quantili empirici versus Quantili della GPD al variare della soglia

121

Si noti come in tale intervallo le stime dei quantili non differiscono molto al variare

della soglia e approssimano bene i valori empirici.

A questo punto si procede alla stima del valore atteso del danno aggregato, che

nell’ipotesi di indipendenza stocastica tra le v.a. k~ e Z~ e che le iZ~ siano i.i.d., è dato

da

[ ] [ ] [ ]ZEkEXE ~~~ ⋅=

In tale ambito si può sfruttare un modello mistura (si veda Bühlman et al. [1982],

Gigante et al. [2002]):

[ ] [ ] [ ] [ ] ( ) [ ] ( ) [ ]{ }uZZEuZuZZEuZkEXEXEXE >⋅>+≤⋅≤⋅=+= ~~~Pr~~~Pr~~~~21 (3.2.1)

In questo modo vengono combinate, nell’ipotesi di indipendenza, una distribuzione di

sinistri “ordinari”, cioé al di sotto della soglia u, con una distribuzione a coda pesante

di sinistri “estremi”, cioè oltre la soglia.

Nel modello proposto viene utilizzata la distribuzione empirica per la variabile

aleatoria k~ per i sinistri sia al di sotto che oltre la soglia u (con 789.75]~[ =kE ). Per il

costo del singolo sinistro Z~ viene utilizzata la distribuzione empirica per i sinistri

ordinary, mentre i large claims sono modellizzati con la GPD.

In tale contesto la soglia u gioca un ruolo cruciale nella definizione del danno

atteso. Nella tabella 3.2.3 vengono riportate il numero di eccedenze, il valore atteso

del danno aggregato, rispettivamente, per i sinistri ordinari, ]~[ 1XE , ed estremi, ]~[ 2XE ,

il valore di ]~[XE .

122

Threshold

u

Numero

Empirico di

eccedenze

“Sinistri

Ordinari”

]~[ 1XE

(1)

“Sinistri

Estremi”

]~[ 2XE

(2)

]~[XE

(3) = (1) + (2)

%

(1) / (3)

%

(2) / (3)

300.000 798 4.040.491.341 386.064.706 4.426.556.047 91.28 8.72

225.000 1.568 3.842.540.586 584.530.089 4.427.070.675 86.80 13.20

200.000 2.013 3.748.309.458 678.071.633 4.426.381.091 84.68 15.32

175.000 2.647 3.629.874.209 795.781.523 4.425.655.732 82.02 17.98

150.000 3.656 3.467.447.102 960.978.805 4.428.425.907 78.30 21.70

100.000 7.860 2.961.370.122 1.469.017.923 4.430.388.045 66.84 33.16

Tabella 3.2.3: Il valore del danno atteso al variare della soglia (valori in dollari)

Si osservi come, anche se i valori di ]~[XE non variano eccessivamente al variare di u,

il peso di ]~[ 2XE su ]~[XE cambia in modo significativo. Tale effetto è ovviamente

importante quando si considera ad esempio il ricorso alla riassicurazione e la scelta

della porzione di portafoglio da riassicurare (si veda McNeil [1997], Cerchiara e

Esposito [2005]).

La soglia può essere comunque interpretata come punto di demarcazione tra

sinistri ordinari e large claims. Ed in tal senso che l’applicazione potrebbe essere utile

nel caso esposto nel paragrafo 2.5.2 (si pensi anche al caso del modello proposto dal

SST), dove è stato presentato un modello basato sull’utilizzo dell’EVT, della FFT e

della simulazione.

123

Conclusioni

Il progetto Solvency II è destinato a cambiare profondamente il processo

aziendale delle compagnie di assicurazione della UE, interessando tutti i soggetti

legati al business assicurativo, dall’azionista all’assicurato, dal management

all’autorità di vigilanza. In relazione al futuro sistema di solvibilità, si stanno

sviluppando a livello internazionale i nuovi framework di vigilanza, che tendono

verso la definizione di ratios patrimoniali calibrati sul risk profile delle Compagnie

(risk-based capital requirements).

Si sottolinea inoltre che i nuovi principi contabili internazionali (IAS)

contribuiranno a modificare ulteriormente concetti consolidati in ambito assicurativo,

con l’introduzione, ad esempio, delle riserve sinistri stocastiche, il fair value, ecc.. In

tale contesto emerge quindi la necessità di modelli che consentano di cogliere

efficacemente il risk profile delle compagnie assicurative, in relazione anche a

elementi molto particolari quali l’operational risk.

Tra i più recenti sistemi di analisi del profilo di rischio delle compagnie danni,

oggetto della presente tesi di dottorato, e del sottostante Underwriting Risk si segnala

la particolarità dello Swiss Solvency Test, che si diversifica dagli altri modelli

analizzati, in relazione all’adozione di una misura di rischio come il TVaR e

considera un Capitale Obiettivo (Target Capital) comprensivo del c.d. Risk Margin.

Un aspetto di indubbio interesse ai fini della futura applicazione del progetto

Solvency II è rappresentato dai livelli di intervento utilizzati dall’autorità di vigilanza

americana nel sistema RBC, che però andranno calibrati sulla realtà delle compagnie

assicurative Europee.

124

Successivamente sono stati analizzati alcuni dei differenti approcci utili alla

valutazione della funzione di ripartizione del costo sinistri aggregato di una

compagnia danni, con particolare riferimento all’Extreme Value Theory (EVT), Fast

Fourier Transform (FFT) e ai processi di Simulazione.

In merito alla FFT è stato analizzato il metodo proposto da Wang [1998]

contraddistinto da una velocità di elaborazione superiore rispetto ai metodi simulativi

e a quelli ricorsivi (Panjer [1981]), ma è anche estendibile alla modellizzazione di

variabili multivariate (così come l’approccio simulativo). Come dimostrato in

letteratura tale modellistica presenta alcuni problemi nel caso di un elevato valore del

numero atteso di sinistri e quindi per portafogli con dimensioni elevate. Si segnala

che l’approccio proposto da Heckman e Meyers [1983] di inversione diretta invece

funziona efficientemente nel caso sopra indicato (così come i c.d. metodi

“approssimati” nel caso di asimmetria limitata).

Per quanto concerne il metodo simulativo, esso differisce significativamente

dai precedenti approcci. Un indubbio vantaggio è rappresentato dalla flessibilità, cioè

dal poter articolare e complicare il modello utilizzato (tipica esigenza nel caso degli

Internal Risk Models).

E’ sicuramente meno indicato nel caso di piccoli portafogli dove i metodi esatti

ovviamente rappresentano la metodologia ideale e meno complicata da utilizzare.

L’approccio simulativo é stato applicato ai fini della modellizzazione del costo

sinistri aggregato del ramo RCA italiano su un orizzonte temporale di tre anni,

evidenziando una buona approssimazione dei momenti esatti di tale distribuzione

(stimati dai dati ANIA del 2003).

Successivamente tali risultati sono stati confrontati con quelli ottenuti applicando la

FFT (un anno di sviluppo). Tale metodo sembra più appropriato nel caso, ad esempio,

di modellizzazione dei sinistri oltre una elevata priorità in un trattato excess of loss e

125

quindi con un numero limitato di punti. Si sottolinea infatti che i risultati sono

condizionati anche dalla scelta di una distribuzione del danno aggregato con molti

sinistri di lieve entità, ma con una coda molto lunga: tale elemento condiziona sia i

risultati che i tempi di elaborazioni richiedendo una notevole frammentazione della

distribuzione di partenza del costo del singolo sinistro, in quanto un requisito

essenziale all’applicazione della FFT è la discretizzazione di quest’ultima variabile

aleatoria.

A giudizio dell’autore nell’ambito di modelli con elevata complessità rimane la

preferibilità del metodo simulativo.

L’EVT è stato oggetto di numerosi studi in campo non solo assicurativo, ma

finanziario, geologico, ecc.. Risulta essere una metodologia che si adatta bene a

modellizzare le code delle distribuzioni e anche l’operational risk. Ovviamente la sua

preferibilità rispetto alla metodologie attuariali tradizionali dipende (come per

qualsiasi altro metodo) dal tipo di dati che sono oggetto di analisi.

Nella presente tesi l’EVT è stata applicata su due differenti set di dati: “1998-

2002 Danish Fire Losses”, sulla base del quale è stata dimostrata la teoria e la tecnica

di applicazione, e “1991-1992 SOA Group of Medical Insurance Large Claims”.

Quest’ultimo Database è stato utilizzato per valutare il valore atteso del danno

aggregato attraverso un modello di tipo mistura, evidenziando la significatività della

scelta della soglia ai fini di una corretta valutazione del momento semplice del primo

ordine di tale variabile aleatoria.

Sono state evidenziate anche le problematiche connesse alla valutazione delle

dipendenze nel caso di un modello di solvency assessment, dove è necessario

analizzare la dipendenza tra sinistri di entità ordinaria ed i c.d. “Large Claims”, sulla

base dell’esempio fornito da Homer e Clark [2004] che fornisce un modello basato

sull’utilizzo integrato dell’EVT, della FFT e della simulazione. Infatti la soglia

126

individuata con l’EVT può essere comunque interpretata come punto di

demarcazione tra sinistri ordinari e large claims (come nel caso dello Swiss Solvency

Test). In tale ambito viene utilizzato il metodo della FFT a due dimensioni,

evidenziandone la capacità di modellizzare non solo la distribuzione del costo sinistri

aggregato, ma anche eventuali dipendenze sulle sue singole componenti. Si evidenzia

quindi l’utilità della FFT nel caso di variabili aleatorie bivariate e la possibile

combinazione con la simulazione dei large claims.

I risultati finali non mirano quindi a fornire la preferibilità di un metodo

rispetto agli altri, ma evidenziano, con particolare riferimento alla complessità dei

modelli necessari all’applicazione del nuovo sistema di solvibilità, l’importanza e la

possibilità dell’utilizzo integrato di differenti tecniche ai fini dell’analisi della

distribuzione del costo sinistri aggregato.

127

Appendice A

Il Metodo di inversione Diretta

Heckman e Meyers [1983] hanno applicato l’inversione della FC per la

valutazione della distribuzione del costo sinistri aggregato:

o utilizzando la c.d. piecewise linear function in luogo della effettiva

distribuzione del costo del singolo sinistro, cioè dividendo il range di

variazione della v.a. Z~ in intervalli non necessariamente di uguale ampiezza;

o applicando metodi approssimati di integrazione numerica;

o i rimanenti passi sono simili a quelli previsti per la FFT.

Dal punto di vista implementativo presenta diverse difficoltà comunque superiori

rispetto alla FFT, dato che utilizza metodi di integrazione numerica.

Può comportare errori di stima anche in funzione dell’ampiezza degli intervalli

prescelti per la v.a. Z~ .

Si veda anche Heckman e Meyers [1983] e Klugman et al. [1998] per maggiori

dettagli ed il sito http://www.casact.org/cotor/fftcalc.htm dove viene evidenziato un

interessante confronto tra i metodi diretti di inversione e la FFT.

128

Appendice B

Un procedimento nel caso dei singoli costi sinistri considerati come variabili

aleatorie indipendenti, ma non necessariamente con la stessa distribuzione

Sul piano formale il calcolo della distribuzione del danno aggregato non

presenta alcun problema, mentre le difficoltà nascono sul piano applicativo, data

l’onerosità del calcolo stesso. Infatti tutta la letteratura innanzi citata, si occupa di

ricercare delle metodologie per il rapido calcolo della formula in questione. In questa

appendice viene evidenziata, nell’ambito di un approccio collettivo, un’altra tecnica

per definire la distribuzione del danno aggregato (Ferrara et al. [1996]).

Si ipotizzi di conoscere le distribuzioni delle variabili aleatorie che definiscono

l’ammontare del danno del primo sinistro, del secondo sinistro, ..., del k-esimo

sinistro, supposte mutuamente indipendenti, ma non necessariamente con la stessa

distribuzione, ed inoltre si assuma di poter calcolare facilmente le probabilità che si

verifichino un determinato numero di sinistri.

Si indichi con ~Z 1,~Z 2,...,

~Z i,...,~Z k le variabili aleatorie mutuamente indipendenti

(ed in numero finito), rappresentanti l’ammontare del danno conseguente al primo

sinistro, al secondo sinistro, ecc., fra i possibili sinistri che possono verificarsi in un

periodo di tempo. Sotto determinate ipotesi5, una volta noti i primi due momenti di

ciascuna variabile aleatoria ~Z i, è possibile calcolare i primi due momenti della

variabile aleatoria somma nk ZZZY ~...~~~

21)( +++= , e quindi della distribuzione del

danno cumulato.

Sfruttando ulteriori ipotesi per la variabile aleatoria numero sinistri (Poisson o

Binomiale), vengono calcolate anche i primi due momenti della generica variabile

5 Si veda C. Ferrara et al. [1996] per maggiore dettaglio.

129

aleatoria danno aggregato, ~X , che risulta da una mistura delle variabili )(~ kY con

coefficienti pk. In tal modo, senza dover ricorrere alla convoluzione, si ottengono i

momenti primo e secondo:

[ ] [ ][ ] ( )[ ]∑

=

=

=

=

K

k

kk

K

k

kk

YEpXE

YEpXE

0

2)(2

0

)(

~

~

(B.1)

con K infinito nel caso della Poisson, K finito per la Binomiale.

Tale procedimento si basa sulla ricerca di insiemi ridotti (trascurando gli

elementi meno significativi dal punto di vista attuariale), sia per il numero di sinistri,

che per l’ammontare del danno, che consentono di determinare la funzione di

ripartizione ed i relativi valori caratteristici (momenti primi e secondi) del danno

aggregato, in modo analiticamente approssimato. L’aver considerato tale

impostazione come calcolo “esatto” non costituisce un controsenso, poiché questo

procedimento è, infatti, di tipo approssimato, ma con prefissati limiti superiori degli

errori di approssimazione; gli errori massimi sulla funzione di ripartizione convoluta,

sul momento primo e secondo risultano essere inferiori a 10-6, ottenendo risultati,

quindi, che possono essere considerati “esatti”. Infatti le probabilità che in genere

vengono utilizzate in ambito attuariale per le concrete valutazioni, sono generalmente

espresse, al più, con sei cifre decimali; pertanto il calcolo delle effettive distribuzioni

di probabilità della somma di variabili aleatorie, con valutazioni precise fino alla

sesta cifra decimale è da considerarsi esatto (cfr Ferrara et al. [1996]).

Occorre evidenziare, innanzitutto, la validità del procedimento (B.1) per

qualsiasi distribuzione del numero di sinistri. Ciò deriva dal fatto che, in tale ambito

viene considerato prima lo sviluppo di pk, al fine di individuare i punti in cui le

130

probabilità sono significative. Diversa è la logica delle formule ricorrenti riferite allo

sviluppo di Panjer.

In termini di applicazioni, possono essere valutate sia distribuzioni del numero

sinistri già eseguite in letteratura con altri procedimenti (Poisson, ipergeometrica,

ecc.), sia distribuzioni composte (Poisson e Gamma, Pareto e Poisson, ecc.). In ogni

caso i valori di pk che risultano in genere significativi, sono limitati a poche decine di

unità, confermando, così, l’idea di trascurare i valori non influenti praticamente sulla

misura della probabilità dell’ammontare globale del danno, cioè l’ipotesi che è alla

base del metodo seguito. In queste applicazioni vengono sfruttate, come “controllo

esterno” della convoluzione degli ammontari di un sinistro, delle formule fondate

sulle trasformate nel discreto.

Ferrara et al. [1996] forniscono un’interessante applicazione in questo ambito.

Ammontari Poisson Bin.Neg. Ammontari Poisson Bin.Neg.

minore o uguale minore o uguale 0 0,00789 0,01226 400 0,95725 0,94408

20 0,01522 0,02169 420 0,95952 0,957940 0,02977 0,03857 440 0,97834 0,9683960 0,06744 0,08484 460 0,98473 0,9767280 0,09966 0,11941 480 0,9895 0,98267

100 0,14549 0,16762 500 0,99283 0,98735120 0,21992 0,24441 520 0,99514 0,99081140 0,28118 0,30365 540 0,99677 0,99339160 0,35175 0,37123 560 0,99787 0,99529180 0,44134 0,45614 580 0,99861 0,99666200 0,51302 0,52219 600 0,9991 0,99764220 0,58426 0,58781 620 0,99943 0,99836240 0,66095 0,65841 640 0,99964 0,99886260 0,72071 0,71348 660 0,99977 0,99921280 0,77394 0,76307 680 0,99986 0,99946300 0,82462 0,81074 700 0,99991 0,99953320 0,86308 0,84778 720 0,99995 0,99975340 0,89457 0,87884 740 0,99997 0,99983360 0,92177 0,90623 760 0,99998 0,99989380 0,94187 0,92731 780 0,99999 0,99992

Tabella B.1 Funzione di ripartizione del danno aggregato Grafico 1 con due diversi modelli del numero sinistri

Se si considera la distribuzione dell’ammontare di un sinistro, con opportune

modifiche, presentata da Panjer e Willmot [1992], pag.178, e se si assume come

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0

140

280

420

560

700

Pois s on

Bin.Neg.

131

parametri per le distribuzioni del numero sinistri λ=4,841423259 (Poisson) e

r=23,43937917, α=0.2065508316 (Binomiale Negativa), per un collettivo di 1.440

unità, applicando il procedimento degli insiemi ridotti, viene ottenuta la distribuzione

del danno cumulato (identica a quella presentata in Panjer e Willmot [1992], pag.208)

nella Tabella 1 (ammontari in unità convenzionali). Si noti che applicando il

procedimento proposto si ricavano ulteriori valori corrispondenti ad ammontari del

danno non previsti nel detto sviluppo presentato Panjer e Willmot [1992].

La media é 207,25 per entrambi le distribuzioni del numero dei sinistri, mentre

lo s.q.m. é 102,602 per la Poisson e 111,156 per la Binomiale negativa.

132

Bibliografia

Balkema A., De Haan L. [1974], Residual Life Time at Great Age, Annals of Probability 2, 792-804 Basel Committee (2001): The New Basel Capital Accord - 2nd Consultative Paper (www.bis.org/bcbs) Beard R.E., Pentikäinen T., Pesonen E. [1984], Risk Theory, 3rd edition, Chapman & Hall, London and New York Berlaint J., Matthys G. , Dierckx G. [2001], Heavy tailed distributions and rating, Astin Bulletin 2001 CEA and Mercer Oliver Wyman [2005], Essential groundwork for the Solvency II Project, www.cea.assur.org Cebrian A., Denuit M., Lambert P. [2003], Generalized Pareto fit to the society of actuaries large claims database, North American Actuarial Journal, vol. 7, n°3, Luglio. CEIPOS [2003-2005]: Documenti Vari, in www.ceiops.org Cerchiara R. R. [2003], Un primo approccio verso la definizione della relazione tra pricing e solvibilità del ramo RCA, Rapporto Scientifico AMASES, n° 22 Cerchiara R. R. [2005], Bonus Malus Systems and Risk Reserve In Automobile Insurance, Atti del XII Convegno di Teoria del Rischio, Università del Molise, Campobasso Cerchiara R. R., Esposito G. [2005], Extreme value theory: the choice of threshold for rating and reinsurance, Quaderni del Dipartimento di Scienze Statistiche Attuariali, Università La Sapienza, Roma Cerchiara R. R., Esposito G. [2005], The Extreme Value Theory and the Risk Reserve in non life insurance companies, presentato al VIII Italian-Spanish Meeting On Financial Mathematics, Verbania, 2005 ed in corso di pubblicazione in Annali n° 11, Università del Sannio, Benevento Clemente G., Parrini C. [2005], An analysis of the claim distribution for fire risk with regard to industrial sector, in corso di pubblicazione

133

Cooray K. e Ananda M. [2005], Modelling actuarial data with composite lognormal-Pareto model, Scandinavian Actuarial Journal, 5, 321-334 Conigliani C., Tancredi A. [2004], Semi-parametric modelling for costs of health care technologies, Statistics in Medicine. Corradin S. [2002], Economic Risk Capital and Reinsurance: an Extreme Value Theory’s Application to Fire Claims of an Insurance Company, Astin Bullettin. Cruz M. G. [2002], Modeling, measuring and hedging operational risk Daboni L. [1993], Lezioni di tecnica attuariale delle assicurazioni contro i danni, Ed. Lint, Trieste Daykin C. D., Pentikainen T., Pesonen M. [1994], Practical risk theory for actuaries, Chapman and Hall, London Embrechts P., Kluppelbrg C., Mikosch T. [1997], Modelling extremal events, Springer Verlag, Berlin Embrechts P. [2005], Quantifying Regulatory Capital for Operational Risk: Utopia or Not, 75° Anniversario dell’Istituto Italiano degli Attuari, Giornata di studio ”Il sistema di Solvibilità II”, Roma Embrechts P., Frey R., McNeil J. A. [2005], Quantitative Risk Management, Princeton Series in Finance, Princeton Federal Office of Private Insurance [2004], White Paper of the Swiss Solvency Test, Novembre 2004, www.bpv.admin.ch . Ferrara C., Manna A., Tomassetti A. [1996], Teoria del rischio per un collettivo: un procedimento per il calcolo “esatto” della distribuzione globale del danno, Giornale dell’Istituto Italiano degli Attuari, Vol. LIX FSA & Watson Wyatt [2003], Calibration of the general insurance risk based capital model FSA [2003], Enhanced capital requirements and individual capital assessments for non-life insurers, Consultation Paper 190 FU L., Mutual G., Moncher R., West B. [2004], Severity distribution’s for GLM’s: Gamma or Lognormal?, CAS Spring Meeting, Colorado

134

Gigante P., Picech L., Sigalotti L. [2002], Rate making and large claims, ICA September 2002 Gigante P., Picech L., Sigalotti L. [2003], A model to evaluate bonus-malus systems by recursive procedures, Giornale dell’Istituto Italiano degli Attuari, LXIV (1-2), 85-107 Heckman P.E. & Meyers G. [1983], The calculation of aggregate loss distributions from claim severity and claim count distributions, Casualty Actuarial Society, PCAS LXX Hogg R.V., Klugman S. [1984], Loss distributions, Ed. John Wiley & Sons, New York Homer D. L., Clark D. R. [2004], Insurance Applications of Bivariate Distributions, CAS Forum, IAA Insurer Solvency Assessment Working Party [2004], A Global Framework for Insurer Solvency Assessment, Giugno 2004 ISVAP [1999], Il margine di solvibilità delle imprese di assicurazione: confronto tra i sistemi europeo ed americano, Quaderno ISVAP n. 6 Klugman S., Panjer H., Willmot G. [1998], Loss Models - From Data to Decisions, John Wiley & Sons, New York, First Edition Klugman S., Panjer H., Willmot G. [1998], Loss Models - From Data to Decisions, John Wiley & Sons, New York, Second Edition KPMG Report [2002], Study into the methodologies to assess the overall financial position of an insurance undertaking from the perspective of prudential supervision, European Commission Lemaire J. [1995], Bonus-Malus Systems in Automobile Insurance, Kluwer Academic Publishers McNeil A. [1997], Estimating the tails of the loss severity distributions using extreme value theory, ASTIN Bulletin, 27, 117-137 Meyers G. [1999], Discussion Paper about “Aggregation of correlated risk portfolios: models and algorithms” by Wang S.S. [1998], PCAS LXXXVI Meyers G. [2005], On predictive Modelling for Claim Severity, CARe Seminar

135

Moscadelli M. [2004]: The modelling of operational risk: experience with the analysis of the data collected by the Basel Committee, Temi di discussione Banca d’Italia, n. 517 Műller Working Party [1997], Solvency of insurance undertakings, Report of the EU Insurance Supervisory Authorities Panjer H. e Willmot G. [1992], Insurance Risk Models, Society of Actuaries Pentikainen T. [1987], Approximative Evaluation of the Distribuction Function of Aggregate Claims, Astin Bullettin, Vol.17, N. 1 Pentikainen T., Rantala [1999], “Risk Theory”, Seminario Istituto Italiano degli Attuari, 20/04/1999 Pickands J. [1975], Statistical Inference Using Extreme Order Statistics, Annals of Statistics 3, 119-131 Rytgaard M. [2005], A Mixed Poisson Process from Real Life, Reykjavik, 18-21 Giugno 2005 Robertson J. P. [1983], The Computation Of Aggregate Loss Distributions, PCAS LXXIX Savelli N. [2002], Solvency and Traditional Reinsurance for non-life insurance, Atti del IX Convegno di Teoria del Rischio, Università del Molise, Campobasso. Savelli N. [2003], A Risk Theoretical Model For Assessing The Solvency Profile of a General Insurer, Proceedings of XXXIV ASTIN Colloquium, Berlin. Rytgaard M. e Savelli N. [2004], Risk-Based Capital Requirements For Property And Liability Insurers According To Different Reinsurance Strategies And The Effect On Profitability, Proceedings of XXXV Astin Colloquium, Bergen. Savelli N. [2005], Il Rischio Operativo nelle Banche: Metodologie di valutazione e strumenti di copertura assicurativa, Università Cattolica, Milano Savelli N. [2005], Solvency II e Internal risk models, Seminario SIFA, Milano. Sigma [2000], Solvency of non-life insurers:Balancing security and profitability expectations, Swiss Re, n. 1, 2000 Wang S.S. [1998], Aggregation of correlated risk portfolios: models and algorithms, PCAS LXXXV

136

Ringraziamenti

Ringrazio mia moglie per il suo continuo, costante e instancabile sostegno durante

questo mio percorso così articolato.

Ringrazio il Prof. Savelli N. per avermi costantemente supportato nella preparazione

della presente tesi e lungo tutto il mio percorso universitario.

Infine un sentito grazie, oltre che all’attuale coordinatore Prof. Grasso F., alla

Prof.ssa Vitali L. che ha accompagnato i miei “esordi” nell’ambito del dottorato,

stimolandomi nella mia attività di ricerca e fornendomi sempre utili consigli.