TESI GIOVANNI DALLA CASA

247
Università degli Studi di Roma "Tor Vergata" Facoltà di Economia Corso di laurea in Economia e gestione degli Intermediari Finanziari Tesi in Modelli e Tecniche di gestione dei Rischi Il Value at Risk: metodologie, applicazioni e un caso empirico Anno accademico 2012/13 Il Relatore Chiar.mo Prof. Ugo Pomante Firma Il laureando Giovanni Dalla Casa Firma

Transcript of TESI GIOVANNI DALLA CASA

Università degli Studi di Roma "Tor Vergata"

Facoltà di Economia

Corso di laurea in

Economia e gestione degli Intermediari Finanziari

Tesi in Modelli e Tecniche di gestione dei Rischi

Il Value at Risk: metodologie, applicazioni e un caso empirico

Anno accademico 2012/13

Il Relatore

Chiar.mo Prof. Ugo Pomante

Firma

Il laureando

Giovanni Dalla Casa

Firma

“le guerre, si combattono con le armi

ma sono gli uomini a vincerle!”

Generale George Smith Patton, il Generale d‟acciaio.

I

Indice

INTRODUZIONE .............................................................. 1

CAPITOLO 1.

Il Rischio di Mercato e il Value at Risk: definizione

1.1 Il rischio di mercato e il Value at Risk: definizione ............................ 4

1.1.1 Impiego dei modelli VaR .......................................................................... 7

1.2 I limiti del VaR ...................................................................................... 11

CAPITOLO 2.

Approcci di stima del Value at Risk

2.1 I modelli di Local valuation .................................................................. 18

2.1.1 L‟approccio Varianze e Covarianze ........................................................ 19

2.1.1.1 Il calcolo del VaR con l‟approccio Varianze-Covarianze:

I modelli Asset-Normal e i modelli Delta-Normal ............. 30

2.1.1.2 Il risk mapping ................................................................... 34

2.1.2 La stima della volatilità e della correlazione ............................................. 37

2.1.2.1 La volatilità e la correlazione semplice ed esponenziale .. 39

2.1.2.2 I modelli GARCH ............................................................... 47

II

2.2 I modelli di Full Valuation ................................................................... 54

2.2.1 L‟approccio Monte Carlo ........................................................................ 54

2.2.1.1 La stima di un titolo ........................................................... 55

2.2.1.2 La stima di portafoglio ...................................................... 56

2.2.2 Il modello delle simulazioni storiche ...................................................... 59

2.2.2.1 La stima per un portafoglio ............................................... 60

2.2.2.2 Le modifiche all‟approccio Serie Storiche ........................ 62 e l‟approccio ibrido

2.3 Confronto ............................................................................................... 68

2.4 I modelli “alternativi”: il CoVaR, l‟Expected Shortfall, il CAViaR.75

2.4.1 Il CoVaR ................................................................................................. 75

2.4.1.1 Il calcolo del CoVar: quali soluzioni? ............................... 81

2.4.2 L‟Expected Shortfall ............................................................................... 83

2.4.2.1 Le misure di rischio coerenti ............................................. 84

2.4.3 Il CAViaR ............................................................................................... 87

CAPITOLO 3.

Il Var e la sua applicazione: i requisiti patrimoniali

imposti da Basilea a fronte dei rischi di mercato

3.1 L‟impiego del VaR a fini regolamentari:

Il Market Risk Amendment ................................................................. 90

III

3.2 I modelli di backtesting ......................................................................... 96

3.2.1 Test di Unconditional Coverage: POF (Proportion of Failures) e

TUFF (Time until First Failure) ............................................................ 101

3.2.2 Test di indipendenza: il test di Markov ................................................. 103

3.2.3 Test di Conditional Coverage: il test di previsione dell'‟intervallo

e il Mixed-Kupiec test ........................................................................... 106

3.2.4 Test basati sulla funzione di perdita ...................................................... 108

3.3 Il backtesting Basilea ............................................................................ 114

3.4 Basilea II ................................................................................................. 120

CAPITOLO 4.

Il VaR e gli shock di mercato: il caso empirico

4.1 L‟analisi empirica: premessa ............................................................. 125

4.1.1 I modelli selezionati .............................................................................. 125

4.1.2 Il campione adoperato ........................................................................... 126

4.1.3 Gli indici di mercato adoperati .............................................................. 152

4.1.4 Gli shock osservati ................................................................................ 153

IV

4.2 Lo studio dei risultati ottenuti: la ricerca del modello ottimo ........ 161

4.2.1 Il modelli Varianze-Covarianze “ordinari” ........................................... 162

4.2.2 Il VaR e la volatilità: i modelli EWMA e GARCH .............................. 172

4.2.3 Simulazioni Storiche ............................................................................. 184

4.3 Lo studio dei risultati ottenuti:

le anomalie dei modelli Value at Risk ............................................... 191

4.4 Risultato dello studio........................................................................... 198

CONCLUSIONI .............................................................. 200

Appendice A .................................................................................. 202

Appendice B .................................................................................. 205

Appendice C .................................................................................. 212

Appendice D .................................................................................. 215

Appendice E .................................................................................. 225

V

BIBLIOGRAFIA .......................................................................... 231

SITOGRAFIA .............................................................................. 239

RINGRAZIAMENTI ................................................................... 241

1

INTRODUZIONE

Il rischio, nella sua accezione più generica, è inteso come la possibilità che si verifichi un

evento in un determinato luogo e in un determinato momento, e che tale evento danneggi il

soggetto su cui il rischio insiste.

La gestione del rischio, quindi, è un fenomeno che interessa qualunque soggetto, economi-

co e non, nello svolgimento delle proprie attività.

In ambito finanziario, il rischio assume diverse dimensioni e coinvolge diversi ambiti, e ciò

comporta lo svolgimento di operazioni tipicamente connesse al rischio (trasferimento del

rischio, sottrazione dallo stesso, mitigazione o accettazione) e l‟esposizione ad una molte-

plicità di fattori, che conducono a conseguenze sfavorevoli e non.

Nel proposito di identificare i rischi cui un intermediario è soggetto, non si può non consi-

derare il contributo del Comitato di Basilea, e precisamente il regolamento attualmente in

vigore, l‟Accordo di Basilea II, il quale definisce e circoscrive i rischi a cui gli intermediari

sono esposti.

In tal senso, Basilea II individua innanzitutto i rischi di Primo Pilastro, in altre parole quei

rischi misurabili, sempre annoverati nell‟attività di un intermediario finanziario, e in quan-

to tali, oggetto di disciplina peculiare circa la stima degli stessi e l‟accantonamento di capi-

tale:

- Rischio di credito: s‟intende il rischio di subire una perdita nella propria esposizione

a causa del deterioramento del merito creditizio del debitore;

- Rischio di mercato: cioè il rischio di subire una perdita a causa di fluttuazioni del va-

lore di mercato dei titoli in portafoglio o a causa della variazione di valore di variabi-

li che impattano sui titoli stessi (c.d. risk factor);

- Rischio operativo: ovvero la possibilità di subire perdite derivanti dall'inadeguatezza

o dalla disfunzione di procedure, risorse umane e sistemi, oppure da eventi esogeni.

A tali rischi si annettono i rischi di Secondo Pilastro, vale a dire una pluralità di altri rischi

oggetto di una valutazione quali-quantitativa, cui fanno parte, tra gli altri, il rischio di tasso

2

d‟interesse nel “banking book”, il rischio di liquidità, il rischio di concentrazione, il rischio

reputazionale e il rischio di compliance.

Ai fini di questo lavoro, l‟attenzione si concentrerà sul rischio di mercato, prestando parti-

colare attenzione al principale approccio di misurazione della perdita derivante da un va-

riazione del valore di mercato dei titoli: il Value at Risk.

Dagli inizi degli anni ‟70, infatti, fenomeni quali l‟aumento della volatilità delle principali

variabili di mercato, il crack di molte grandi società finanziarie e non e la sempre maggiore

diffusione dei contratti derivati imponevano la creazione di metodi di analisi e quantifica-

zione del rischio sempre più efficienti e trasparenti.

La soluzione al dilemma non tardò ad arrivare: negli anni ‟90 la banca d‟affari J.P. Morgan

implementò un metodo che in singolo valore incorporava l‟esposizione per ogni trading

desk dell‟intermediario, il VaR.

Non passò molto tempo prima che il VaR diventasse punto di riferimento per ogni società

esposta a qualsiasi rischio di mercato e per le stesse autorità di vigilanza, che con il Market

Risk Amendment del 1996 introdussero ufficialmente il metodo tra gli approcci di valuta-

zione del rischio di mercato.

Nonostante la sua realizzazione risalga a molti anni fa, il VaR continua a rappresentare il

punto di riferimento per gli operatori finanziari di tutto il mondo, i quali proseguono

l‟attività di implementazione del modello originale, al fine di definire metodi sempre più

sensibili alle variabili di mercato

Focalizzando l‟attenzione su questo lavoro, nella prima parte si descriveranno i principali

impieghi dei modelli VaR, focalizzando l‟attenzione sulle principali anomalie che accom-

pagnano tale modello.

Proseguendo lo studio, la seconda parte analizzerà i tre metodi di misurazione del rischio

di mercato secondo l‟approccio VaR: il metodo Varianze-Covarianze, il metodo delle Si-

mulazioni Storiche e il metodo Monte Carlo, specificando le varianti create per ognuno di

essi, le caratteristiche, i vantaggi e le problematiche che li accompagnano, con un successi-

vo accenno a modelli alternativi al VaR.

3

Nella terza parte ci si avvicinerà al caso più importante di applicazione di tali modelli: la

stima del rischio di mercato e il conseguente obbligo di accantonamento di capitale, secon-

do quanto definito da Basilea II.

Nella stessa sezione, si delineeranno i backtesting VaR, cioè quei metodi, previsti dal se-

condo Accordo sul capitale, utilizzati per giudicare le capacità estimative degli approcci

Value at Risk.

Nell‟ultima parte si adotterà un orientamento prettamente empirico: con l‟impiego di tre

differenti portafogli, espressione del mercato italiano, tedesco e francese, si verificheranno

le capacità di fitting di svariati modelli VaR, durante le turbolenze finanziarie dell‟ultimo

decennio.

4

CAPITOLO 1.

Il Value at Risk: definizione ed evoluzione

"VaR was developed to provide a single number which could encapsulate information

about the risk in a portfolio”1

1.1 Il rischio di mercato e il Value at Risk: definizione

Qual è la massima perdita che posso conseguire da un investimento?

Le istituzioni finanziarie e chiunque svolga un‟operazione nei mercati finanziari si pone

questa domanda.

Prima di poter dare una risposta, bisogna specificare che un‟attività finanziaria, o un porta-

foglio di attività finanziarie, è principalmente esposto ad un rischio di mercato: per rischio

di mercato si intende il rischio di variazioni del valore di mercato di uno strumento o di un

aggregato di strumenti finanziari connesse a variazioni inattese delle condizioni di merca-

to2.

Questo rischio, a sua volta, si compone di cinque varietà di rischi:

rischio azionario: il valore di mercato di un‟azione è sensibile all‟andamento (rial-

zo/ribasso) del mercato azionario di riferimento (titoli azionari, stock option etc..);

rischio di interesse: il valore degli investimenti di natura obbligazionaria è sensibile

alla variazione della curva dei tassi di interesse;

rischio di cambio: il valore di mercato delle posizioni in valuta è sensibile

all‟andamento dei tassi di cambio (titoli obbligazionari, derivati Fra, Interest Rate

Swap etc..);

rischio merci: esprime perdite sul valore delle posizioni dovute a fluttuazioni sul

corso delle commodities;

rischio di volatilità: il valore di mercato delle posizioni è sensibile alle variazioni

della volatilità delle variabili considerate sopra.

1 Barry Schachter, Chief Risk Officer at Woodbine Capital Advisors

2 I risk factor che a loro volta implicano un rischio di mercato verranno discussi in seguito.

5

L‟innovazione finanziaria in atto e i dissesti finanziari3 che hanno coinvolto l‟economia

mondiale negli anni „90 hanno portato all‟attenzione delle società finanziarie e delle istitu-

zioni sovranazionali il fenomeno del rischio e, in particolar modo, del rischio di mercato.

Tuttavia, già dagli anni ‟80 l‟interesse verso il rischio di mercato è cresciuto esponenzial-

mente, anche a causa di fenomeni quali:

1. L‟evoluzione finanziaria, che ha avuto la sua massima espressione col processo di secu-

ritization, cioè di cartolarizzazione del credito, che ha trasformato attività illiquide (i credi-

ti) in strumenti finanziari negoziabili, e quindi sensibili al rischio di mercato;

2. La nascita degli strumenti finanziari derivati, sensibili alla volatilità delle attività sotto-

stanti;

3. Il generale aumento della volatilità di variabili finanziarie fondamentali;

4. La globalizzazione dei mercati finanziari e di conseguenza l‟accentuata interdipendenza

tra gli stessi;

5. L‟imposizione di requisiti regolamentari e di standard contabili che tengano conto dei

valori di mercato. Tra i primi si annoverano i requisiti di patrimonializzazione imposti da

Basilea II, relativi all‟obbligo di computare il rischio di mercato nella determinazione del

capitale minimo, tra i secondi si considerano i principi contabili IFRS (International Finan-

cial Reporting Standards) che impongono l‟inscrizione in bilancio di alcune poste al valore

di mercato.

I modelli Value at Risk rappresentano lo standard per la quantificazione del rischio, o, più

precisamente, della perdita derivante dal manifestarsi di tale rischio.

Fondamentalmente il VaR è definito come “la massima perdita potenziale in un portafoglio

di strumenti finanziari, limitatamente ad un dato intervallo di confidenza e a un definito o-

rizzonte temporale”4.

L‟enunciato mette in luce due importanti aspetti dell'approccio VaR:

Il VaR “traduce” l‟impatto dei risk factor in perdita.

In questo modo è possibile paragonare strumenti finanziari differenti tra loro, ren-

dendo quindi confrontabili i risk factor associati ai titoli.

3 Tra i casi più eclatanti si ricorda il caso della banca inglese Barings: nel ‟92 (poco prima dell'‟introduzione

dei modelli VaR), il trader Nick Leeson cominciò a svolgere operazioni non autorizzate sull'‟indice Nikkei.

Alla fine del ‟92 le perdite avevano superato i 2 mln di sterline, e a fine ‟94 avevano toccato quota 208 mln.

Un‟ ulteriore esposizione al rialzo portò le perdite a 827 mln. 4 S.Magarelli, R.Engle Value at risk models in Finance; 2001

6

Rispetto ad altre misure di rischio (duration, convexity, beta e le “greche”) il VaR

riesce a sintetizzare in un singolo valore monetario la probabile perdita che scaturi-

sce da diverse posizioni assunte dall‟intermediario (posizioni in valuta, posizioni in

titoli obbligazionari e/o azionari) e dunque da diversi risk factor.

Quindi oltre all'essere un indice immediato del rischio di un portafoglio, il VaR cat-

tura l'esposizione globale di un soggetto a varie fonti di rischio presenti nel portafo-

glio stesso, e ovviamente introduce nel computo la correlazione tra tali fattori.

In ogni modello VaR, la definizione della perdita inattesa si estende su tre step5:

1) Individuare/definire i fattori di rischio che influenzano il portafoglio;

a) ipotizzarne l‟andamento futuro costruendo una distribuzione di probabilità.

2) Definire la relazione tra il valore assunto dal singolo strumento finanziario e il valore

assunto dal relativo fattore di rischio

a) Costruire una distribuzione di probabilità dei rendimenti futuri del portafoglio.

3) Esprimere la distribuzione di probabilità dei rendimenti futuri del portafoglio una misu-

ra di rischio, il VaR, che individua la perdita potenziale realizzabile con una probabilità

del c%, dove c è il livello di confidenza (vedi figura 1.1).

5 Vedi anche C. Pederzoli; C. Torricelli Una rassegna sui metodi di stima del value at risk (VaR) Dipartimento di

Economia Politica - Università degli Studi di Modena e Reggio Emilia

7

Figura 1.1: esempio di calcolo del VaR.

Fonte: <www.chicagofed.org>

1.1.1 Impiego dei modelli VaR

All‟interno del mondo finanziario il VaR è diventato il punto di riferimento per soddisfare

qualunque bisogno inerente la valutazione e l‟analisi dell‟esposizione al rischio, ed in ge-

nerale è molto apprezzato per la sua semplicità e immediatezza.

Pertanto, i modelli VaR trovano impiego per:

Confronto fra rischi diversi.

Come già accennato, i modelli VaR rendono confrontabili rischi differenti, dando la

possibilità di utilizzare un “linguaggio del rischio” omogeneo tra le diverse aree

d‟affari della banca.

Questo rende comparabili i diversi desk o, analogamente, le diverse alternative di

impiego del capitale, consentendo un‟allocazione dello stesso orientata a mercati

più redditizi e/o caratterizzati da condizioni di minore volatilità6.

L‟imposizione dei limiti all‟assunzione del rischio.

In un‟ottica “risk-based”, la banca può essere vista come un‟istituzione che assume

e gestisce una pluralità di rischi, traendone un profitto.

6 Questa seconda affermazione non è sempre valida: difatti la volontà della banca di orientarsi verso mercati

meno volatili, e quindi meno rischiosi, dipende da una serie di fattori, primo fra tutti l'avversione al rischio

della banca.

8

In quest‟ottica, il VaR misura il rischio totale assumibile dalla banca, la quale lo ri-

partisce più o meno equamente tra i differenti desk, quantificando in questo modo il

valore massimo di rischio assumibile dalle diverse aree operative

dell‟intermediario.

Di fatto, si suole distinguere tra più misure nella ripartizione del capitale di rischio.

In particolare, il Capitale a Rischio7 (o CaR) disponibile, individua l‟intero ammon-

tare di capitale che la banca utilizzerà per far fronte alle future perdite inattese; que-

sto capitale viene ripartito in Capitale Allocato tra i differenti desk, e rappresenta

dunque il massimo valore di perdita inattesa assumibile dall'area operativa.

Durante l‟esercizio, le perdite inattese genereranno un assorbimento di capitale;

questo capitale, che viene denominato CaR assorbito o utilizzato, rappresenta la

quota di capitale allocato effettivamente adoperata.

Quindi, ai fini della ripartizione del capitale a rischio appare immediata la distin-

zione tra il capitale a rischio allocato, cioè il capitale dell'‟intermediario ex ante e

il capitale a rischio assorbito/utilizzato, in altre parole il capitale ex post8.

Costruzione di risk-adjusted performance measurement (misure di performance corrette

per il rischio).

Misure di redditività risk-adjusted determinano il risultato economico della posi-

zione, del desk, di un‟area o dell'intera banca, incorporando all‟interno dell'indica-

tore stesso il “fattore rischio” che l‟area ha assunto.

È immediato constatare che generalmente l‟aumento del rischio assunto, o

l‟incremento dell‟ esposizione al rischio conduce ad una maggiore redditività.

Quindi, in sostanza, le misure di redditività corretta per il rischio sono ottenute co-

me un rapporto tra l‟utile e rischio stesso, quest‟ultimo espresso come CaR.

Su questa impronta sono nate le misure RAPM, risk adjusted performance measu-

rement (indicatori di performance aggiustati per il rischio) tra questi l‟indicatore

7 Da qui in poi si parlerà indifferentemente di CaR o Var, in quanto per definizione il CaR è la quantità di ca-

pitale allocata per far fronte a perdite inattese, ma a ben vedere la misura delle perdite inattese ci è data dal

VaR.

Lo stesso F. Albergo, afferma che “Se le perdite devono essere assorbite dal capitale proprio, il concetto di

VaR si trasforma in una misura del capitale a rischio (CaR)” Cfr. F. Albergo, Strumenti di controllo e analisi

del rischio; 2011. 8 G. Lanci; I sistemi di controllo nelle banche; Aracne editore; 2006

9

maggiormente utilizzato è il Raroc9, risk adjusted return on capital (reddito corretto

per il rischio rapportato al capitale) ottenuto come:

𝑅𝑎𝑟𝑜𝑐𝑒𝑥 𝑎𝑛𝑡𝑒 =𝑈𝑡𝑖𝑙𝑒

𝐶𝑎𝑅𝑒𝑥 𝑎𝑛𝑡𝑒

utilizzando il VaR (o Car) allocato, o come:

𝑅𝑎𝑟𝑜𝑐𝑒𝑥 𝑝𝑜𝑠𝑡 =𝑈𝑡𝑖𝑙𝑒

𝐶𝑎𝑅𝑒𝑥 𝑝𝑜𝑠𝑡

utilizzando il VaR assorbito.

In particolare, al fine di rendere omogenee le due grandezze dell'indicatore (utile e

CaR), sarebbe preferibile inserire nel calcolo il CaR assorbito, considerando che il

CaR allocato esula dalle competenza della management del desk e quindi diverreb-

be una variabile non gestibile per la direzione.

Tuttavia l‟utilizzo di tale indicatore può portare a distorsioni nel calcolo della reddi-

tività, basti pensare che il management sarebbe incentivato a ridurre il capitale as-

sorbito (riducendo quindi il rischio assunto) per ottenere un valore maggiore

dell'indicatore.

Per rimediare a questo inconveniente, la prassi suole utilizzare un indicatore basato

sul capitale allocato, ma combinazione di differenti fattori

𝑅𝑎𝑟𝑜𝑐 = 𝑈𝑡𝑖𝑙𝑒

𝐶𝑎𝑅𝑎𝑠𝑠𝑜𝑟𝑏𝑖𝑡𝑜∙𝐶𝑎𝑅𝑎𝑠𝑠𝑜𝑟𝑏𝑖𝑡𝑜𝐶𝑎𝑅𝑎𝑙𝑙𝑜𝑐𝑎𝑡𝑜

Tale indicatore evidenzia la redditività conseguita a fronte dei rischi assunti (uti-

le/CaR assorbito) e la percentuale di patrimonio effettivamente utilizzato (CaR as-

sorbito/CaR allocato).

9

Altri indicatori della “famiglia” RAPM sono il Rorac, return on risk adjusted capital (reddito su capitale

corretto per il rischio) e il Rarorac, risk adjusted return on risk adjusted capital (reddito aggiustato per il ri-

schio su capitale corretto per il rischio).

10

Quindi, un sistema di Risk Management orientato alla misurazione del rischio, si

sviluppa in tre fasi10

:

1. Misurazione del rischio: alla Risk Measurement Unit è affidato il compito di mi-

surazione del rischio, mentre la Risk Control Commitee verificano la corretta al-

locazione delle risorse.

2. Misurazione delle Risk Adjusted Performance

3. Riallocazione del capitale svolta dalla Risk Control Commitee, al fine di miglio-

rare il complessivo profilo di rischio-rendimento.

Definizione del requisito minimo patrimoniale nell‟ambito della regolamentazione ban-

caria11

.

Il Comitato di Basilea ha fatto proprie le metodologie VaR per il calcolo del rischio

di mercato: attualmente l‟organo di vigilanza ha autorizzato le banche ad adottare

propri modelli VaR per il calcolo del requisito patrimoniale a copertura dei rischi,

imponendo agli intermediari finanziari di utilizzare il VaR con un orizzonte tempo-

rale di 10 giorni ed un intervallo di confidenza almeno pari al 99%

Tuttavia, questa concessione incontra alcune limitazioni: innanzitutto i modelli in-

terni assunti dalle banche sono sottoposti ad alcuni vincoli, ed in secondo luogo tali

strumenti vengono sottoposti a stress test da parte dell'autorità di regolamentazione

al fine di verificare l‟adeguatezza del modello utilizzato.

10

Vedi anche F. Albergo, Strumenti di controllo e analisi del rischio; 2011. 11

L‟argomento sarà trattato in maniera più approfondita nel Capitolo 3.

11

1.2 I limiti dei Modelli VaR

Nonostante i modelli VaR abbiano incontrato un‟elevata diffusione in tutte le circostanze

in cui è necessario svolgere una valutazione della propria esposizione al rischio, spesso il

mondo della finanza ha posto l‟accento sulle inadeguatezze di questo approccio.

I modelli VaR trascurano gli eventi eccezionali e le perdite scaturite da tali eventi

Il VaR viene definito come la massima perdita potenziale che può scaturire da un por-

tafoglio dato un determinato intervallo temporale e un dato livello di confidenza.

Quindi la definizione stessa di VaR ammette che possano esserci perdite superiori al

VaR stesso, in un (1-𝛼)% di casi

(1.1) 𝑝𝑟 𝐿 > 𝑉𝑎𝑅 = 1− 𝛼

Dove:

L = perdita

𝛼 = livello di confidenza

Quindi i modelli VaR per definizione non tengono conto degli eventi che hanno una

probabilità di accadimento eccedente il livello di confidenza.

A tal proposito, però, bisogna considerare che attualmente il regolatore impone livelli di

confidenza (99%-99,5%) che consentono di escludere dalla metodologia VaR le perdite

che hanno una percentuale di accadimento molto remota.

Questa percentuale infinitesima espone la banca ad eventi eccezionali; in tal senso è do-

veroso sottolineare che la banca rimane comunque un‟istituzione risk taker, ed in quan-

to tale un soggetto per sua natura esposto ad un rischio che non può del tutto eliminare.

Di conseguenza, il VaR consente di modificare a piacere il livello di confidenza, doven-

do però rimanere decisamente al di sotto della copertura totale.

Inoltre dalla (1.1) è immediato constatare come i modelli VaR prevedono perdite ecce-

denti il VaR stesso, ma niente precisano sull'entità di tale perdita.

Su questa scia, la dottrina ha creato alcuni modelli per la quantificazione della perdita

eccedente, uno di questi è l‟Expected Shortfall12

, definito come il valore atteso di tutte

12

L‟ES sarà oggetto di analisi nel Cap.2

12

le perdite superiori al VaR e di conseguenza calcolato come una media semplice delle

perdite superiori al VaR stesso.

Possono fornire risultati errati

Nel 1995, Beder portava alla luce le inesattezze del VaR13

, dando vita ad un filone di

studi che svelò come il VaR non potesse essere considerata una misura oggettiva, in

quanto fornisce output differenti al variare delle componenti scelte.

In sostanza, Beder utilizza tre differenti portafogli14

e due approcci: un modello di simu-

lazioni storiche, adoperato utilizzando le ultime 100 osservazioni o le ultime 250 osser-

vazioni, e l‟approccio di simulazioni Monte Carlo, che viene adoperato due volte, con

una correlazione calcolata secondo il metodo previsto da RiskMetrics™, e un‟altra cal-

colata secondo le impostazioni di Basilea II.

I quattro approcci risultanti vengono poi utilizzati con una frequenza giornaliera e di

due settimane (Tabella 1.1)

Tabella 1.1: differenti tipi di approccio studiati da Beder

Tipo di simulazione DataBase/ Correlazione Holding Period

Storica Ultime 100 osservazioni Un giorno

Storica Ultime 250 osservazioni Un giorno

Monte Carlo Correlazione “RiskMetrics” Un giorno

Monte Carlo Correlazione “Basilea II” Un giorno

Storica Ultime 100 osservazioni Due settimane

Storica Ultime 250 osservazioni Due settimane

Monte Carlo Correlazione “RiskMetrics” Due settimane

Monte Carlo Correlazione “Basilea II” Due settimane

L‟analisi empirica ha sottolineato come i modelli forniscano differenze significative nel

valore di perdita inattesa causate principalmente dalla scelta di parametri, assunzioni e

metodologie utilizzati nel VaR, che influenzano il risultato finale e che oltretutto, non

sono validi in ogni caso.

13

T. Beder, VaR: seductive but dangerous; Association of investment management ad Research; 1995 14

Per brevità si considererà solamente il portafoglio1, formato esclusivamente titoli generati da stripping di

bond del Tesoro U.S.A.

13

0,49

0,2

0,83

1,7

0,63

1,82

0,68

2

0,670,82

1,29

2,14

0,88

2,61

0,97

2,87

0

0,5

1

1,5

2

2,5

3

3,5Ti

tolo

ass

e

LivConf 95%

LivConf 99%

Fonte: T. Beder, VaR: seductive but dangerous; Association of investment management ad Research; 1995

Ad esempio, basti considerare spesso i modelli di calcolo postulino una distribuzione

normale dei rendimenti, mentre empiricamente è stato dimostrato come alcuni eventi si

manifestino con distribuzioni dissimili rispetto alla normale stessa15

, esponendo

l‟intermediario a perdite elevate.

Ancora, ogni VaR è funzione delle osservazioni passate sulle quali viene svolta una sti-

ma della perdita attesa, assumendo in questo modo che i requisiti che hanno interessato

la distribuzione dei rendimenti fino a quel momento possano proiettarsi anche in futuro,

cosa che non sempre accade.

Infatti, questo approccio comporta una distorsione nella determinazione della grandez-

za: se il periodo di riferimento è stabile, ciò potrebbe comportare una sottostima del ri-

schio, viceversa un lasso di tempo con elevata volatilità impatterà sul calcolo producen-

do una stima eccessivamente elevata.

Le differenze nell‟output fornito sono visibili nelle differenti distribuzioni dei rendimen-

ti di un portafoglio analizzato dalla Beder.

15

Per un‟analisi più approfondita, si veda il Capitolo 2

Grafico 1.1 VaR(%) di un portafoglio calcolato con diversi metodi

14

Figura 1.2: differente distribuzione dei rendimenti di un portafoglio, desunta con differenti metodi

Fonte: T.Beder, VaR: seductive but dangerous; Association of investment management ad Research; 1995

A causa di questa variabilità del risultato, la stessa Beder definisce il VaR una misura

meramente indicativa del rischio, a cui deve essere associata un‟analisi qualitativa da

parte del management, volta a definire l‟effettivo livello di rischio e a considerare fattori

che non possono essere esaminati dagli approcci quantitativi, come il rischio politico e il

rischio personale.

La possibilità di fornire la stima errata ha diffuso anche il concetto che “il VaR viene

sempre in ritardo quando il danno è già fatto”.

Nondimeno, è possibile affermare che questa concezione, più che da un difetto del VaR,

deriva dal fatto che generalmente gli scenari futuri vengano calibrati su dati passati.

Al di là degli errori scaturiti da un campione inadatto alla stima, è fuor di dubbio che

il VaR di portafogli complessi può essere difficoltoso da stimare.

15

Anticipiamo che tra i fattori che rendono la stima particolarmente difficile ci sono:

- La complessità degli strumenti finanziari;

- La dimensione del portafoglio;

- Le approssimazioni introdotte per velocizzare il calcolo;

- L'errore statistico sulla stima del VaR.

L'insieme d‟ipotesi, approssimazioni ed errori statistici introdotti nel calcolo può essere

così rilevante che il risultato finale è superfluo a causa del livello di confidenza ampio

(ad esempio, dietro un VaR= 200 può nascondersi un livello di confidenza che compor-

ta un VaR= 200 ± 10000 euro).

Amplificano instabilità mercati

L‟utilizzo della volatilità come tool per la stima del VaR, può comportare fenomeni di

propagazione delle crisi finanziarie.

Analiticamente se consideriamo che anche un lieve e temporaneo ribasso comporta un

aumento della volatilità, è immediato che tale variazione vada ad impattare sul VaR,

aumentatone il valore.

Successivamente, l‟aumento della perdita giornaliera oltre il limite definito dal capitale

allocato impone al singolo desk di assumere posizioni corte, al fine di ridurre il valore di

mercato del portafoglio e rientrare nella soglia di rischio.

Ricevendo lo stesso segnale operativo, questa operazione viene compiuta da tutti gli o-

peratori finanziari, generando una “corsa alla vendita” e un‟ulteriore aumento espo-

nenziale della volatilità, dalla quale scaturirà un circolo vizioso che provoca fenomeni

di amplificazione esponenziale delle crisi.

Se da una parte è indiscutibile che in presenza di crisi i trader sono spinti a compiere le

stesse operazioni, questo effetto non è da imputarsi all‟utilizzo di modelli VaR, quanto

piuttosto ai meccanismi economico-finanziari, all‟interno dei quali si generano spesso

fenomeni di panico finanziario che amplificano le situazioni di crisi.

16

Mancata subadditività

Matematicamente, dato α, spazio lineare di tutti i numeri aleatori, ρ, un‟applicazione di

α in R e due rischi X e Y una misura di rischio si definisce subadditiva se16

:

∀ 𝑋,𝑌 ∈ 𝛼,𝜌 𝑋 + 𝑌 < 𝜌 𝑋 + 𝜌(𝑌)

Da cui, nel caso del VaR:

𝑉𝑎𝑅 𝑥 + 𝑦 < 𝑉𝑎𝑅 𝑥 + 𝑉𝑎𝑅(𝑦)

Dal punto di vista pratico, è facile constatare come la subadditività rappresenti un requi-

sito indispensabile nel mondo finanziario: se l‟assunzione congiunta di due rischi è me-

no conveniente dell'assunzione degli stessi rischi presi singolarmente, la diversificazio-

ne non esisterebbe e non vi sarebbe convenienza a creare portafogli di titoli più o meno

eterogenei.

Tornando al nostro caso, sebbene nella stragrande maggioranza dei casi il VaR si dimo-

stri una misura subadditiva, alcune evidenze empiriche hanno dimostrato che talvolta il

VaR di portafoglio supera la somma dei VaR dei singoli titoli; e ciò è dovuto perlopiù

all‟incongruenza tra le ipotesi alla base dei modelli e mondo reale (ad esempio quando

si postula una distribuzione normale dei rendimenti, mentre in realtà la distribuzione è

differente).

Questo fenomeno, anche se insolito, rende il VaR una misura di rischio non coerente17

.

16

R. Pelessoni; Misure di rischio e coerenza; Dipartimento di Matematica Applicata, Università di Trieste 17

Secondo gli studi di P. Artzner, F. Delbaen, S.Eber e D. Heath, una misura di rischio viene detta coerente

se presenta le seguenti caratteristiche:

- Invarianza alle traslazioni: l‟aggiunta al portafoglio di una componente risk free (somma di danaro) ri-

duce il rischio dello stesso ammontare

- Omogeneità positiva di grado uno: aumentando la dimensione del portafoglio, aumenta il rischio e di

conseguenza aumenta l‟indice di rischio

- Monotonicità (se in ogni scenario le perdite del portafoglio A sono maggiori delle perdite del portafo-

glio B, allora il rischio di A è maggiore del rischio di B)

- Subadditività

17

Concludendo, anche se i limiti intrinseci e le analisi empiriche possono indurre allo scetti-

cismo circa l‟uso del VaR come strumento per l‟analisi del rischio, due considerazioni de-

vono essere svolte:

1) Il VaR è una misura indicativa della perdita inattesa, e come tale non offre il valore

esatto e puntuale della perdita stessa, bensì una misura “orientativa”.

2) Il VaR deve essere associato con altre misure di calcolo che “purifichino” la misura

di perdita inattesa (come ad esempio l‟Expected Shortfall).

A tal proposito, lo stesso Schachter18

scrive: “No theory exists to show that VaR is the ap-

propriate measure upon which to build optimal decision rules.

VaR does not measure "event" (e.g., market crash) risk. That is why portfolio stress tests

are recommended to supplement VaR. VaR does not readily capture liquidity differences

among instruments.

VaR doesn't readily capture model risks, which is why model reserves are also necessary.

Because VaR does not capture all relevant information about market risk, its best use is as

a tool in the hands of a good risk manager. Nevertheless, VaR is a very promising tool;

one that will continue to evolve rapidly because of the intense interest in it by practition-

ers, regulators and academics”19

.

18

B. Schachter, An Irreverent Guide to Value at Risk; 1997 19

Non esiste nessuna teoria che dimostri che il VaR è la misura appropriata su cui costruire regole decisionali

ottimali. VaR non misura il rischio [di accadimento] di un evento (ad esempio, il crollo del mercato).

Questo è il motivo per cui portfolio stress tests sono consigliati per integrare VaR.

Il VaR non è in grado catturare le differenze di liquidità tra gli strumenti. Il VaR non è in grado di catturare i

rischi di modello, ed è per questo che sono necessarie delle riserve sul modello.

Siccome il VaR non cattura tutte le informazioni pertinenti relative al rischio di mercato, il suo uso migliore è

come uno strumento nelle mani di un buon risk manager. Tuttavia, il VaR è uno strumento molto prometten-

te, che continuerà a evolversi rapidamente a causa del forte interesse da parte degli utilizzatorii, delle autorità

di regolamentazione e degli accademici

18

CAPITOLO 2.

Approcci di stima del Value at Risk

Fondamentalmente, la dottrina individua due differenti famiglie di modelli per la stima del

value at risk: i modelli parametrici, i quali utilizzano parametri statistici (perlopiù la volati-

lità) per la stima della perdita inattesa e i modelli non parametrici, i quali non utilizzano

parametri, bensì simulano, partendo da dati passati, l‟andamento futuro della distribuzione

dei rendimenti.

Inoltre le due famiglie si differenziano per il metodo di valutazione, rispettivamente i mo-

delli parametrici vengono detti di local valuation, in quanto analizzano le variazioni dei fat-

tori di rischio e stimano la variazione del valore del portafogli in modo proporzionale a

quest‟ultime (difatti, il modello parametrico approssima la relazione lineare tra variazione

dei fattori di rischio e variazioni del portafoglio).

Viceversa nella full valuation è necessario costruire una serie di valori del fattore di ri-

schio20

, che possono essere generati casualmente, come nel metodo Monte Carlo, o deri-

vanti dal loro andamento passato, come per le Simulazioni Storiche.

Tali valori vengono poi “convertiti” in valori del portafoglio che, aggregati con le relative

frequenze, formano la distribuzione di probabilità dei rendimenti del portafoglio: sulla di-

stribuzione ottenuta il VaR viene “letto” utilizzando la logica del percentile, “tagliando”

cioè la distribuzione costruita in corrispondenza del percentile scelto; invece di definirlo

come multiplo della deviazione standard come avviene nei metodi di Local Valuation.

Quindi, la differenza tra i due metodi sta proprio nel calcolo delle variazioni di valore del

portafoglio: se nella local valuation è risultato della variazione di alcuni parametri che im-

pattano sul calcolo finale, nella full valuation si esaminano i valori dei fattori di rischio, e il

valore del portafoglio viene completamente rivalutato in relazione ai nuovi valori dei fatto-

ri di rischio; in questo modo viene abbandonata l‟ipotesi di linearità che caratterizza il me-

todo parametrico.

20

Si anticipa che nei metodi Full Valuation è possibile simulare i valori del risk factor, per poi derivare i va-

lori dei tioli attraverso formule di pricing, oppure operare direttamente sui valori dei titoli stessi.

19

2.1 I modelli di Local valuation

2.1.1 L‟approccio Varianze-Covarianze

Tra gli strumenti utilizzati nella stima del VaR, indubbiamente l‟approccio Varianze-

Covarianze rappresenta uno dei modelli più importanti, non solo perché esso rappresenta il

modello utilizzato da J.P. Morgan (e quindi vanta un vasto database e una molteplicità di

software allegati) ma soprattutto perché, essendo un modello local valuation, non richiede

quotidianamente una stima ex novo di tutti i parametri, bensì aggiorna il dato già esistente

per giungere alla stima giornaliera.

L‟immediatezza dell‟approccio Varianze-Covarianze, incontra però alcuni limiti, in parti-

colare esso si basa su alcune ipotesi iniziali:

1. Le variabili aleatorie si distribuiscono normalmente

L‟approccio Varianze-Covarianze presuppone che le variabili aleatorie (cioè i rendi-

menti dei titoli nel modello Asset-normal o le variazioni dei fattori di mercato nel mo-

dello Delta-normal21

) distribuiscano come una funzione normale.

Teoricamente questa ipotesi risulta plausibile, infatti secondo il teorema del Limite

Centrale, anche se i rendimenti dei titoli non risultassero distribuiti come una normale,

il rendimento di portafoglio (essendo un aggregato di titoli e di fattori di rischio indi-

pendenti tra loro) risulterebbe comunque distribuito come una normale22

.

Empiricamente, invece, la distribuzione normale non coglie due importanti fenomeni

spesso presenti nella distribuzione dei rendimenti di portafogli: la leptocurtosi e

l‟asimmetria negativa.

Infatti, studi empirici23

hanno dimostrato che spesso le distribuzioni presentano il fe-

nomeno delle fat tail (code spesse), secondo cui la funzione effettiva presenta valori

estremi con maggiore frequenza rispetto a quanto proposto da una funzione gaussiana;

e questo comporta che l‟approssimazione a una normale tende a sottostimare la proba-

bilità dei valori di coda, che sono quelli rilevanti ai fini della stima del VaR.

21

La differenza tra modelli Asset-normal e modelli Delta-normal verrà discussa nel paragrafo 2.3.2 22

La definizione formale del teorema del limite centrale (Lindemberg e Lévy) sostiene che la somma di una

successione di variabili casuali indipendenti e identicamente distribuite (iid) Xn con valore medio μ e varian-

za finita σ2 converge alla distribuzione Normale, cioè:

𝑍𝑛 ⟶𝑑 𝑍

23 Vedi anche D. Duffie, J. Pan; An Overview of Value at Risk; 1997

20

Ci sono una pluralità di fattori che riconducono alle fat tails, tuttavia esse sono causate

sostanzialmente da due fenomeni: i salti, cioè significativi, discontinui e inattesi cambi

di prezzo e la volatilità stocastica, cioè la volatilità che cambia nel tempo e spesso con

persistenza.

Inoltre, la distribuzione dei rendimenti è spesso più alta e sottile rispetto a quanto pre-

visto dalla normale; questo fenomeno, chiamato thin waist, insieme al quello delle fat

tails rende l‟effettiva distribuzione dei rendimenti leptocurtica24

(Figura 2.1).

Figura 2.1: distribuzione dei rendimenti (leptocurtica) del tasso di cambio dollaro/marco tedesco e confronto con la di-

stribuzione normale

Fonte: JP Morgan, RiskMetrics™,Technical Document; 1996

In secondo luogo, la distribuzione dei rendimenti è interessata anche dal fenomeno

dell'asimmetria negativa o skewness. Infatti ancora una volta i risultati empirici si di-

vergono dai risultati reali, mostrando come spesso il numero di valori inferiori alla

24

La curtosi è un indice statistico relativo alla forma della distribuzione, che individua l‟appiattimento della

funzione di densità, ed è misurata dall‟indice β2 di Pearson.

In particolare se β2>0 la funzione è leptocurtica, cioè più “appuntita” della normale, se β2<0 la funzione è pla-

ticurtica, cioè più “appiattita” rispetto alla normale.

21

media sia maggiore del numero di valori superiore alla media; sostanzialmente, quindi,

la distribuzione reale risulta “fuori asse” rispetto a quanto ci si aspetta nella distribu-

zione Normale.

Come catturare il fenomeno delle fat tails e della skewness all‟interno del modello?

Sostanzialmente, esistono due tipi di approcci: un primo metodo impone di modificare

la distribuzione di probabilità di partenza, ad esempio la distribuzione t di Student25

consente di catturare meglio le distorsioni insite nelle fat tails, essendo caratterizzata

da code più spesse rispetto alla normale.

Un‟ulteriore alternativa alla t di Student è la cosiddetta “mistura di normali”, cioè

l‟aggregazione di più distribuzioni Normali aventi stessa media ma differente varian-

za.

Infatti, se si considerano due normali, una con varianza modesta e un‟altra con varian-

za elevata, attribuendo a quest‟ultima una minore probabilità, si otterrebbe una norma-

le in grado di catturare gli eventi estremi e quindi la leptocurtosi, formalmente:

𝑟𝑡 = 𝑝 ∙ 𝑁 𝜇,𝜍12 + (1− 𝑝) ∙ 𝑁(𝜇,𝜍2

2)

Dove:

N(μ,σ) = Normale

𝜍12=Varianza minore

𝜍22=Varianza maggiore

Un secondo approccio prevede che le modifiche vengano apportate non sulla forma

della distribuzione, bensì sui parametri del modello, incorporando la curtosi e

l‟asimmetria negativa nel calcolo del percentile zα, in particolare:

𝑧𝑎∗ = 𝑧𝛼 +

1

6 𝑧𝛼

2 − 1 ∙ 𝑆 +1

24 𝑧𝛼

3 − 3𝑧𝛼 ∙ 𝐾 −1

36(2𝑧𝛼

3 − 5𝑧𝛼) ∙ 𝑆2

Dove:

zα = percentile scelto

S = skewness (asimmetria negativa)

K = curtosi

25

La funzione t di Student è simmetrica, con media nulla, varianza unitaria ed è definita da un solo parame-

tro, detto “gradi di libertà”: minore è questo parametro, più spesse sono le code della distribuzione.

22

Per approssimare al meglio la distribuzione del titolo, Liangxin Li ha proposto26

una

funzione normale, “modificata” con polinomi di Legendre27

, dunque definita come

𝑓 𝑥 = 𝑎0𝑃0 𝑥 + 𝑎1𝑃1 𝑥 +⋯ 𝜙(𝑥)

Dove:

𝑃𝑠= Polinomi di Legendre

𝜙(𝑥)= Funzione Normale

Mente il VaR è calcolato in maniera “standard”.

Come dimostrato in Figura 2.2, utilizzando polinomi fino al quinto ordine, Li ha svolto

un‟analisi VaR sullo Shanghai stock Exchange, ottenendo una distribuzione significa-

tivamente difforme rispetto alla distribuzione Normale standard28

.

26

Vedi L. Li, A Realistic Approach to Calculate VaR; International Journal of Economics and Finance, 2009 27

I polinomi di Legendre sono polinomi ortogonali nell'intervallo [-1;1], definiti come:

𝑃0 = 1

𝑃1 = 𝑥

𝑃2 = 3𝑥2 − 1 2

𝑃3 = 5𝑥3 − 3𝑥 2

𝑃4 = 35𝑥4 − 30𝑥2 + 3 8

𝑃𝑖(𝑥) = 2𝑖 − 1 𝑃𝑖−1 𝑥 − 𝑖 − 1 𝑃𝑖−2(𝑥) 𝑖 i=2,3 28

Le funzioni utilizzate e i calcoli svolti esulano dalle competenze di questo lavoro, ci limiteremo ad esporre

i risultati.

23

Figura 2.2: Differenti distribuzioni calcolate con differenti polinomi di Legendre: il tratteggio rappresenta la distribuzio-

ne reale, la cura più bassa la funzione normale, la seconda è una funzione con polinomio di Legendre di 1° ordine, la ter-

za con polinomio di 2°ordine mentre l‟ultima con polinomio di 5° ordine

Fonte: L. Li, A Realistic Approach to Calculate VaR; International Journal of Economics and Finance; 2009

2. I rendimenti dei fattori di mercato non sono indipendenti.

Nel punto precedente, si è assunto che il portafogli possa distribuirsi come una norma-

le, partendo dall'ipotesi che i rendimenti dei fattori di mercato siano indipendenti e i-

denticamente distribuiti come una v.c. Normale (iid).

In definitiva un modello plain vanilla assume che il rendimento giornaliero di un titolo

al tempo t+1 sia espresso da:

(2.1) 𝑟𝑡+1 = 𝜇𝑡 + 𝜍𝑡휀𝑡+1

Dove:

𝜇𝑡 = Valore atteso del rendimento in 𝑟𝑡+1, generalmente assunto pari a zero.

𝜍𝑡 = Deviazione standard di 𝑟𝑡+1

In un modello plain vanilla queste due componenti sono costanti.

휀𝑡+1~(0; 1) = shock, rappresentati da un “white noise”29

, indipendenti ed identica-

mente distribuiti (iid), con distribuzione normale standard.

29

Il white noise è un processo stocastico che possiede momenti fino al secondo ordine, costanti nel tempo.

24

Il medesimo risultato si può derivare considerando il valore del titolo, che a sua volta è

funzione del rendimento, il valore giornaliero del titolo è definito da

𝑣𝑡+1 = 𝑣𝑡 + 휀𝑡+1

In cui:

𝑣𝑡+1 = valore del titolo al tempo t+1, (in un modello a rendimenti giornalieri corri-

sponde al valore domani)

𝑣𝑡 = valore del titolo al tempo t (cioè oggi)

휀𝑡~(0,𝜍2) = variazione di valore, cioè il rendimento, distribuito come variabili casuali

normali iid, con media nulla e varianza σ2; analogamente a quanto spiegato nella (2.1).

Di conseguenza, il rendimento ad un giorno sarà definito da

𝑣𝑡+1 − 𝑣𝑡 = 휀𝑡+1

Mentre il rendimento in T-giorni sarà:

𝑣𝑡+𝑇 − 𝑣𝑡 = 휀𝑡+𝑖

𝑇−1

𝑖=0

Che essendo una combinazione di v.c Normali indipendenti e identicamente distribuite

avrà media30

:

𝜇𝑇 = 𝑇 𝜇

Quindi all‟interno di un processo, il white noise è costituito da una serie di variabili casuali a media zero e

varianza costante e tutte incorrelate.

Nel nostro caso si parla di white noise gaussiano, di conseguenza avremo media zero e varianza unitaria. 30

Questo risultato è definito proprietà riproduttiva della variabile casuale Normale, formalmente se

𝑋𝑖 ~ 𝑁(𝜇𝑖 ,𝜍𝑖2) è una sequenza di v.c. indipendenti, allora la v.c. combinazione lineare sarà:

𝑎𝑖𝑋𝑖

𝑛

𝑖=1

~ 𝑁( 𝑎𝑖𝜇𝑖

𝑛

𝑖=1

; 𝑎𝑖

𝑛

𝑖=1

𝜍𝑖2)

25

E varianza

𝜍𝑇2 = 𝑇 ∙ 𝜍2

Quindi la deviazione standard di una realizzazione dei rendimenti di ampiezza T risul-

terà uguale a

(2.2) 𝜍𝑇 = 𝑇 ∙ 𝜍

Quindi il rendimento su un lasso di tempo T (𝑟𝑡+1 + 𝑟𝑡+2 +⋯+ 𝑟𝑡+𝑇) è calcolato de-

rivandolo dal rendimento ad un giorno, attraverso questa approssimazione.

Empiricamente, è stato dimostrato che per molti titoli raramente esiste indipendenza

seriale dei rendimenti, ma che al contrario le variazioni dei fattori di mercato sono ca-

ratterizzate da fenomeni di autocorrelazione; e ciò è tanto più vero quanto più T è pic-

colo (ad esempio nella volatilità ad un giorno o ad una settimana).

Dagli studi svolti da Diebold, Hickman, Inoue, Schuermann31

è stato possibile affer-

mare che in un ambiente non iid, la stima ottima è ottenuta in maniera relativamente

semplice utilizzando un modello GARCH32

, e in particolare un temporal aggregation

of GARCH processes (aggregazione temporale di processi GARCH “deboli”) definito

da Drost e Nijiman33

.

Il confronto produce risultati interessanti: la Figura 2.3 mostra che all‟aumento di T la

formula di Drost e Nijiman riduce le fluttuazioni di volatilità, mentre la formula scala-

re tende ad amplificarle.

Fondamentalmente questo esito dimostra che per T contenuti (come quelli general-

mente utilizzati per il VaR, il quale spesso è applicato su orizzonti brevi, di un giorno,

una settimana, un mese o tre mesi) la formula scalare rappresenta una buona appros-

simazione della realtà, ma su holding period più lunghi tale formula tende a sovrasti-

mare il rischio.

31

Vedi F. Diebold, A. Hickman, A. Inoue, T. Schuermann, Converting 1-Day Volatility to h-Day Volatility:

Scaling by 𝑕 is Worse than You Think; University of Pennsylvania, 1997 32

I modelli GARCH (generalized auto regressive conditional heteroskedasticity), sono modelli che permet-

tono di prevedere la volatilità futura, utilizzando quella passata e considerando che tale volatilità autoregres-

siva, cioè i valori futuri sono influenzati dai valori passati.

Il GARCH verrà visto più approfonditamente. 33

F. Drost, T. Nijman, Temporal Aggregation of GARCH processes, Econometrica;1993

26

Dunque, ipotesi di varianza costante in T giorni assunta dalla tecnica “scalare” può ri-

sultare tanto irragionevole quanto più i titoli tendono ad essere volatili.

Infatti, alcuni strumenti sono interessati ad una fluttuazione cosi persistente che anche

il trading day potrebbe essere un orizzonte temporale troppo lungo: in questi casi, con-

siderare la volatilità per orizzonti più lunghi non solo vieta l‟utilizzo della più banale

volatilità scalata, ma impone la creazione di robusti modelli statistici per la volatilità e

Figura 2.3: la volatilità per T = 10 e T = 90 calcolata scalando la volatilità (immagini superiori) e con il GARCH di Drost e

Nijiman (sulle ordinate si individua la deviazione standard)

Fonte: F. Diebold, A. Hickman, A. Inoue, T. Schuermann, Converting 1-Day Volatility to h-Day Volatility: Scaling by

𝒉 is Worse than You Think; University of Pennsylvania, 1997

27

di modelli che studino i fattori che influiscono sulle variazioni di valore delle posizio-

ni.

3. Ipotesi di linearità dei payoff.

Cosa significa assumere la linearità dei payoff?

Significa ipotizzare che ad una variazione del fattore di rischio faccia seguito una va-

riazione proporzionale del valore di mercato della posizione.

Figura 2.4: relazione tra il valore della posizione e il fattore di rischio, le linee rette rappresentano una relazione propor-

zionale (la linea nera una relazione uno-ad-uno), mentre la linea curva una relazione di non diretta proporzionalità

Fonte: J.P.Morgan/Reuters, RiskMetrics™, Technical Document, 1996

Quindi payoff proporzionali sono caratterizzati da una retta a pendenza costante, indi-

viduata dal Delta, (che varia da -1 a +1).

In tal senso si parla di approccio Delta-Normal, cioè di un metodo mediante il quale,

sfruttando la relazione di linearità della relazione “fattore di mercato-valore del titolo”,

il VaR è calcolato non sulla base della deviazione standard del titolo, bensì sfruttando

la volatilità del fattore di mercato che impatta sul titolo stesso34

.

34

Degli approcci Asset-normal e Delta-normal si parlerà in seguito

28

Formalmente:

∆𝑋𝑖 =𝑑𝑋𝑖𝑑𝑓𝑖

∆𝑓𝑖

Dove:

𝑋𝑖= Valore di mercato della posizione

∆𝑋𝑖=Variazione del valore di mercato della posizione (rendimento)

∆𝑓𝑖= Variazione del fattore di rischio

𝑑𝑋𝑖𝑑𝑓𝑖

= Derivata prima

Come si può notare, vi è una diretta proporzionalità tra la variazione del fattore di ri-

schio e la variazione di valore della posizione.

Tuttavia, se assumere la linearità dei payoff per la stima della perdita attesa di un por-

tafoglio titoli azionari o di un future su tassi di cambio è una buona approssimazione

della realtà, ciò non è lo stesso per il calcolo del VaR di altri strumenti finanziari.

Difatti, la relazione che intercorre tra la variazione di prezzo di un bond e la variazione

del tasso d‟interesse è non lineare (anche se spesso viene assunta tale) come non linea-

re è relazione tra il valore dell'opzione e la variazione del sottostante35

.

Di conseguenza, utilizzare una relazione lineare tra titolo e fattore di rischio non co-

glierebbe a pieno il nuovo valore di mercato dello strumento, comportando una distor-

sione tanto più grande quanto maggiore è la variazione del fattore di rischio e, consi-

derando che il VaR viene calcolato sulla base di quelle 1-c peggiori variazioni, una

falsificazione peserebbe notevolmente.

Per ovviare a questa distorsione si può optare per due metodi differenti: utilizzo della

Simulazione Monte Carlo, o l‟approccio delta-gamma.

La Simulazione Monte Carlo36

imponendo di creare un elevato numero di scenari e va-

lutando lo strumento per ognuno di essi permette di superare il problema della non li-

nearità.

35

Nello studio della non linearità dei payoff, le opzioni rappresentano un caso a sé.

Infatti occorre considerare che alcune opzioni presentano payoff non solo non lineari, ma anche non monotò-

ni e non derivabili

Inoltre a differenza delle azioni e delle obbligazioni in cui vi è un solo fattore di rischio, rispettivamente il

mercato di riferimento e il tasso di interesse, nelle opzioni vi sono una pluralità di fattori di rischio, le cosid-

dette “greche”

29

Invece, il metodo delta-gamma consente di fronteggiare la relazione non lineare con

l‟utilizzo del secondo grado in serie di Taylor37

della funzione, abbandonando quindi

l‟ipotesi di linearità e considerando anche la convessità38

. Formalmente

∆𝑋𝑖 =𝜕𝑋𝑖𝜕𝑓

𝑖

∆𝑓𝑖 + 0.5𝜕2𝑋𝑖

𝜕𝑓𝑖2 ∆𝑓𝑖

2

Dove Gamma misura la variazione di secondo ordine, cioè la variazione del Delta al

variare dei fattori di mercato (da qui il nome Delta-Gamma):

Γ = 0.5𝜕2𝑋𝑖

𝜕𝑓𝑖2 ∆𝑓𝑖

2

E

𝜕2𝑋𝑖

𝜕𝑓𝑖2 = Derivata seconda

Il perfezionamento apportato da tale modifica risulta tanto maggiore quanto maggiore

è il periodo considerato, quindi per periodi molto brevi risulta utile fermarsi al primo

grado della serie di Taylor.

36

La Simulazione Monte Carlo verrà analizzata più approfonditamente nel Par. 2.2.1 37

In matematica si definisce serie la somma degli infiniti termini di una successione numerica, e la serie di

Taylor è una serie di potenze. Di conseguenza una serie di Taylor di second‟ordine è una serie troncata alla

seconda potenza. 38

Si veda anche C. Pederzoli, C.Torricelli; Una rassegna sui metodi di stima del value at risk (VaR); Dipar-

timento di economia politica, Università degli studi di Modena e Reggio Emilia, 1999

30

2.1.1.1 Il calcolo del VaR con l‟approccio Varianze-Covarianze:

i modelli Asset-Normal e Delta-Normal

Come stimare la massima perdita possibile?

Con l‟approccio Varianze-Covarianze è possibile stimare il VaR sulla base del metodo ori-

ginariamente creato da J.P. Morgan & RiskMetrics™, denominato metodo Asset-Normal:

il modello prevede di calcolare il VaR partendo dalla distribuzione dei rendimenti del tito-

lo; quindi il valore a rischio risulterà il prodotto tra:

(2.3) 𝑉𝑎𝑅 = 𝑊0| R−𝑧𝛼 𝜍| V. monetario

(2.4) 𝑉𝑎𝑅 = R − 𝜍𝑧𝛼 V. percentuale

Dove

𝑊0 = Valore di mercato del titolo

R = Rendimento medio della posizione all‟interno dell'holding period

𝜍 = (𝑅𝑖−𝑅)2𝑛𝑖=1

𝑛−1 = Volatilità (misurata dalla deviazione standard) dei rendimenti del titolo

𝑧𝛼 = α-esimo percentile della distribuzione, associato al livello di confidenza scelto39

Per convenzione il VaR viene riportato come valore assoluto, in quanto essendo “la mas-

sima perdita possibile” è implicito che rappresenti un valore negativo40

.

Tuttavia nel calcolo del VaR per derivati in posizione short è intuitivo anteporre il segno

negativo, che, in questo caso, non indica la perdita prodotta ma l‟effetto di diversificazione

originato dalla posizione stessa.

In particolare, la proprietà della funzione di distribuzione normale standard, cioè con media

μ=0 e varianza σ=1 N(𝑧𝛼 ;0;1) permette di individuare una relazione biunivoca tra il livello

di confidenza prescelto 1-α e il percentile ad essa associato.

In parole più semplici, approssimare la distribuzione ad una variabile normale standardiz-

zata permette di “convertire” un valore soglia x in un percentile zα, evitando l‟utilizzo della

funzione di densità cumulata, semplificando notevolmente i calcoli41

.

39

Talvolta viene scritto come 𝑁−1(𝛼) 40

In particolare il livello di confidenza α esprime i peggiori rendimenti a partire da un livello soglia, di con-

seguenza il percentile zα sarà l‟unico valore negativo; in quanto si colloca sulla coda destra della distribuzio-

ne (che ha media 0).

31

Generalmente, la stima del VaR è compiuta assumendo un rendimento medio nullo, innan-

zitutto perché in questo modo si ottiene una distribuzione Normale e centrata sullo zero,

riproducendo una normale standardizzata che ci permette, come visto poc‟anzi, di ottenere

in maniera immediata il percentile partendo dal livello di confidenza scelto.

Inoltre, con questa approssimazione è possibile semplificare ulteriormente il calcolo del

VaR, che verrebbe misurato come multiplo della deviazione standard; ed infine è empiri-

camente dimostrabile che la media giornaliera è pressoché sempre nulla, rendendo

quest‟assunzione accettabile e non distorsiva ai fini del calcolo della perdita:

(2.5) 𝑉𝑎𝑅 = 𝑊0|𝑧𝛼 |𝜍

E la deviazione standard risulterà:

𝜍𝑖 = 𝑅𝑖

2𝑡𝑖=1

𝑛 − 1

Quindi dalla (2.5) è facile constatare che, se se la distribuzione dei rendimenti è approssi-

mabile ad una normale standardizzata N(0,1), il multiplo della deviazione standard zασ rap-

presenta una buona proxy del rischio dello strumento finanziario.

41

In sostanza, dato un valore soglia x e una distribuzione normale N(x;μ;σ), calcolare la probabilità che si

verifichi un evento più grave del nostro valore soglia (in questo caso, più grave del VaR) sarà dato dall'inte-

grale della funzione di ripartizione:

1

2𝜋𝜍× 𝑒−

𝑥−𝜇2𝜍

2

= 𝛼𝑥

−∞

Viceversa, utilizzare una normale standardizzata N(zα;0;1) permette di adoperare il percentile zα, che rappre-

senta una trasformazione del valore soglia x:

𝑧𝛼 =𝑥 − 𝜇

𝜍

Da cui N(zα) = α

32

E' opportuno sottolineare che la (2.5) vale nell'ipotesi di orizzonte temporale di un giorno

(ovvero t=1), mentre se si volesse considerare la volatilità giornaliera per holding period

più lunghi, bisognerà applicare (conservando l‟ipotesi di incorrelazione temporale dei ren-

dimenti) la (2.2);

𝜍𝑇 = 𝑇𝜍

Se la stima del valore a rischio per una posizione è multiplo della volatilità, il VaR di un

portafoglio impone di introdurre nella stima la diversificazione tra titoli.

In parole povere, la non perfetta correlazione42

fa sì che i titoli non si muovano all‟unisono

nella stessa direzione, ad esempio se all‟interno del portafoglio il valore di un titolo dimi-

nuisce, non necessariamente accadrà lo stesso per tutti gli altri.

Concretamente, la diversificazione porta ad una riduzione del rischio globale del portafo-

glio, e una misura di rischio qual è il VaR deve incorporare tale fattore; di conseguenza il

calcolo del VaR di un portafoglio è definito da43

:

𝑉𝑎𝑅𝑁 = 𝑉𝑎𝑅𝑖2

𝑁

𝑗=1

𝑉𝑎𝑅𝑗2𝜌𝑖 ,𝑗

𝑁

𝑖=1

La prova empirica dimostra che il VaR di portafoglio risulta inferiore alla somma dei VaR,

anche se, come dimostrato nel Capitolo 1, il VaR non presenta subadditività, e per questo

motivo non può essere considerato una misura di rischio coerente.

Dunque se il metodo Asset-Normal impone di definire la correlazione tra tutti i titoli in

portafoglio, è immediato appurare che in presenza di portafogli complessi il processo di-

venta eccessivamente articolato, minando il beneficio dell'immediatezza44

.

42

La correlazione 𝜌 indica la tendenza di due variabili di variare all‟unisono.

𝜌 ∈ −1; 1 , dove se ρ=-1 le due variabili sono inversamente correlate, se ρ=1 esse sono perfettamente corre-

late; nel nostro caso il VaR di un portafoglio composto da titoli perfettamente correlati è la somma dei VaR

dei titoli stessi. Essa è calcolata come:

𝜌𝑖 ,𝑗 =𝜍𝑖 ,𝑗

2

𝜍𝑖𝜍𝑗

Dove 𝜍𝑖 ,𝑗2 è la Covarianza tra il generico titolo i e il generico titolo j

43 Per la dimostrazione di questo risultato, si veda l‟Appendice A.

44 Il numero di correlazioni da calcolare per n titoli è definito dalla formula 𝑁𝜌 = 𝑛(𝑛 − 1)/2, quindi per un

portafoglio composto da soli 30 titoli, è necessario calcolare 435 correlazioni!

33

Per questo motivo in presenza di portafogli significativi il calcolo del VaR viene effettuato

con il metodo Delta-Normal45

, il quale permette di calcolare il VaR approssimando la vola-

tilità del titolo, calcolata a partire dalla volatilità del fattore di rischio che “insiste” sul tito-

lo, ponderata per un fattore di correzione.

(2.6) 𝑉𝑎𝑟 = 𝑊0𝑧𝛼𝛿𝜍𝑓46

Tuttavia, l‟approccio Delta-Normal non rappresenta un miglioramento dell'approccio gene-

rale, bensì sposta il trade off precisione-calcolo a favore del primo, consentendo quindi

maggiore rapidità nei calcoli a fronte di una stima più imprecisa.

Infatti, il metodo Delta-Normal consente di “aggregare” titoli: posto che posizioni legate

dallo stesso fattore di rischio sono dipendenti da un‟unica variabile aleatoria, il risk factor

appunto, il VaR di più titoli quotati nello stesso mercato è ottenuto dalla somma del VaR

dei singoli titoli, in formule

𝑉𝑎𝑅𝑁 = 𝑉𝑎𝑅𝑖

𝑁

𝑖=1

Questa approssimazione rappresenta il vero vantaggio del metodo Delta-Normal: nel calco-

lo del VaR di portafogli eterogenei è possibile semplificare le operazioni, in quanto il VaR

sarà calcolato considerando solo la correlazione tra diversi fattori di rischio, anziché tra

titoli.

45

Il metodo Delta-Normal rappresenta un‟applicazione particolare del modello CAPM.

Per conoscere la relazione tra i due modelli, si rimanda all‟Appendice B. 46

Nella formula è stato assunto un rendimento medio nullo.

34

Un ulteriore alleggerimento dei calcoli, sia per l‟approccio Delta-Normal che per

l‟approccio Asset-Normal è fornito utilizzando l‟algebra matriciale: in questo senso il VaR

del portafoglio è definito da:

𝑉𝑎𝑅𝑝 = 𝑉𝑎𝑅 × 𝐶 × 𝑉𝑎𝑅𝑇

Dove

𝑉𝑎𝑅𝑇 =

𝑉𝑎𝑅1

𝑉𝑎𝑅2

⋮𝑉𝑎𝑅𝑛

= Vettore colonna che ha come componenti il VaR dei titoli

𝐶47 =

1 𝜌12 ⋯ 𝜌1𝑛

𝜌21 1 ⋱ ⋮⋮ ⋱ 1 1𝜌𝑛1 𝜌𝑛2 … 1

= Matrice delle correlazioni, nell‟approccio Asset-Normal

sono misurate le correlazioni tra titoli, mentre nell‟approccio Delta-Normal interesserà i

fattori di rischio.

𝑉𝑎𝑅𝑇 = Vettore trasposto

2.1.1.2 Il risk mapping

Come è possibile stimare i fattori di rischio a cui un generico portafoglio è esposto?

Come già illustrato, l‟applicazione del metodo Delta-Normal comporta la possibilità di cal-

colare il VaR partendo dal fattore di rischio che incide sul titolo.

Ciò implica la decomposizione delle attività finanziarie presenti in portafoglio in strumenti

più semplici, esposto ognuno ad un risk factor: questa procedura è detta “risk mapping”.

Quindi mappare un portafoglio, significa “scomporre” i titoli e ridefinire il portafogli in

base ai fattori di rischio sottostanti.

L‟applicazione del risk mapping varia in base allo strumento finanziario:

- Titoli di debito: all‟interno di un portafogli è possibile trovare titoli caratterizzati da

scadenze molto differenti, sui quali di conseguenza insistono differenti risk factor.

47

Se si moltiplica qualunque elemento di C per le deviazioni standard si ottiene una matrice Varianze-

Covarianze Σ, dove nella diagonale principale troviamo le varianze, mentre negli altri elementi le Covarianze

tra la generica i-esima variabile e la generica j-esima variabile.

35

Ad esempio, un titolo con maturity 3 mesi, sarà influenzato dalla volatilità dei tassi a

tre mesi, mentre un titolo a 30 anni e 4 giorni sarà interessato dal risk factor equiva-

lente.

Si può intuire che l‟utilizzo di tutte le scadenze obbligazionarie, e quindi dei risk fac-

tor associati, genera una pluralità di operazioni nel calcolo della correlazione, e così

verrebbe meno il vantaggio di semplificazione offerto dall'approccio Delta-Normal.

La soluzione è fornita dal metodo del clumping di RiskMetrics™48

: l‟obiettivo è di

decomporre il titolo obbligazionario in due flussi di cassa fittizi, a scadenze standar-

dizzate, dette vertici di RiskMetrics™:

1m 3m 6m 12m 2yr 3yr 4yr 5yr 7yr 9yr 10yr 15yr 20 yr 30yr

In questo modo si ottengono al limite49

tredici titoli zero coupon su cui applicare il

metodo Delta-Normal.

L‟utilizzo del clumping, impone però due condizioni:

- Uguaglianza del valore di mercato: il valore del titolo generante deve essere ugua-

le alla somma dei valori dei titoli generati;

- Uguaglianza della rischiosità: la Duration modificata del titolo originario deve es-

sere uguale alla somma delle duration modificate dei titoli derivati.

48

In realtà Riskmetrics utilizza una variante del clumping, basata sulla price volatility, basata

sull‟equivalenza tra la volatilità del titolo e la somma delle volatilità dei titoli derivati. Nel complesso I meto-

di sono analoghi. 49

Ovviamente, non è detto che ci sia un flusso per ogni scadenza!

36

Come definito dalla (2.6), calcolare il VaR comporta la definizione del fattore di ri-

schio e del coefficiente di sensitività; nelle obbligazioni questi due elementi sono

rappresentati rispettivamente dalla volatilità del tasso di interesse (per ogni scadenza

dello ZC) e dalla Duration Modificata50

.

𝑉𝑎𝑅 = 𝑊0𝑧𝛼𝐷𝑀𝜍𝑡𝑎𝑠𝑠𝑜 51

- Titoli azionari: le posizioni in azioni sono sensibili unicamente al proprio mercato di

quotazione. Dunque, la volatilità del titolo sarà determinata dalla volatilità dell'indice

di quotazione e da un fattore di sensibilità, che per le azioni è rappresentato dal Be-

ta52

del titolo.

𝑉𝑎𝑅 = 𝑊0𝑧𝛼𝛽𝑗𝜍𝑚

Coerentemente all'approccio Delta-Normal, il VaR di portafoglio per titoli azionari

quotati nello stesso mercato, sarà calcolato come la somma del VaR dei titoli.

- Foward/Future53

: mappare gli strumenti finanziari più complessi significa scom-

porli negli equivalenti strumenti elementari (bond, titoli di capitale) per poi trattare

questi ultimi separatamente.

Per definizione, il VaR di strumenti derivati Foward o Future è equivalente al VaR

del titolo sottostante.

Tuttavia, come già chiarito, il tipo di posizione long o short influenza il segno del

VaR: il beneficio di diversificazione all‟interno del portafoglio, scaturita da una po-

50

La Duration Modificata è un indicatore utilizzato per calcolare la variazione percentuale del prezzo di un

titolo contestuale alla variazione dei tassi d‟interesse. Essa è definita da

𝐷𝑀 = 𝐷 (1 + 𝑟)

Dove 𝑟 è il tasso di sconto e D la duration, calcolata come

𝐷 =1

𝑊0

× 𝑡𝑐𝑡

(1 + 𝑟)𝑡

𝑇

𝑡=𝜏

51 Come precendentemente specificato (Par. 2.3.1) si assume una relazione lineare tra la variazione del fattore

di rischio e la variazione di valore del titolo, anche se per le obbligazioni questo rappresenta

un‟approssimazione forzata. 52

Vedi Appendice B 53

Come già specificato, per motivi di brevità non si analizzerà il VaR di altri strumenti derivati

37

sizione short, impone di anteporre il segno negativo quando vende il derivato, e po-

sitivo quando lo si acquista.

- Posizioni in valuta: il VaR di una posizione in valuta è calcolato utilizzando la vo-

latilità del tasso di cambio tra le due valute.

Si può affermare che per questo tipo di posizioni venga utilizzato un metodo Asset-

Normal, in quanto il VaR viene calcolato utilizzando la volatilità dell'asset stesso

(valuta nazionale a fronte di valuta estera), senza dunque inserire il fattore di sensi-

tività.

𝑉𝑎𝑅€ = 𝑉𝑀¥ × 𝑧𝛼 × 𝜍𝑡𝑎𝑠𝑠𝑜 € ¥

Nondimeno, all‟interno di un portafoglio è possibile che vi siano assets sui quali in-

sistono più fattori di rischio: quindi gli strumenti finanziari prezzati con una divisa

diversa da quella utilizzata generano una posizione anche sul cambio.

Quindi in questa circostanza l‟obiettivo sarà quello di splittare l‟asset nei differenti

fattori e calcolare il VaR per ognuno di essi.

2.1.2 La stima della volatilità e della correlazione

Quanto detto finora spinge a una conclusione essenziale: la stima della volatilità rappresen-

ta un elemento importante per il calcolo del VaR.

A tal proposito molti studi sono stati compiuti per ottimizzare la stima della volatilità,

giungendo alla conclusione che la stima di varianze e correlazioni può essere effettuata uti-

lizzando dati desunti dal mercato (option-implied data) o dati storici.

Nel primo caso i parametri si ricavano utilizzando i derivati, i quali forniscono informazio-

ni sul futuro andamento dei valori degli assets: verosimilmente le opzioni non sono che

scommesse sulla volatilità dei prezzi delle attività sottostanti, quindi i premi contrattati per

il derivato sono espressione delle aspettative (circa l‟andamento del sottostante) degli inve-

stitori che agiscono sul mercato.

38

In sostanza, la formula di Black e Scholes permette di prezzare un‟opzione call o put in as-

senza di arbitraggio, definite per t = 0 rispettivamente da:

𝑐 𝑆; 0 = 𝑆0𝑁 𝑑1 − 𝐾𝑒−𝑟𝑇𝑁(𝑑2)

𝑝 𝑆; 0 = 𝐾𝑒−𝑟𝑇𝑁 −𝑑2 − 𝑆0𝑁 −𝑑1

E

𝑑1 =ln(𝑆0 𝐾) + (𝑟 + 𝜍2 2)𝑇

𝜍 𝑇

𝑑2 =ln(𝑆0 𝐾) + (𝑟 − 𝜍2 2)𝑇

𝜍 𝑇

Dove:

𝑒−𝑟𝑇 = Fattore di sconto in cui 𝑟 è il tasso risk free

𝐾 = Strike price dell'opzione

𝑆0 = Valore del sottostante al tempo 0

Dunque, calcolare la volatilità implicita comporta l‟utilizzo inverso delle formule di Black

e Scholes: dato il valore di un‟opzione a t = 0 e conoscendo lo strike price e il valore del

sottostante.

Generalmente questo tipo di stima risulta più accurata rispetto a quella Storica, il problema

è che la volatilità implicita dell'opzione si riferisce all‟orizzonte temporale dell'opzione

stessa, e spesso quest‟ultima non coincide con l‟holding period del modello VaR.

Inoltre, gli investitori a loro volta formulano le proprie aspettative sulla base dell'andamen-

to dei prezzi passati, quindi dalla volatilità Storica.

Il secondo sistema per stimare la volatilità è appunto quello di analizzare i valori passati e,

assumendo che tali valori si riproporranno in futuro con le stesse modalità, utilizzarli per

compiere una stima della volatilità.

39

2.1.2.1 La volatilità semplice ed esponenziale

Esistono diverse tipologie di metodi per inserire i dati storici nel calcolo della stima, in

primo luogo si citano metodi „naive‟ con i quali il valore della deviazione standard 𝜍𝑡 è

stimata calcolando la volatilità nel periodo precedente, di ampiezza pari all‟holding period.

Tuttavia, in questo modo si assume implicitamente che i rendimenti siano distribuiti come

v.c. Normali iid (𝑅𝑒𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 = 휀𝑡~(0,𝜍2)) e ,conseguentemente, che la volatilità sia co-

stante nel tempo (ipotesi di distribuzione omoschedastica54

).

Nondimeno, come già accennato55

, spesso non esiste indipendenza seriale dei rendimenti,

in quanto la volatilità del titolo o dei fattori di mercato è caratterizzata da fenomeni di au-

tocorrelazione.

Al contrario gli „averaging methods‟, definiscono la stima disponendo comunque di valori

passati, ma utilizzando una media mobile, ovvero una finestra di riferimento di ampiezza

fissa, in cui il passare del tempo comporta continua fuoriuscita dal campione dei dati più

vecchi e l‟entrata dei valori più recenti, e ciò consente la continua ridefinizione del cam-

pione di riferimento.

In questo modo, si assume implicitamente che la distribuzione sia caratterizzata da volatili-

tà “mutevole” nel tempo, in accordo con l‟ipotesi di eteroschedasticità.

In formule, la stima della volatilità per il periodo t+1, data l‟informazione disponibile nel

periodo t è:

𝜍𝑖 ,𝑡+1 = 1

𝑀 𝑟𝑖 ,𝑡−𝑘 − r 𝑖

256

𝑀

𝑘=0

In cui:

𝑀 = Ampiezza del campione

𝑟𝑖 ,𝑡−𝑘 = Rendimento dell' i-esimo fattore, realizzato al tempo t-k

r 𝑖 = Rendimento medio

54

Un processo si definisce omoschedastico quando la sua varianza è costante nel tempo o, più precisamente,

quando la varianza dei suoi residui (differenza tra il valore teorico y' ricavato dal modello ed il valore reale

incognito di y) è costante. 55

Vedi Par. 2.1.1, punto 2 56

Si è ipotizzato un rendimento medio non nullo

40

Di conseguenza, la correlazione sviluppata in un ambiente a medie mobili sarà

𝜌𝑖𝑗 ,𝑡+1 =𝜍𝑖𝑗 ,𝑡+1

2

𝜍𝑖 ,𝑡+1𝜍𝑗 ,𝑡+1

Dove:

𝜍𝑖𝑗 ,𝑡+1 = Covarianza tra il titolo i e il titolo j, definita come

𝜍𝑖𝑗 ,𝑡+1 = 1

𝑀 𝑟𝑖 ,𝑡−𝑘 − r 𝑖 𝑟𝑗 ,𝑡−𝑘 − r 𝑗

𝑀

𝑘=0

𝜍𝑖 ,𝑡+1 = Deviazione standard del titolo i-esimo

𝜍𝑗 ,𝑡+1 = Deviazione standard del titolo j-esimo

Si può intuire che il metodo a medie mobili semplici (SMA, Simple Moving Average) attri-

buisce lo stesso peso a tutte le osservazioni all‟interno di un campione.

Questa caratteristica porta a due considerazioni: la scelta dell'intervallo su cui misurare la

volatilità e il ghost effect.

Per quanto riguarda la scelta dell'intervallo di riferimento, utilizzare una finestra molto

ampia offre maggiori informazioni e rende più stabile la volatilità, ma riduce il peso per le

osservazioni più recenti, in quanto, aumentando il numero di osservazioni, diminuisce il

peso di ognuna di esse nel calcolo della volatilità.

In secondo luogo, un modello a medie mobili produce il cosiddetto ghost effect: se si uti-

lizza una finestra mobile, un improvviso shock della volatilità persisterà sempre col mede-

simo peso all‟interno della finestra di stima, dunque, all‟ingresso dell'osservazione shock,

si realizzerà un aumento della volatilità, ma con la scomparsa dell‟osservazione dalla fine-

stra la volatilità subirà una brusca riduzione, motivata dalla riduzione della varianza e non

da fenomeni empirici.

Nondimeno, in un ambiente eteroschedastico, è legittimo ipotizzare che 𝜍𝑡 sia più influen-

zata da 𝜍𝑡−1 che da 𝜍𝑡−2, e che a sua volta 𝜍𝑡−2 “impatti” su 𝜍𝑡 in misura maggiore rispetto

a 𝜍𝑡−3.

41

In sostanza, si sta dicendo che le volatilità più recenti “pesano” maggiormente sulla volati-

lità attuale rispetto alle volatilità passate, e questo rende inesatta la stima compiuta col mo-

dello SMA.

Per evitare una stima distorta, nonché eliminare il ghost effect è necessario definire un mo-

dello di volatilità in cui il peso assegnato alle osservazioni vari in base ad un preciso crite-

rio.

Nel 1996 J.P. Morgan costruì il modello a medie mobili esponenziali (EWMA, Exponen-

tial Weighted Moving Average) in cui viene assegnato un peso maggiore agli scarti quadra-

tici più recenti, consentendo di stimare in maniera più attendibile la volatilità, che quindi è

maggiormente influenzata da osservazioni più vicine rispetto che ad osservazioni più lon-

tane.

Nella pratica, l‟Ewma consiste nel pesare una variabile, nel nostro caso lo scarto quadrati-

co medio, con la stessa costante ma con potenze diverse, in formule:

𝜍𝑖 ,𝑡2 =

𝑟𝑖 ,𝑡−1 − r 𝑖 2

+ 𝜆 𝑟𝑖,𝑡−2 − r 𝑖 2

+ 𝜆2 𝑟𝑖 ,𝑡−3 − r 𝑖 2

+⋯+ 𝜆𝑛−1 𝑟𝑖 ,𝑡−𝑛 − r 𝑖 2

1 + 𝜆 + 𝜆2 +⋯+ 𝜆𝑛−1

= 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖

2𝑇𝑡=1

𝜆𝑡𝑇𝑡=1

Dove:

𝑟𝑖 ,𝑡2 − r 𝑖

2

= scarto quadratico tra il rendimento i-esimo e il rendimento medio

𝜆 = fattore di ponderazione o decay factor.

In particolare 𝜆 ∈ 0; 1 , anche se nella pratica è compreso tra 0,94 e 0,97 (RiskMetrics™

fissa 𝜆 = 0,94 per i dati giornalieri e 𝜆 = 0,97 per i dati mensili). Se 𝜆 è molto vicino a 1

le osservazioni decadono lentamente, quindi viene attribuito un peso che diminuisce in mi-

sura infinitesimale col passare delle osservazioni. Invece con 𝜆 molto piccolo i pesi deca-

dono più drasticamente, attribuendo molta più importanza alle osservazioni più recenti ri-

spetto alle osservazioni passate (per questo motivo (1− 𝜆) è detto velocità di decadimen-

to). Per 𝜆 = 1 si torna ad una media mobile semplice.

42

La scelta di 𝜆 dipende sostanzialmente dalle aspettative sulla variazione della volatilità del

titolo/fattore di mercato: se la volatilità cambia lentamente, è opportuno utilizzare un 𝜆

prossimo ad uno, per dare rilevanza anche alle osservazioni passate, se invece l‟aspettativa

è di una variazione repentina della volatilità, un fattore 𝜆 basso riflette maggiormente la

volatilità recente rispetto a quella passata.

La Figura 2.5 illustra la “distribuzione” dei pesi per un periodo T=100 con differenti decay

factor:

Figura 2.5: distribuzione dei pesi per 𝝀 = 𝟏;𝟎,𝟗𝟗;𝟎,𝟗𝟕;𝟎,𝟗𝟓;𝟎,𝟗𝟑

Fonte: J.P.Morgan/Reuters, RiskMetrics™,Technical Document, 1996

È possibile semplificare la notazione moltiplicando 𝜆𝑡−1𝑇

𝑡=1 per

1−𝜆

1−𝜆 e ottenendo:

𝜆𝑡−1

𝑇

𝑡=1

= 1 + 𝜆 + 𝜆2 +⋯+ 𝜆𝑇 1 − 𝜆

1 − 𝜆=

1− 𝜆𝑇+1

1 − 𝜆

Per cui la deviazione standard risulta

𝜍𝑖 ,𝑡 = 1 − 𝜆

1 − 𝜆𝑇+1 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖

2𝑇

𝑡=1

43

Per 𝑇 elevato e/o 𝜆 molto piccolo allora 𝜆𝑇+1 → 0 e quindi

𝜍𝑖,𝑡 = (1− 𝜆) 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖 2

𝑇

𝑡=1

E la correlazione è definita in maniera “ordinaria” come

𝜌𝑖𝑗 ,𝑡 =𝜍𝑖𝑗 ,𝑡

2

𝜍𝑖 ,𝑡𝜍𝑗 ,𝑡

Dove però 𝜍𝑖𝑗 ,𝑡2 = 1 − 𝜆 𝜆𝑡−1(𝑇

𝑡=1 𝑟𝑖,𝑡 − r 𝑖)( 𝑟𝑗 ,𝑡−𝑘 − r 𝑗 )è la Covarianza tra i rendi-

menti del titolo i-esimo e i rendimenti del titolo j-esimo.

Inoltre è possibile compiere alcune constatazioni considerando la varianza:

𝜍𝑖,𝑡2 = 1− 𝜆 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖

2𝑇

𝑡=1

= 1− 𝜆 𝜆0 𝑟𝑖 ,𝑡−2 − r 𝑖 2

+ 𝜆𝑡−2 𝑟𝑖 ,𝑡 − r 𝑖 2

𝑇

𝑡=2

= 1 − 𝜆 𝑟𝑖 ,𝑡−1 − r 𝑖 2

+ 𝜆 1− 𝜆 𝜆𝑡−2 𝑟𝑖,𝑡 − r 𝑖 2

𝑇

𝑡=2

Ma 𝜆 1− 𝜆 𝜆𝑡−2 𝑟𝑖 ,𝑡 − r 𝑖 2

𝑇𝑡=2 = 𝜍𝑖 ,𝑡−1

2 e considerando rendimento medio nullo si ot-

tiene una formula semplificata della volatilità Ewma:

𝜍𝑖 ,𝑡2 = 𝜆𝜍𝑖 ,𝑡−1

2 + 1− 𝜆 𝑟𝑖,𝑡−12

Che esplica come 𝜍𝑖 ,𝑡2 sia ottenuta dalla volatilità al periodo precedente, a fronte del “fatto-

re di correzione” 𝜆, aggiustata per il rendimento al periodo precedente, a fronte del “fattore

di correzione”, cioè il fattore di decadimento 1− 𝜆 .

Un test empirico circa l‟attendibilità dei due metodi è stato fornito da un evento economico

di grande rilievo: nel 1992 le turbolenze economiche della Germania portarono squilibri

44

nel mercato dei cambi fissi, costringendo Gran Bretagna all‟uscita dal Sistema Monetario

Europeo (SME)57

nel Settembre ‟92.

L‟evento portò ad un attacco speculativo nei confronti della Sterlina e al crollo del tasso di

cambio Marco/Sterlina (quest‟ultimo rappresentato in Figura 2.6)58 E a una marcata flut-

tuazione dei rendimenti (Figura 2.7).

Figura 2.6: tasso di cambio Marco/Sterlina dal ‟92 al „94

Fonte: J.P.Morgan/Reuters, RiskMetrics™,Technical Document, 1996

57

Lo SME era un sistema di cambi fissi tra le monete degli stati Europei. 58

Lo studio è stato compiuto da J.P. Morgan, vedi anche J.P.Morgan/Reuters; RiskMetrics™,Technical Do-

cument; 1996

45

Figura 2.7: Rendimenti Logaritmici Sterlina/Marco.

Fonte: J.P.Morgan/Reuters; RiskMetrics™,Technical Document; 1996

Questa fluttuazione provocò un picco nel VaR, in misura diversa nei differenti metodi di

stima della varianza (Figura 2.8), in particolare:

Figura 2.8: stima del VaR con il metodo della media mobile semplice e della media mobile esponenziale con 𝝀 = 𝟎,𝟗𝟒

(𝒛𝜶 = 𝟏,𝟔𝟓)

Fonte: J.P.Morgan/Reuters; RiskMetrics™, Technical Document; 1996

46

L‟evidenza empirica dimostra come il metodo Ewma risulta più reattivo agli shock di vola-

tilità, e assorbe il fenomeno più repentinamente rispetto alla media semplice; fornendo una

stima più accurata della varianza.

Inoltre in Figura 2.5, è possibile constatare la presenza del ghost effect: nei primi mesi del

‟93 avviene un crollo della volatilità che non è riscontrabile in così forte misura nel metodo

Ewma.

Quest‟ultimo cancella la distorsione del ghost effect, in quanto, come è possibile osservare,

shock della volatilità impattano notevolmente nelle prime osservazioni ma con il passare

del tempo vedono ridurre il loro peso all‟interno della stima, per poi uscire dalla finestra di

osservazione con una ponderazione infinitesimale.

La scelta della dimensione della finestra rispecchia quanto detto per la media mobile sem-

plice: una serie Storica ampia riduce l‟errore ma lega la stima a osservazioni poco recenti.

Quanto detto finora è sintetizzato indirettamente nella Tabella 2.1, la quale fornisce il cal-

colo del VaR per una posizione con tasso di cambio Dollaro/Marco, in una finestra T=20 e

con 𝜆 = 0,94 con metodo a media mobile semplice e metodo Ewma.

Come si può notare la media semplice ponderi i rendimenti con un valore costante

(1/20=0,05), fornendo lo stesso peso a tutte le osservazioni, invece la media esponenziale

fornisce pesi che decadono, attribuendo peso maggiore all‟osservazione più recente (0,06)

e minore alla meno recente (0,019).

47

Tabella 2.1: stima della volatilità con media mobile semplice e media mobile esponenziale

Fonte: J.P.Morgan/Reuters ; RiskMetrics™,Technical Document ; 1996

2.1.2.2 I modelli GARCH

Quanto fino ad ora esposto può condurci ad una importante conclusione: nei mercati finan-

ziari a periodi di bassa volatilità si alternano periodi di alta volatilità, questo fenomeno,

chiamato volatility clustering, suggerisce un certo grado di persistenza nella volatilità.

Il modello GARCH (Generalized AutoRegressive Conditional Heteroskedasticity) intro-

dotto da Bollersev nel 1986 si dimostra migliore dell'Ewma nel catturare questo tipo di fe-

nomeni, essendo un processo caratterizzato da una varianza che muta nel tempo e che,

sfruttando così la persistenza del processo, stima regredendo la varianza su se stessa.

48

In particolare un processo GARCH (p,q) la varianza condizionale dipende oltre che dai

propri valori passati, che influenzano la stima nel lungo periodo, anche dall'errore59

, il qua-

le influenza la stima nel breve periodo in formule:

𝜍𝑖 ,𝑡2 = 𝛼0 + 𝐴 𝐿 휀𝑖 ,𝑡−1

2 + 𝐵(𝐿)𝜍𝑖 ,𝑡−12

Dove A(.) e B(.) sono polinomi di ordine p-1 e q-1.

Il parametro 𝛼𝑖 definisce la rapidità con cui la volatilità si adegua agli errori, e quindi indi-

rettamente agli shock di mercato; mentre 𝛽𝑖 è definito “tasso di persistenza” ed indica

quanto il valori passati di volatilità impattino sulla stima.

Estendendo la formula si ha:

𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1휀𝑖 ,𝑡−1

2 + 𝛼2휀𝑖 ,𝑡−22 +⋯+ 𝛼𝑝휀𝑖 ,𝑡−𝑝

2 + 𝛽1𝜍𝑖 ,𝑡−12 + 𝛽2𝜍𝑖 ,𝑡−2

2 +⋯+ 𝛽𝑞𝜍𝑖,𝑡−𝑞2

Nondimeno, il GARCH viene utilizzato perlopiù nella versione GARCH(1,1)

𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1휀𝑖 ,𝑡−1

2 + 𝛽1𝜍𝑖,𝑡−12

In cui è facile intuire che la varianza al tempo t è funzione unicamente di una costante 𝛼0,

dell'errore di previsione al periodo precedente 𝛼1휀𝑖,𝑡−12 e della varianza al periodo prece-

dente 𝛽1𝜍𝑖 ,𝑡−12 .

Nel nostro caso l‟errore è costituito dalla differenza tra il rendimento ottenuto e il rendi-

mento atteso:

(2.6) 휀𝑖 ,𝑡−12 = 𝑟𝑖 ,𝑡−1

2 − r 𝑖60

Sotto l‟ipotesi di media nulla, si ottiene un errore pari esattamente al quadrato del rendi-

mento, la (2.6) diventa quindi:

(2.7) 𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1𝑟𝑖,𝑡−1

2 + 𝛽1𝜍𝑖 ,𝑡−12

59

Per un‟eplicitazione più dettagliata si veda R. Lucchetti, Appunti di analisi delle Serie Storiche, 2011 60

La (2.6) rappresenta una formulazione della distribuzione dei rendimenti alternativa alla (2.1), infatti

𝑟𝑡+1 = 𝜇𝑡 + 𝜍𝑡휀𝑡+1 con 휀𝑡+1~𝑖𝑖𝑑 𝑁(0,1)

𝑟𝑡+1 = 𝜇𝑡 + 휀𝑡+1 con 휀𝑡+1~𝑖𝑖𝑑 𝑁(0,𝜍𝑡2)

49

Generalmente nelle applicazioni finanziarie 𝛼1 assume valori molto piccoli mentre 𝛽1 va-

lori prossimi a 0,7, inoltre per evitare che il modello esploda si pone 𝛼1 + 𝛽1 < 1.

Quale metodo risulta ottimale?

Nella sua formulazione originale il GARCH presenta alcuni svantaggi che derivano innan-

zitutto ponendo al quadrato le variabili: elevare al quadrato i rendimenti nell‟ipotesi di ec-

cezionali shock degli stessi può comportare la sovrastima della volatilità; invece elevare al

quadrato l‟errore significa non tener conto del segno dello stesso, e cioè ignorare se si tratta

di un errore in eccesso o in difetto.

In questa modo si omette di considerare se la volatilità è causata da un rialzo o da un ribas-

so di mercato, ignorando che l‟evidenza empirica dimostra che volatilità è maggiore in pe-

riodi di riduzione dei prezzi e rimane pressoché stabile in momenti di aumento dei prezzi.

Inoltre, il GARCH è migliore nella versione ad un solo ritardo per variabile (1,1), mentre

risulta troppo oneroso e al contempo meno “informativo” se si inserisce un numero mag-

giore di ritardi.

È necessario ricordare che entrambi i due metodi, Ewma e GARCH, per costruzione incor-

porano la volatilità eteroschedastica consentendo una migliore stima della volatilità rispetto

al metodo a medie mobili semplici

Tuttavia questa evoluzione migliora solo in parte la stima del VaR, in quanto entrambi i

metodi sono incorporati in un modello più generale, il modello Varianze-Covarianze ap-

punto, che opera sotto ipotesi di normalità, (rendimenti distribuiti normalmente e un white

noise iid) anche se, come si illustrato precedentemente, è possibile sottrarsi in tutto o in

parte a questa ipotesi (vedi Par. 2.1.1).

La principale differenza tra i due metodi è costituita dalla maggiore flessibilità del

GARCH61

: in esso la componente di persistenza, che indica in che misura gli shock impat-

tano sulla stima, varia in base alla stima di 𝛼 e 𝛽, mentre nel modello a medie mobili espo-

nenziali, esso rimane sempre fissato a 1 qualunque sia il valore di

Inoltre nell‟Ewma il fattore di decadimento non è quantificato secondo procedure econo-

metriche, ma è definito discrezionalmente dall‟analista.

61

Per maggiori dettagli si veda anche C. Pederzoli, C. Torricelli, Una rassegna sui metodi di stima del value

at risk (VaR), Dipartimento di Economia Politica- Università degli Studi di Modena e Reggio Emilia, 1999 62

In parole povere, se nel GARCH la somma delle componenti di persistenza 𝛼 𝑒 𝛽 può essere un qualsiasi

numero minore di 1, nell‟Ewma, la somma tra 𝜆 e 1 − 𝜆 sarà sempre uguale a 1, a prescindere dal valore del

fattore di decadimento

50

Al contrario, nel modello GARCH invece la stima dei parametri avviene con il metodo dei

minimi quadrati63

, cioè stimando i parametri in modo da minimizzare l‟errore:

(𝑒𝑖)2 = 𝑦𝑖 − 𝑦𝑖 = 𝑚𝑖𝑛

𝑛

𝑖=1

𝑛

𝑖=1

Dove

𝑒𝑖 = Realizzazione dell‟errore

𝑦𝑖 = Vettore delle osservazioni

𝑦𝑖 = Vettore delle approssimazioni delle osservazioni fornito da un modello di regressione

lineare

L‟affidabilità dei due metodi è visibile in Figura 2.9, in cui è stata stimata la volatilità della

Sterlina inglese utilizzando i due metodi, in particolare:

𝜍𝑡2 = 0,94𝜍𝑡−1

2 + 0,06𝑟𝑡−12 Modello Ewma

𝜍𝑡2 = 0,0147 + 0,881𝜍𝑡−1

2 + 0,0828𝑟𝑡−12 Modello GARCH

Figura 2.9: volatilità della Sterlina stimata con il modello GARCH e con il modello Ewma

Fonte: J.P.Morgan/Reuters, RiskMetrics™, Technical Document, 1996

63

Lucchetti ha proposto di stimare i parametri secondo il metodo della massima verosimiglianza.

Per maggiori dettagli vedi R.Lucchetti, Appunti di analisi delle serie storiche; 2011

51

Le principali varianti dei modelli GARCH sono state create per fronteggiarne i difetti, in

particolare non ci si può sottrarre dal citare l‟EGARCH (Exponential GARCH), che per-

mette di considerare il segno dell'errore, utilizzando il logaritmo della varianza e senza ele-

vare al quadrato gli errori di previsione.

In formule un EGARCH(1,1) è definito come:

log 𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1

|𝑟𝑖,𝑡−1 − r 𝑖|

𝜍𝑖 ,𝑡−1− 𝐸

|𝑟𝑖 ,𝑡−1 − r 𝑖|

𝜍𝑖 ,𝑡−1 + 𝛽1 log 𝜍𝑖 ,𝑡−1

2

+ 𝛾|𝑟𝑖 ,𝑡−1 − r 𝑖 |

𝜍𝑖 ,𝑡−1

Dove assumendo media nulla, il rendimento coincide con la componente di errore, la nota-

zione può essere riscritta come

log 𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1

휀𝑖,𝑡−1

𝜍𝑖,𝑡−1− 𝐸

휀𝑖 ,𝑡−1

𝜍𝑖 ,𝑡−1 + 𝛽1 log 𝜍𝑖 ,𝑡−1

2 + 𝛾휀𝑖 ,𝑡−1

𝜍𝑖 ,𝑡−1

Il modello IGARCH invece impone che 𝛼1 + 𝛽1 = 1, introducendo un trade off tra impatto

della varianza passata (cioè della persistenza, rappresentata come già detto, da 𝛽1) e impat-

to dello shock (rappresentato ora da 1 − 𝛽1)64

, quindi

𝜍𝑖 ,𝑡2 = 𝛼0 + (1 − 𝛽1)𝑟𝑖,𝑡−1

2 + 𝛽1𝜍𝑖,𝑡−12

In uno studio, West e Cho65

hanno riscontrato che i modelli GARCH offrono stime più si-

gnificative, rispetto ad una media mobile semplice (dove i pesi tra le osservazioni sono e-

quamente distribuiti) solo per brevi orizzonti temporali.

L‟analisi aveva a oggetto la volatilità del tasso di cambio del Dollaro USA contro, il Fran-

co Francese, la Sterlina Britannica, lo Yen Giapponese, il Marco Tedesco e il Dollaro Ca-

nadese.

64

Imponendo che i fattori di persistenza siano uguali a 1, è facile notare come l‟IGARCH si avvicini concet-

tualmente all‟Ewma 65

K.West, D.Cho, The predictive ability of several models of exchange rate volatility, Jurnal of Econome-

trics, 1995

52

In particolare sono stati utilizzati diversi modelli di stima della volatilità, tra cui un

GARCH (1,1) e un IGARCH (1,1) con una finestra di calcolo di ampiezza una settimana,

dodici settimane e ventiquattro settimane (rispettivamente Panel A, Panel B, Panel C).

La bontà della stima per ogni modello e per ogni finestra di calcolo è stata valutata attra-

verso la radice dell'Errore di Previsione Quadratico Medio (RMSPE)66

.

Il risultato, mostrato in Figura 2.10 è facilmente comprensibile, per un RMSPE che costi-

tuisce il metro di giudizio per definire il rank dei modelli di stima (dove il primo è il mi-

glior stimatore e il sesto il peggiore), per una “finestra settimanale” il GARCH (rappresen-

tato con (1,1)) e l‟IGARCH (rappresentato da ig) si dimostrano buoni stimatori (rispetti-

vamente primo e terzo posto del ranking), ma allargando progressivamente la finestra di

stima, essi perdono di validità (addirittura nel periodo a 24 settimane risultano essere i

peggiori).

Nondimeno, la media mobile semplice, cioè calcolata in ipotesi di omoschedasticità (deno-

tata da “homo”), assume un comportamento inverso.

66

L‟errore quadratico medio di uno stimatore misura l‟efficienza dello stimatore stesso, ed è definito dal va-

lore atteso della differenza tra il valore stimato e il valore vero, il tutto elevato al quadrato.

Di conseguenza la radice dell'‟errore quadratico medio è la radice di questo valore atteso ed è tanto più pic-

colo quanto più lo stimatore è efficiente.

53

Figura 2.10: confronto tra modelli di stima della volatilità

Fonte: K.West, D.Cho, The predictive ability of several models of exchange rate volatility, Jurnal of Econometrics, 1995

54

2.2 I modelli di Full Valuation

Quali sono i vantaggi di questi modelli?

Innanzitutto, adoperare Simulazioni elude l‟ostacolo della non linearità dei payoff, otte-

nendo il valore del titolo partendo dal fattore di rischio e applicando formule di pricing,

senza dover approssimare la relazione risk factor-asset.

Infatti, mentre nella local valuation si considerano le variazioni dei fattori di rischio, e le

variazioni del valore del portafoglio vengono definite di conseguenza, utilizzando un fatto-

re di approssimazione, nella full valuation si considerano i livelli dei fattori di rischio, e il

valore del portafoglio viene definito per ogni valore dei risk factor. In sostanza questo si-

gnifica che nella full valuation viene rilasciata l‟ipotesi di linearità che caratterizza il me-

todo Delta-Normal.

In secondo luogo simulare la distribuzione implica la scelta della funzione che meglio ap-

prossima l‟evidenza empirica, svincolandosi dall'assunzione della distribuzione normale,

questo vantaggio è tanto maggiore quanto più la distribuzione reale dei rendimenti si di-

scosta, per asimmetria e fat tails, dalla distribuzione normale.

2.2.1 L‟approccio Monte Carlo

Stimare il VaR utilizzando l‟approccio Monte Carlo significa simulare l‟andamento di un

fattore di mercato, e calcolare il valore della posizione in ogni simulazione, ottenendo così

la distribuzione di probabilità delle variazioni del valore di mercato della posizione in esa-

me.

La ricostruzione dell'andamento del risk factor è compiuta attraverso un generatore di nu-

meri casuali, che applicato alla distribuzione scelta, genera valori inattesi della variabile, su

cui calcolare il valore della posizione; successivamente il riordino delle osservazioni e il

taglio in corrispondenza del percentile desiderato definisce il VaR.

L‟approccio, Monte Carlo, quindi, rappresenta un approccio allo stesso tempo parametrico

e di Simulazione, in quanto da un lato richiede la stima di parametri, e in particolare di ma-

trici di varianze e Covarianze proprie dell‟approccio analitico, e dall'altro richiede lo svi-

55

luppo di una Simulazione non basata su dati passati, bensì sulla generazione di nuovi da-

ti67

.

Da questa introduzione è possibile svolgere alcune considerazioni circa i vantag-

gi/svantaggi della Simulazione Monte Carlo, in particolare:

- La Simulazione Monte Carlo rappresenta un metodo di full valuation, quindi con-

sente di stimare la distribuzione dei rendimenti direttamente per il fattore di merca-

to, eliminando il problema della non linearità tra la variazione dello stesso e la va-

riazione di valore del titolo;

- La possibilità di generare i dati ex novo offre libera scelta nella definizione della

funzione di distribuzione dei rendimenti del fattore di mercato (Normale, t di Stu-

dent o altre);

- La Simulazione stocastica supera i problemi legati alla carenza di dati storici (che

invece interessano il metodo a Simulazione Storica).

Nondimeno, la Simulazione dell'andamento dei fattori di rischio è basata su un numero

molto elevato di scenari, il che rende il modello Monte Carlo un processo molto oneroso in

termini di risorse informatiche.

Inoltre il modello Monte Carlo applicato alla stima di portafoglio esige il calcolo della ma-

trice Varianze-Covarianze dei fattori di mercato, con gli svantaggi in termini di approssi-

mazione a essa legati.

2.2.1.1 La stima per un asset

La stima del VaR di una posizione si svolge attraverso:

a) Identificazione del fattore di rischio che influenza la posizione, (analogamente al

modello Varianze-Covarianze);

b) Definizione della distribuzione di densità della probabilità f(x) che definisce al me-

glio le distribuzioni dei rendimenti del risk factor;

c) Stima dei parametri per f(x) (media, varianza, Covarianza);

d) Simulazione dell'evoluzione del fattore di rischio attraverso un generatore di nume-

67

Per questo motivo il metodo di Simulazione Monte Carlo viene spesso classificato come metodo parame-

trico (a titolo di esempio, Vedi F. Drudi, A. Generale and G. Majnoni, Sensitivity of VaR measures to diffe-

rent risk models, 1997)

56

ri casuali68

. In questa fase, data l‟inversa della funzione di ripartizione (definita sul-

la base della funzione di densità f(x)), tale che 𝑟 = 𝐹−1(𝑛), vengono estratti gli n

valori da una distribuzione uniforme69

definita tra 0; 1 , che applicati alla funzione

𝐹−1(𝑛) condurranno agli 𝑟, opportunamente modificati in base ai parametri di f(x).

Figura 2.11: Rappresentazione grafica dei valori r calcolati attraverso 𝐹−1(𝑛).

Fonte: <www.performancetrading.it>

2.2.1.2 La stima di portafoglio

Il VaR di portafoglio presenta un elevato numero di fattori di rischio e, dovendo considera-

re le correlazioni tra variabili, è evidente che le Simulazioni Monte Carlo diventano più

difficili da utilizzare in primo luogo perché si necessita di stimare le distribuzioni di proba-

bilità per centinaia di risk factor, in secondo luogo, il numero di Simulazioni esatte per ot-

tenere una ragionevole stima del Value at Risk sono nell‟ordine delle decine di migliaia.

Di conseguenza le modifiche alla Simulazione Monte Carlo sono orientate ad uno “snelli-

mento” della massa computazionale, riducendo sostanzialmente il numero di Simulazio-

ni70

.

68

In realtà si parla di numeri pseudo-casuali generati da una sequenza pseudo-casuale, la quale sembra pos-

sedere casualità statistica anche se viene generata da un processo interamente deterministico che approssima

le proprietà statistiche di una vera sequenza casuale. 69

Si ricorda che una distribuzione Uniforme (continua) 𝑋~𝑈[𝑎;𝑏]è una particolare distribuzione che assume

valori reali in un intervallo [𝑎; 𝑏], mentre la funzione di ripartizione è la funzione che fa corrispondere ai va-

lori x le probabilità comulate 𝐹 𝑥 = Pr(𝑋 ≤ 𝑥) 70

Si veda anche NYU Stern School of Business, VAR, <www.stern.nyu.edu>.

57

Simulazione di scenari: un modo per ridurre il carico di calcolo è quello di compiere

l'analisi su un numero discreto di scenari.

In quest‟ottica, Frye71

suggerisce un approccio Factor-Based è utilizzato per il calcolo

del VaR in portafogli contenenti titoli sensibili ai tassi d‟interesse.

Con questo metodo, si svolge un‟analisi delle componenti principali della curva dei

rendimenti, individuando le componenti principali: la prima componente che rappre-

senta i movimenti tipici della curva dei rendimenti (corrisponde considerazione che

l'evento più importante che influenza la curva di rendimento in un dato giorno è se i

rendimenti saliranno o scenderanno); la seconda componente considera l‟ “irripidi-

mento” della curva, mentre la terza considera la possibilità che i rendimenti di medio

termine possano salire (scendere) mentre i tassi a breve e a lungo termine scendono

(salgono).

La combinazione di questi fattori produce specifici scenari di curva dei rendimenti uti-

lizzati per la stima del portafoglio ipotetico: la più grande perdita tra questi scenari

fornisce una stima VAR intuitiva e rapida.

Simulazioni MC con metodo Varianze-Covarianze: nonostante uno degli scopi del me-

todo di Simulazione Monte Carlo sia anche quello di considerare distribuzioni diverse

da quella normale per i rendimenti dei fattori di rischio, le difficoltà legate alla scelta

di tali distribuzioni ne hanno finora scoraggiato un utilizzo operativo, imponendo in

molti casi un trade off tra precisione e semplicità di calcolo.

A fronte di questo trade off, l‟ipotesi classica sottostante al metodo MC è ancora la

normalità dei fattori di rischio che ci consente di sfruttare la matrice di Varianze-

Covarianze, snellendo la mole di calcoli.

In questo senso, le fasi precedenti si modificano come segue

a) Identificazione dei fattori di rischio che influenzano la posizione, convertendo

l‟asset in strumenti standardizzati (analogamente al modello Varianze-Covarianze);

b) Definizione della distribuzione di densità della probabilità congiunta

normale𝑓(𝑥1;𝑥2;⋯ ; 𝑥𝑚 ) che definisce al meglio le distribuzioni dei rendimenti

degli m risk factor;

71

Per un‟analisi più approfondita: J. Frye; Principals of Risk: Finding Value-at-Risk Through Factor-Based

Interest Rate Scenarios; NationsBanc; 1997

58

c) Stima dei parametri per f(x) (media, varianza, Covarianza);

d) Simulazione delle evoluzioni degli m fattori di rischio: generazione di N scenari per

gli m fattori e calcolo del rendimento dei fattori attraverso la distribuzione congiun-

ta normale.

e) Calcolo della variazione di valore delle posizioni per ogni scenario e creazione del-

la distribuzione di probabilità.

Per ogni n scenario ipotizzato si ottiene il vettore r, che esprime il rendimento del

portafoglio al variare degli m fattori di mercato, dato da:

(2.7) 𝑟 = 𝜇 + 𝐴′𝜖72

Dove:

𝜇 = vettore del rendimento atteso (medio) degli m fattori di mercato

𝐴′ = matrice triangolare di Σ ottenuta mediante la scomposizione di Cholesky73

𝜖 = vettore dei rendimenti delle m variabili (fattori di rischio) distribuite come nor-

mali standard e definite dalla trasformazione di un altro set di variabili.

In particolare:

𝜖 = 𝑇𝜑

Dove 𝜑~𝑁(0,1)

Quindi imporre che gli m fattori di mercato si distribuiscano come normali standar-

dizzate, significa che per ogni i-esimo fattore di rischio:

𝐸 휀𝑖 = 0

𝐸 휀𝑖 2 = 𝐴𝐴′

𝐶𝑜𝑣 휀𝑖 , 휀𝑗 = 𝜌𝑖𝑗

72

La 2.7 deriva dal moto geometrico Browniano, secondo cui un certo comportamento delle variazioni infini-

tesime dei fattori di mercato approssima la stima dei prezzi S. Le variazioni di prezzo percentuale relative al

prezzo iniziale (rendimenti) possono essere descritte come: ∆𝑆𝑡𝑆𝑡−1

= 𝜇∆𝑡 + 𝜍𝜖 ∆𝑡

Dove:

𝜇 e 𝜍 sono la media e la volatilità del rendimento

∆𝑡 = intervalli di tempo discreti

𝜖~𝑁(0; 1) = fattore di mercato, distribuito come una normale standard 73

Per i dettagli sulla scomposizione di Cholesky vedi Appendice C.

59

La 2.7 quindi descrive la realizzazione del rendimento di portafogli in un ambiente

correlato: la presenza della matrice di Varianze-Covarianze che moltiplica il vettore

dei valori casuali dei fattori di rendimento “inietta” correlazione nel rendimento di

portafoglio.

f) Taglio della distribuzione di probabilità per il percentile scelto.

2.2.2 Il modello delle Simulazioni Storiche

“In un modello di Simulazione Storica s‟ipotizza che le potenziali variazioni dei fattori di

mercato siano ben rappresentate dalla loro distribuzione empirica Storica, cioè dalle va-

riazioni registrate in un periodo passato”74

.

Quindi, la stima del VaR di un titolo, avviene partendo dalla distribuzione Storica dei ren-

dimenti del titolo stesso, e successivamente tagliando la distribuzione in corrispondenza

del percentile scelto.

Dalla definizione è possibile cogliere tre caratteristiche del modello:

Questo metodo è indissolubilmente legato a dati storici

Non compie assunzioni riguardanti la distribuzione, usando la distribuzione

empirica ottenuta dall‟analisi dei dati passati.

Questa caratteristica ha tratti discutibili: da una parte lascia poca discreziona-

lità all‟analista, meno dell‟approccio varianze-Covarianze nel quale vi era la

scelta del valore di decay factor, o la possibilità di apportare modifiche alla

distribuzione e dell'approccio Monte Carlo, in cui la scelta del tipo di distri-

buzione spetta al valutatore. D‟altro canto questa caratteristica permette una

migliore stima in presenza di distribuzioni anormali, leptocurtiche o asimme-

triche.

Si assumere che le variazioni passate siano una buona proxy dell'andamento

futuro della variabile.

In altri termini, anche se non sono formulate esplicite ipotesi circa il tipo di distribuzione,

considerare i rendimenti passati come unico riferimento per il calcolo dei rendimenti futuri,

74

A.Resti, A.Sironi; “Rischio e valore nelle banche”; Egea, 2008

60

significa ipotizzare implicitamente che la distribuzione rimanga costante nel tempo, il che

sottintende a sua volta la stazionarietà e la iid della distribuzione.

Se invece la distribuzione attuale non fosse indipendente dalla distribuzione passata, come

in ipotesi di eteroschedasticità, l‟utilizzo di una stessa funzione in differenti momenti di

calcolo può generare distorsioni nel calcolo stesso.

Nondimeno, il riferimento alla distribuzione empirica Storica richiede l‟esistenza e

l‟implementazione di grandi quantità di dati passati, soprattutto se il VaR viene calcolato

non su basi giornaliere, bensì settimanali o mensili, il che obbliga all‟utilizzo di serie Stori-

che rilevanti o, di converso, lo rende inutilizzabile in mancanza di un‟adeguata quantità di

dati passati.

Proprio la dimensione del periodo di riferimento rappresenta un trade off anche nel model-

lo storico: se da una parte si rende obbligatorio un ampio campione, al fine di computare

nella distribuzione shock sporadici ma significativi, d‟altro canto serie Storiche molto

“lunghe” indeboliscono l‟ipotesi di staticità della distribuzione, rendendola difatti invero-

simile.

Analogamente a quanto visto per il metodo Varianze-Covarianze, l‟utilizzo del modello di

Simulazioni Storiche implica l‟utilizzo di finestre temporali, di ampiezza pari al periodo di

riferimento, in cui tutte le osservazioni sono pesate ugualmente, e che consente a

quest‟ultime di “scalare” all‟interno del campione.

Gli svantaggi nell‟utilizzo di finestre mobili, come visto in precedenza, sono strettamente

legati al periodo di sussistenza dell'osservazione all‟interno del campione: affinché il VaR

possa modificarsi sensibilmente, il rendimento associato al percentile scelto deve venir

fuori dalla finestra, oppure un rendimento superiore a quest‟ultimo deve entrare all‟interno

del campione.

Questo rende il VaR più stabile, il che, in presenza di mercati odierni caratterizzati da ri-

schi molto volatili è una caratteristica difficile da accogliere.

2.2.2.1 La stima per un portafoglio

Un approccio più semplice, consiste nel raccogliere le osservazioni Storiche (cioè i rendi-

menti storici dei titoli in portafoglio) per creare una distribuzione dei rendimenti del porta-

foglio, in cui le osservazioni sono calcolate come media dei rendimenti dei titoli, pesata per

il valore di mercato degli stessi.

61

Sostanzialmente, ad ogni t, il rendimento storico di portafoglio sarà definito nella come:

𝑟𝑝 ,𝑡 = 𝑤𝑖𝑟𝑖 ,𝑡

𝑛

𝑖=1

Dove:

𝑤𝑖 = Peso del titolo in portafoglio, pari alla “quantità” di titolo nel portafoglio, misurata dal

valore di mercato

𝑟𝑖 ,𝑡 = Rendimento dell'i-esimo titolo in portafoglio, al tempo t

In seguito, si costruisce una distribuzione dei rendimenti ordinando quest‟ultimi in ordine

crescente, infine in VaR viene calcolato mediante la logica del percentile.

Un altro approccio alla Simulazione Storica consiste nel definire la distribuzione dei ren-

dimenti dei titoli partendo dai risk factor, in fasi:

Individuare i fattori di mercato rilevanti e definire la formula di pricing che lega i

fattori di rischio e gli strumenti finanziari

Utilizzare i valori storici dei risk factor

Creazione di valori ipotetici del risk factor, individuati sommando al valore attuale

del risk factor la variazione del rendimento tra due osservazioni passate, in formule

𝑣𝑖 ,𝜏∗ = 𝑣𝑖 ,0 + ∆𝑣𝑖 ,−𝜏

Dove:

𝑣𝑖 ,𝜏∗ = Valore ipotetico del fattore di mercato al tempo 𝜏

𝑣𝑖 ,0 = Valore del fattore di mercato al tempo 0

∆𝑣𝑖 ,𝜏 = Differenza di valore al momento storico – 𝜏

Quindi il valore ipotetico al tempo 𝜏 è ottenuto dalla somma tra il valore attuale del

fattore di rischio e la variazione tra due valori adiacenti al tempo 𝜏.

“Conversione” dei valori ipotetici del fattore di mercato in valori ipotetici degli

strumenti attraverso formule di pricing

Definizione dei rendimenti per ogni strumento e somma dei rendimenti dei titoli in

ogni periodo. Con questo espediente, si considera implicitamente la correlazione tra

62

i titoli in portafoglio, in quanto ad un generico momento t si sommano algebrica-

mente rendimenti negativi e positivi, consentendo compensazione propria di porta-

fogli diversificati

Disposizione dei rendimenti di portafoglio in ordine crescente e taglio della distri-

buzione in corrispondenza del percentile scelto

2.2.2.2 Le modifiche all‟approccio Serie Storiche e l‟approccio ibrido

Le modifiche apportate all‟approccio storico sono orientate a sopperire agli svantaggi del

metodo stesso, rappresentati dall'equa distribuzione dei pesi per le osservazioni utilizzate, o

più semplicemente a migliorare la stima.

- La volatilità aggiornata:

Hull e White75

hanno suggerito una modifica all‟approccio Storico orientata alla modifica

dei rendimenti, che tenga conto della eteroschedasticità.

Se la volatilità attuale è maggiore della volatilità Storica del campione, definito un cam-

pione storico di ampiezza N, i rendimenti del campione effettivo vengono modificati attra-

verso la formula:

𝑕𝑗𝑡∗ = 𝜍𝑗𝑁

2𝑕𝑗𝑡

𝜍𝑗𝑡2

In cui:

𝑕𝑗𝑡∗ = Nuovo valore del rendimento

𝑕𝑗𝑡 = Rendimento della generica j-esima variabile al tempo 𝑡

𝜍𝑗𝑡2 = Varianza del rendimento j-esimo, calcolata per il giorno t alla fine del giorno t-1

𝜍𝑗𝑁2 = Varianza aggiornata, calcolata al giorno N

Dunque, il metodo proposto da Hull e White consente di realizzare dati aggiornati alla

nuova volatilità, scalando la volatilità e “applicandola” al rendimento passato, per ottenere

una buona approssimazione del rendimento vero76

.

75

J. Hull, A. White ; Incorporating volatility updating into the historical simulation method for value-at-risk;

Journal of Risk; 1998 76

Sostanzialmente, con questo approccio si scala la volatilità.

Come visto precedentemente, ciò è possibile solo se si ipotizza che i rendimenti siano iid.

63

In questa applicazione, la stima della volatilità risulta fondamentale per ottenere una distri-

buzione dei rendimenti che più si avvicina a quella empirica, in questo senso gli autori

propongono metodi di calcolo accurati per la varianza, come l‟utilizzo di modelli GARCH

o Ewma.

- Il Bootstrapping:

L‟approccio delle Simulazioni Storiche ha il principale vantaggio di non compiere assun-

zioni circa la distribuzione dei rendimenti, tuttavia è risaputo che tale metodo richieda una

grossa quantità di dati (3-5 anni) per essere adoperato.

Il bootstrapping consente di superare il problema della carenza di database informativo, at-

traverso appunto la tecnica statistica del bootstrap, con la quale vengono generati campio-

ni casuali partendo dalla distribuzione dei fattori di mercato osservati, semplicemente ri-

campionando i dati osservati.

Nel metodo bootstrap i campioni sono costruiti partendo dagli stessi dati storici, per poi

creare Simulazioni in cui i tassi di variazione del(i) risk factor o della(e) posizione(i) sono

estratti casualmente con ripetizione da tale campione.

In questo modo si genera un elevato numero di Simulazioni da cui desumere la distribuzio-

ne dei rendimenti del(i) titolo(i) e calcolare il VaR con la logica del percentile.

- L‟approccio ibrido

La principale modifica, partendo dalla considerazione che osservazioni più recenti sono

migliori predittori dell'andamento attuale, considera ponderazioni maggiori per osservazio-

ni più recenti, che decadono nel tempo per osservazioni sempre più “vecchie”.

Questa modifica ha dato vita ad un nuovo approccio, l‟approccio ibrido, sviluppato da

Boudoukh, Richardson e Whitelaw77

, che sostanzialmente combina i vantaggi del metodo

storico, evitando assunzioni stringenti circa il tipo di distribuzione, e i vantaggi dell'ap-

proccio Varianze-Covarianze fornendo un peso variabile alle osservazioni sulla base della

loro influenza sul campione.

Quindi, analogamente al metodo Varianze-Covarianze, viene fornita una ponderazione

𝑝𝑖−1 ad ogni osservazione, tale che

77

J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern

School of Business, NYU; 1998

64

𝑝𝑖−1 =𝜆𝑖

𝜆𝑖𝑛𝑖=1

Dove:

𝜆 = Fattore di decadimento, compreso tra ]0; 1[, ma nella pratica utilizzato per valori com-

presi tra ∈ [0,95; 0,99]

Analogamente al metodo classico, la fase successiva impone di ordinare i rendimenti in or-

dine crescente, e successivamente creare una ponderazione cumulata di tutte le osservazio-

ni.

Il VaR sarà ancora una volta determinato utilizzando la logica del percentile, che questa

volta viene applicata non più sulla distribuzione Storica dei rendimenti, bensì sulla funzio-

ne cumulata78

.

Il confronto tra stime realizzate con Simulazioni Storiche equiponderate, Simulazioni Sto-

riche a volatilità aggiornata e approccio ibrido è stato sviluppato da Hull e White79

, i quali

hanno stimato il requisito di capitale per un investimento di 1$ sul Marco Tedesco: definito

P il 1° percentile della distribuzione dei rendimenti di mercato (cioè il VaR%) il requisito

patrimoniale viene definito come tre volte il VaR decadale, cioè 3 10𝑃.

La Figura 2.12 illustra i tre approcci per il calcolo del VaR su una finestra temporale di 500

giorni, mostrando il requisito patrimoniale che sarebbe richiesto per l‟investimento di 1$

nel Marco Tedesco80

78

È possibile che nella funzione cumulata non sia presente il percentile scelto nel calcolo.

In parole povere, se volessimo calcolare il VaR ad un livello di confidenza del 99%, all‟interno della distri-

buzione cumulata dovremmo utilizzare il rendimento associato all‟1%.

Tuttavia, questo rendimento potrebbe non essere presente, quindi verrà calcolato con un‟interpolazione linea-

re utilizzando i due dati più vicini. Quindi dato un percentile 𝑥1 < 1% a cui è associato un rendimento 𝑟1 e

un percentile 𝑥2 > 1% cui è associato un rendimento 𝑟2, il rendimento corrispondente all‟1% sarà dato da:

𝑟 = 𝑟1 ∙(𝑥2 − 1%)

𝑥2 − 𝑥1

+ 𝑟2(1% − 𝑥1)

𝑥2 − 𝑥1

79 J. Hull, A. White ; Incorporating volatility updating into the hiStorical simulation method for value-at-

risk; Journal of Risk; 1998 80

Lo studio di J. Hull, A. White è solo indirettamente incentrato sul VaR.

In poche parole, se l‟analisi è incentrata sul requisito di capitale, ma al contempo il requisito è un multiplo

del VaR, si può dire che implicitamente lo studio si occupa proprio del VaR

65

Figura 2.12: Requisito patrimoniale richiesto a fronte del rischio di cambio $/DM calcolato con approccio delle Simula-

zioni Storiche (HS), approccio ibrido(BRW) e approccio a volatilità aggiornata(HW);

Fonte: J. Hull, A. White ; Incorporating volatility updating into the historical simulation method for value-at-risk; Jour-

nal of Risk; 1998

Come osservabile, nell‟approccio storico il requisite patrimoniale risulta più stabile rispetto

a quanto calcolato dall'approccio ibrido o dall'approccio a volatilità aggiornata, questo a

causa dell'ampio campione utilizzato (500 giorni) che tende ad “appiattire” la stima.

Inoltre la Figura mostra un altro fenomeno: nell‟approccio ibrido, il grafico tende a rag-

giungere un valore di picco, per poi ridursi bruscamente.

Questo è dovuto perlopiù alla ponderazione, infatti una ponderazione 𝜆 = 0,98 consente

di pesare le prime 35 osservazioni con un peso superiore all‟1%, quindi l‟ingresso di un da-

to negativo comporta un aumento del requisito di capitale (e quindi del VaR), da qui il pic-

co ascendente. Quando la finestra temporale continua a spostarsi, l‟osservazione negativa

cambia posizione, dalla 36° posizione i pesi divengono minori dell'1%, imponendo un pic-

co in discesa nella stima.

In generale, gli autori hanno constatato che le posizioni lunghe in una singola valuta estera

calcolate con il metodo ibrido richiedono in media l‟11% in meno di capitale rispetto a

66

quanto calcolato con il metodo delle Simulazioni Storiche, e che analogamente il capitale

richiesto stimato con il metodo a volatilità aggiornata è in media del 7,8% in meno a quan-

do stimato con il metodo delle Simulazioni Storiche.

- Simulazioni Storiche filtrate

Se si considerano i metodi proposti precedentemente, si può notare che in essi vi sia un

trade-off tra il computo della eteroschedasticità e l‟assunzione di non normalità.

La rivoluzione condotta da Barone-Adesi, Giannopoulos, and Vosper81

sta proprio nella

possibilità di considerare insieme eteroschedasticità e non-normalità, introducendo una va-

riante all‟approccio di Simulazione Storica, chiamato Simulazioni Storiche filtrate, che

rappresenta un ibrido tra il bootstrapping, il modello a volatilità aggiornata e un modello

GARCH.

Ricordando la (2.6), il rendimento con media nulla può essere espresso da:

𝑟𝑖 ,𝑡 = 휀𝑖 ,𝑡

Dove:

휀𝑖 ,𝑡~𝑁(0,𝜍2)

In questo ambito, l‟utilizzo del bootstrapping è possibile se i rendimenti sono iid, perché

altrimenti scegliere casualmente i valori fa sì che nessuno dei rendimenti sia influenzato

dal precedente, eliminando implicitamente l‟ipotesi di eteroschedasticità.

Per questo motivo i rendimenti sono resi iid, filtrandoli mediante la volatilità.

Ogni rendimento al periodo t sarà dato da:

𝜂𝑡 =휀𝑡𝜍𝑡

81

G. Barone-Adesi, K. Giannopoulos, L. Vosper; Filtering HiStorical Simulation. Backtest Analysis; 2000

67

Successivamente si utilizza il bootstrapping per estrarre un numero elevato di rendimenti

filtrati. Tali rendimenti vengono successivamente aggiornati alla volatilità relativa al peri-

odo per cui si desidera calcolare il VaR.

𝑟𝑡+1 = 휀𝑡+1 = 𝜂𝑡𝜍 𝑡+1

Dove:

𝜍 𝑡+1 = Stima della volatilità futura, ottenuta mediante un modello GARCH.

𝜂𝑡 = Rendimenti filtrati estratti casualmente dal campione

I nuovi rendimenti “aggiornati” 𝑟𝑡+1 formano la distribuzione di probabilità, che ancora

una volta fornisce il valore VaR mediante la logica del percentile.

Analogamente, il metodo delle Simulazioni Storiche filtrate per un portafoglio interessato

ad una molteplicità di fattori di rischio, implica l‟assunzione che ogni variabile segua un

processo GARCH.

Sempre in linea con quanto detto in precedenza, il vettore 휀𝑡 è filtrato mediante l‟utilizzo

del modello GARCH per ognuno dei risk factor, successivamente si applica il bootstrap-

ping, seguendo il procedimento di cui sopra.

L‟utilizzo delle Simulazioni Storiche filtrate in presenza di numerosità di rischi, comporta

diversi vantaggi82

: innanzitutto, l‟assunzione che i rendimenti siano iid evita il calcolo del-

la matrice Varianze-Covarianze, in secondo luogo il metodo consente di costruire un mo-

dello GARCH per ogni fattore di mercato anziché utilizzare un modello GARCH multiva-

riato.

82

Si veda anche M. Pritsker; The Hidden Dangers of HiStorical Simulation; 2001

68

2.3 Confronto

Varianze-Covarianze, Monte Carlo, Simulazioni Storiche, qual è il migliore approccio?

Come si può immaginare, tra i modelli si qui esaminati non esiste un modello “paretiana-

mente” ottimo, bensì è ragionevole supporre che spetti al risk management utilizzare il me-

todo più adatto valutando i trade off e le caratteristiche che ogni modell propone.

Innanzitutto, è d‟obbligo premettere che tutti gli approcci sono accumunati dall'utilizzo di

una funzione d‟input: si può quindi presumere che l‟approccio SS, l‟approccio Varianze-

Covarianze e il metodo MC convergeranno allo stesso risultato se utilizzassero la funzione

normale.

In secondo luogo tutti gli approcci utilizzano dati storici: i dati storici sono impiegati nel

Delta-Normal e nel metodo Monte Carlo per la stima della matrice Varianze-Covarianze (a

meno che non si utilizzi un metodo option-implied, col quale si sfruttano le aspettative de-

gli operatori per compiere previsioni) mentre il metodo storico, si pone ad un livello infe-

riore rispetto agli altri, in quanto utilizza unicamente il dato passato, senza alcuna scelta di-

screzionale da parte dell'analista.

Il riferimento a dati passati può non rappresentare un vantaggio: innanzitutto come si è

constatato, sussiste un trade off relativo al campione di riferimento: se un periodo breve

conduce al cosiddetto „sampling error‟, cioè alla difficoltà del campione nel descrivere a

pieno l‟andamento delle variabili; dall‟altro lato un campione ampio riduce la capacità in-

formativa del singolo dato, specie dei più recenti (ma come già visto, il problema viene in

parte superato).

Nell‟analisi dei tre modelli, si può affermare con certezza che l‟approccio analitico risulta

gravato dalle ipotesi che lo accompagnano: ad esempio, questo approccio non riesce a cat-

turare a pieno il valore delle opzioni o dei titoli di debito, in quanto il calcolo del VaR im-

pone la linearità del legame posizione-risk factor (nell‟accezione Delta-Normal); ipotesi

che viene tuttavia indebolita introducendo i momenti del secondo ordine (Delta-Gamma).

Ancora, come già esplicitato, spesso la distribuzione empirica dei rendimenti si mostra for-

temente leptocurtica, più vicina ad una t di Student che ad una normale, e questo esclude di

fatto la possibilità di utilizzare l‟approccio analitico nel caso pratico (basti pensare che, se

la distribuzione fosse sempre normale, il VaR dovrebbe sempre coincidere con il risultato

della simulazione Monte Carlo).

69

Continuando su questo filone, si sarebbe tentati di scegliere un modello che compie meno

assunzioni, cioè l‟approccio a simulazioni storiche.

Non c‟è dubbio sul fatto che il modello SS sfugge all‟obbligo di stima dei parametri, il che

evita la possibilità di errori legati ai calcoli (si ricorda che sia metodo Delta-Normal che il

metodo Monte Carlo impongono la definizione della matrice Varianze-Covarianze) e al

contempo coglie appieno il fenomeno distributivo, in quanto è il mercato stesso a determi-

nare la forma della distribuzione.

Tabella 2.2: comparazione tra gli approcci. La statistica inferenziale

Metodo di stima Statistica inferenziale

Modello distributivo Stima dei parametri

Varianze-Covarianze Normale Matrice VaR-Cov

Simulazioni storiche Non necessario Non necessario

Simulazioni Monte Carlo Non necessario Matrice VaR-Cov

Fonte: F. Bazzana; I modelli interni per la valutazione del rischio di mercato secondo l‟approccio del Value at Risk;

ALEA Tech Reports; 2001

L‟utilizzo di dati storici da parte della SS ne rende difficile l‟impiego: la distribuzione e-

strapolata da dati passati potrebbe non ripresentarsi a condizioni diverse, in secondo luogo

l‟approccio SS diviene inutilizzabile in mancanza di una banca dati rilevante, a meno che

non si utilizzi il bootstrapping.

Il metodo di simulazione Monte Carlo può aiutare a ridurre tale distorsione, potendo sce-

gliere sceglie la distribuzione che approssima al meglio quella reale.

Tuttavia la maggiore precisione del metodo MC sconta un grado di difficoltà molto mag-

giore rispetto agli altri due modelli: la sua implementazione richiede innumerevoli simula-

zioni, il che lo rendono un procedimento lento e oneroso.

70

Tabella 2.3: Comparazione tra gli approcci, una visione d‟insieme

Fonte: C. Pederzoli, C. Torricelli; Una rassegna sui metodi di stima del value at risk (VaR); Dipartimento di Economia

Politica, Università degli Studi di Modena e Reggio Emilia; Marzo 1999

Caratteristiche Delta-Normal Simulazione Storica Simulazione Monte

Carlo Ipotesi di lineari-

tà del valore del

portafoglio ri-

spetto ai fattori di

rischio

Si No No

Capacità di cat-

turare il rischio

nelle opzioni No Si Si

Necessità di speci-

ficare la distribu-

zione dei rendi-

menti

Si

È necessario ipotizzare la

distribuzione normale sia per

i rendimenti dei fattori di ri-

schio che per il rendimento

dell'‟intero portafoglio (co-

me conseguenza dell'‟ipotesi

di linearità)

No

La distribuzione dei rendi-

menti è quella empirica, deri-

vata cioè dai valori storici dei

fattori di rischio

Si

È necessario ipotizzare una

distribuzione di probabilità

per i rendimenti dei fattori di

rischio, quella del portafoglio

viene determinata dalle for-

mule di pricing

Necessità di sti-

mare dei parame-

tri

Si

Necessarie le stime di volati-

lità e correlazioni dei fattori

di rischio

No

Si

Sono necessarie le stime dei

parametri richiesti dal model-

lo adottato (ad esempio vola-

tilità e correlazione dei fattori

di rischio)

Dipendenza dai

dati storici

Si

Se le stime della volatilità e

delle correlazioni sono basa-

te su dati storici

Si

I valori ipotetici dei rendi-

menti dei fattori di rischio

non sono altro che i loro valo-

ri passati

Si

Se le stime dei parametri sono

basate su dati storici

Difficoltà di im-

plementazione Medio Facile Difficile

Necessità di risk

mapping Si No No

71

Dunque, è impossibile definire quale approccio domini sugli altri in termini di precisione,

velocità di calcolo e semplicità, tuttavia è possibile indicare quale sia il migliore approccio

in relazione agli strumenti posseduti.

Sostanzialmente, è possibile affermare che se il portafoglio non contiene una componente

opzionale, un calcolo per brevi periodi può essere compiuto con l‟approccio Varianze-

Covarianze; viceversa, il metodo MC è adatto a portafogli non-lineari, in cui la distribu-

zione storica si presenta molto difforme dalla distribuzione normale, mentre se il VaR è

calcolato su posizioni che presentano stazionarietà dei rendimenti, l‟approccio delle simu-

lazioni storiche risulta ottimale.

Se risulta complesso individuare un metodo che si distingue sugli altri, è necessario porre

attenzione a metodi alternativi, cioè ai metodi sviluppati apportando modifiche sostanziali

ad uno o più dei tre metodi già esistenti.

Un occhio di riguardo viene posto nei confronti del modello ibrido, che come tale incorpo-

ra in se i principali vantaggi dei due modelli a cui fa riferimento, cioè il modello varianze-

Covarianze e il metodo delle serie storiche.

Come già specificato, il metodo ibrido è una simulazione storica che definisce pesi che de-

cadono gradualmente quando i dati campionari divengono meno recenti; in questo modo, il

modello viene liberato dal peso delle assunzioni di normalità e di linearità imposte dal mo-

dello RiskMetrics™, e al contempo consente di eliminare l‟ipotesi di stazionarietà implici-

ta nel modello SS.

Ovviamente, il modello non è esente da difetti: mentre per i metodi parametrici esistono

vie alternative per il calcolo di volatilità e correlazioni, il metodo ibrido rimane una simu-

lazione storica, e come tale necessita di un ampio volume di dati per evitare il „convergen-

ce error‟, (che coincide nel caso della HS con il „sampling error‟), cioè una distorsione del-

la stima dovuta proprio alla mancanza del dato storico.

72

Per dimostrare come l‟approccio primeggi sugli altri l‟applicazione empirica da Boudouk,

Richardson e Whitelaw83

su cinque posizioni

• Tasso di cambio Dollaro/Marco;

• Prezzo spot del Brent;

• Indice S&P 500;

• Indice dei Brady bond84

(JP Morgan Brady Broad Index);

• Portafoglio equipesato delle quattro posizioni (EQW);

sembra confermare la superiorità di questo metodo rispetto ai due dai quali deriva (Ri-

skMetrics™ e SS), soprattutto per variabili la cui distribuzione sia fortemente caratterizza-

ta da „code grasse‟ (fat-tailed).

Come è osservabile in Tabella 2.4, il calcolo del VaR viene compiuto su un intervallo di

confidenza del 95% e del 99%, su una finestra di calcolo di 250 giorni mediante un model-

lo a Simulazioni Storiche, un modello Varianze-Covarianze esponenziale (con 𝜆 = 0,97 e

𝜆 = 0,99) e un modello ibrido (con 𝜆 = 0,97 e 𝜆 = 0,99).

83

J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern

School of Business, NYU; 1998 84

I Brady bond sono obbligazioni denominate in dollari

73

Tabella 2.4: calcolo del VaR con differenti approcci

VaR 5% Simulazione

Storica

Var-Cov Esponenziale Ibrido

𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99

Dollaro/Marco 5,32 5,74 5,18 5,25 5,04

Brent 4,96 5,60 5,39 5,18 5,18

S&P500 5,46 4,68 4,18 6,17 5,46

Brady Bond

Index

5,32 4,47 4,40 5,96 5,46

EQW 4,96 5,04 4,26 5,67 5,39

Media 5,21 5,11 4,68 5,65 5,30

VaR 1% Simulazione

Storica

Var-Cov Esponenziale Ibrido

𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99

Dollaro/Marco 1,06 2,20 1,63 1,84 1,28

Brent 1,13 1,77 1,77 1,70 1,35

S&P500 1,28 2,20 2,13 1,84 1,42

Brady Bond

Index

1,35 2,70 2,41 1,63 1,35

EQW 1,49 1,42 1,42 1,63 1,21

Media 1,26 2,06 1,87 1,73 1,32

Fonte: J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern School of

Business, NYU; 1998

Come si può notare, i metodi non parametrici offrono un valore più basso del VaR, questo

potrebbe far pensare che il metodo Varianze-Covarianze risulti maggiormente prudenziale,

in realtà non è così: la Tabella 2.5 presenta l‟errore medio assoluto percentuale per le 5 po-

sizioni, utilizzando una finestra mobile di 100 giorni, come si può notare, sia nel VaR 5%

che nel VaR 1% il metodo ibrido si dimostra più accurato in entrambe le varianti.

74

Quindi il metodo ibrido mostra empiricamente i vantaggi dei due approcci Storico e Var-

Cov, fornendo un valore di perdita più basso, ma più preciso.

Tabella 2.5: errore medio assoluto percentuale

VaR 5% Simulazione

Storica

Var-Cov Esponenziale Ibrido

𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99

Dollaro/Marco 2,42 1,58 2,11 1,08 1,77

Brent 2,62 2,36 2,67 1,93 2,44

S&P500 1,91 1,52 1,85 1,72 1,68

Brady Broad

Index

3,53 3,01 3,34 2,54 2,97

EQW 2,36 2,48 2,33 1,50 2,20

Media 2,57 2,19 2,46 1,76 2,21

VaR 1% Simulazione

Storica

Var-Cov Esponenziale Ibrido

𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99

Dollaro/Marco 0,87 1,50 1,12 1,02 0,88

Brent 0,96 1,07 1,39 0,84 0,80

S&P500 1,14 1,40 1,42 0,99 0,82

Brady Broad

Index

1,32 1,98 2,06 1,03 1,12

EQW 1,52 1,25 1,25 0,72 0,87

Media 1,16 1,44 1,45 0,92 0,90

Fonte: J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern School of

Business, NYU; 1998

75

2.4 I modelli “alternativi”: il CoVaR, l‟Expected Shortfall, il CAViaR

2.4.1 Il CoVaR

La stretta interconnessione del sistema bancario impone agli intermediari e ai regolatori di

adottare un approccio “collettivistico” al rischio “di interconnessione”, con misure che de-

vono esprimere il contributo al rischio sistemico da parte dei singoli intermediari finanzia-

ri, in modo da dar vita a misure che limitino il cosiddetto effetto domino.

Questo è ancor più vero durante la crisi finanziaria, in quanto la teoria economica insegna

che durante il crollo economico l‟effetto contagio tende ad amplificare la concentrazione

del sistema finanziario, in quanto la crisi spinge le società in salute ad acquistare le altre in

procinto di fallire.

Questo processo porta a un ancor maggior rischio che le singole istituzioni finanziarie fal-

liscano insieme o che addirittura l'intero sistema finanziario collassi (come riportato in Fi-

gura 2.13)

Figura 2.13: fallimenti bancari negli Stati Uniti dal 1934 al 2009

Fonte: F. Mishkin and S. Eakins; Financial Markets and Institutions; Pearson/Prentice Hall; 2012.

76

Innanzitutto, cos‟è il rischio sistemico?

Non è facile dare una definizione di rischio sistemico, Furfine (2003)85

lo definisce distin-

guendo due tipi di rischio:

- Il rischio che uno shock finanziario provochi un rischio di fallimento simultaneo di mer-

cati o istituzioni;

- Il rischio che il fallimento di una o più istituzioni venga trasmesso ad altre a causa dei le-

gami tra le stesse

mentre, Rochet and Tirole (1996)86

definiscono il rischio sistemico come il rischio che la

difficoltà di una banca si propaghi ad altri agenti economici legati a quest‟ultima attraverso

transazioni finanziarie.

Trascendendo dalla definizione, risulta evidente come il rischio sistematico vada oltre la

singola banca, sviluppandosi in fenomeni di codipendenza tra istituzioni finanziarie e come

il fallimento di alcune istituzioni finanziarie può produrre impatti negativi sull'intero siste-

ma.

In questo senso il VaR risulta una misura inadeguata: il calcolo del rischio sistemico va ol-

tre le competenze del valore a rischio che, lo ricordiamo, quantifica il rischio di mercato di

un intermediario finanziario singolarmente preso e soprattutto isolato dal sistema finanzia-

rio.

Considerando quanto detto finora, si possono porre due domande:

- Come identificare le istituzioni finanziarie di rilievo a livello sistemico?

- Come quantificare il contributo di rischio della singola istituzione finanziaria all‟intero

sistema?

Secondo Brunnermeier, Crocket, Goodhart, Perssaud, and Shin (2009)87

, una misura di ri-

schio sistemico deve quantificare il rischio generato da singole istituzioni che sono così in-

terconnesse e grandi da poter causare rischio di spillover su tutto il sistema.

Su questo filone d‟indagine, Adrian e Brunnemeier88

hanno proposto il 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗 89

, defini-

to come il VaR dell'istituzione i-esima condizionato all‟istituzione j-esima, che si trova in

una situazione distressed, in cui il rendimento90

è pari proprio al VaR.

85

C. Furfine; Interbank Exposures: Quantifying the Risk of Contagion; Journal of Money, Credit, and Bank-

ing; 2003 86

J.Rochet, J.Tirole; Interbank Lending and Systemic Risk; Journal of money, credit, and banking; 1996 87 M. Brunnermeier, A. Crockett, C. Goodhart, A. Persaud, H. Shin; The Fundamental Principles of Finan-

cial Regulation; Geneva Reports on the World Economy; 2009

77

Il CoVaR rappresenta l‟𝛼-esimo quantile della distribuzione, in formule:

(2.8) Pr 𝑟𝑡𝑖 ≤ 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡

𝑖|𝑗 𝑟𝑡𝑗

= 𝑉𝑎𝑅𝑡𝑗 = 𝛼91

Per considerare l‟impatto dell'istituzione j-esima sul mercato, basta sostituire al generico

intermediario i, il sistema finanziario, avremo:

Pr 𝑟𝑡𝑠𝑖𝑠𝑡 ≤ 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡

𝑠𝑖𝑠𝑡 |𝑗 𝑟𝑡𝑗

= 𝑉𝑎𝑅𝑡𝑗 = 𝛼

Analogamente, studiare l‟impatto dell'indice o settore sull'istituzione significa sostituire

nella (2.8) al j-esimo operatore l‟indice o il settore.

Quindi il CoVaR è il valore al rischio dell'istituzione condizionato al VaR di un‟altra isti-

tuzione, introducendo così il concetto di “comovimenti” tra il sistema finanziario e

l‟istituzione o tra istituzioni.

In questo senso, non è propriamente corretto parlare di modello “alternativo” al VaR in

quanto il CoVaR agisce su un rischio differente rispetto a quello misurato nel Value at

Risk.

88

T. Adrian, M. Brunnermeier; CoVar; Federal Reserve Bank of New York, Staff Reports; 2009 89

Come specificato dagli stessi autori, il termine Co-VaR con è casuale, esso è stato scelto per enfatizzare la

natura sistemica del misuratore.

Infatti, il prefisso “Co” rimanda a: conditional, comovement, contagion, contributing cioè misura condiziona-

le, comovimenti (tra banche), contagio (dal rischio), contributo (della singola banca al rischio sistemico). 90

Ricordiamo che in questa sede il rendimento rappresenta un valore assoluto.

In parole povere, dire che il rendimento è pari al VaR significa che l‟istituzione ha subito una perdita pari al

valore a rischio. 91

Ricordiamo che il VaR è la massima perdita possibile in un lasso temporale e ad un determinate livello di

confidenza 𝛼

Pr 𝑟𝑡𝑖 ≤ 𝑉𝑎𝑅𝑡

𝑖 = 𝛼

78

Figura 2.14: La relazione di CoVaR tra Bank of America Corp. (BAC) , Goldman Sachs Group Inc (GS), Lehman

Brothers Holdings Inc (LEH), Citigroup Inc. (C), J.P. Morgan Chase & Co. (JPM).

Il numero più in alto rappesenta il CoVaR dell‟istituzione condizionata al fatto che l‟istituzione alla punta è in distress, il

numero in basso il viceversa.

Fonte: T. Adrian, M. Brunnermeier; CoVaR; Federal Reserve Bank of New York, Staff Reports; 2009

È inoltre possibile costruire altri indicatori attinenti al CoVaR, come il ∆𝐶𝑜𝑉𝑎𝑟 che misura

per la singola entità lo scostamento tra VaR e CoVaR:

(2.9) ∆𝐶𝑜𝑉𝑎𝑟𝑖,𝑗 = 𝐶𝑜𝑉𝑎𝑟𝑡𝑖,𝑗− 𝑉𝑎𝑟𝑡

𝑖

∆𝐶𝑜𝑉𝑎𝑟 rappresenta l‟esposizione al rischio sistematico o al rischio di contagio, e ovvia-

mente, la rischiosità dell‟istituzione i-esima è tanto maggiore quando il settore è in una si-

tuazione di crisi.

Se i = sistema, il ∆𝐶𝑜𝑉𝑎𝑟𝑖,𝑗 individua la differenza tra il VaR del sistema finanziario con-

dizionato alla situazione distressed della generica istituzione j-esima, e il VaR incondizio-

nato dell'intero sistema e sostanzialmente misura quanto una istituzione “aggiunge” al ri-

schio sistemico a causa della sua grandezza o della sua forte interconnessione con il merca-

to.

Un altro indicatore è il CoVaR%, dato da:

𝐶𝑜𝑉𝑎𝑅𝑡𝑖% =

𝐶𝑜𝑉𝑎𝑅𝑡𝑖 − 𝑉𝑎𝑅𝑡

𝑖

𝑉𝑎𝑅𝑡𝑖

∙ 100

79

Oppure, è possibile costruire un indicatore percentuale ∆𝐶𝑜𝑉𝑎𝑟%, che indica il valore

(percentuale) del CoVaR del sistema (o dell'‟intermediario) al variare della “situazione”

dell'intermediario j, ed è definito da:

∆𝐶𝑜𝑉𝑎𝑟% =𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡

𝑠|𝑗− 𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡

𝑠|𝑏 𝑗

𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑠|𝑏 𝑗

Dove:

𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑠|𝑗

= CoVaR del sistema finanziario quando l‟intermediario j è in condizione di-

stressed

𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑠|𝑏 𝑗

= CoVaR del sistema finanziario quando l‟intermediario j è in una situazione

benchmark, definita come una deviazione standard attorno all‟evento medio

𝜇𝑡𝑗− 𝜍𝑡

𝑗≤ 𝑟𝑡

𝑗≤ 𝜇𝑡

𝑗+ 𝜍𝑡

𝑗

Il CoVaR è una misura piuttosto recente, ma che sta conoscendo una grande diffusione,

dovuta perlopiù al fatto che essa cattura un rischio, il rischio sistemico appunto, che è in

parte all‟origine della crisi attuale. In particolare, il CoVaR è caratterizzato da:

- Causalità: la misura ∆𝐶𝑜𝑉𝑎𝑟 non distingue se il contributo di ogni società al rischio si-

stemico totale è causale o guidato da fattori comuni.

Concretamente se una società entra in crisi, non necessariamente questo comporta una crisi

di sistema ma se la crisi è scaturita da un fattore comune a più società, questo sicuramente

avrà effetti dirompenti su tutto il sistema.

In questo senso, è necessario che ogni società stimi il co-rischio individuale a prescindere

che vi sia o meno rischio di causalità diretto, e che di conseguenza l‟indicatore utilizzato

non compia distinzioni tra questi rischi.

- Direzionalità: il CoVaR del sistema condizionato all‟istituzione j-esima non è uguale al

CoVaR dell'istituzione i-esima condizionato al sistema.

- Endogeneità: il CoVaR di una istituzione, anche se dipendente da quello delle altre istitu-

zioni, è endogeno e questo consente ad ogni istituzione di modificare la propria esposizio-

ne al rischio sistemico

80

Tale vantaggio permette in primo luogo di calcolare gli effetti di spillover sull'intera rete

finanziaria (ad esempio tra sue intermediari, tra un intermediario e il sistema, tra il sistema

ed un intermediario e così via), ma soprattutto consente ulteriori implementazioni del mo-

dello. Una di queste è il Co-ES (Co-Expected Shortfall), che cattura la perdita attesa oltre

l‟𝛼-esimo percentile del CoVaR, così come l‟Expected Shortfall92

cattura la perdita scaturi-

ta oltre l‟𝛼-esimo quantile del VaR.

Quindi, la 𝐶𝑜𝐸𝑆𝛼 ,𝑡𝑖 ,𝑗

è l‟Expected Shortfall condizionata al 𝑉𝑎𝑅𝑡𝑗

= 𝑟𝑡𝑗, ed è calcolata come

il valore atteso oltre l‟𝛼-esimo percentile della distribuzione di probabilità condizionata

𝐸(𝑟𝑡𝑖|𝑟𝑡

𝑖 ≤ 𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑖,𝑗

)

Mentre, il contributo della generica istituzione j al CoVaR, analogamente a quanto definito

nella (2.9) è definito da:

∆𝐶𝑜𝐸𝑆𝛼𝑖 ,𝑗

= 𝐸 𝑟𝑡𝑖 𝑟𝑡

𝑖 ≤ 𝐶𝑜𝑉𝑎𝑅𝛼𝑖,𝑗 − 𝐸(𝑟𝑡

𝑖|𝑟𝑡𝑖 ≤ 𝑉𝑎𝑅𝛼

𝑖 )

92

L‟Expected shortfall verrà analizzata nel paragrafo successivo

81

2.4.1.1 Il calcolo del CoVaR: quali soluzioni?

Adrian e Brunnermeier hanno proposto una stima basata sulla regressione lineare.

In questo senso, il rendimento dell'intermediario i-esimo 𝑟𝑡𝑖 regresso sul rendimento un in-

termediario j-esimo è93

:

𝑟𝛾 ,𝑡𝑖 ,𝑗

= αj + βj𝑟𝛾 ,𝑡𝑖

Dove

𝑟𝑡𝑖 ,𝑗

= rendimento dell'‟intermediario i-esimo per un quantile 𝛾 condizionato all‟istituzione j

Se consideriamo che il CoVaR è definito come il VaR dell'istituzione i (ad un determinato

quantile 𝛾) quando l‟istituzione j si trova in una condizione di distress tale per cui

𝑟𝛾 ,𝑡𝑗

= 𝑉𝑎𝑅𝛾 ,𝑡𝑗

Allora:

𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗

= 𝑉𝑎𝑟𝛾 ,𝑡𝑖 |𝑉𝑎𝑅𝛾 ,𝑡

𝑗= αj + βj𝑉𝑎𝑅𝛾 ,𝑡

𝑗

Invece, la variazione nel tempo del CoVaR e del VaR viene ancora stimata attraverso una

regressione lineare subordinata però ad un vettore di variabili ritardate, formalmente:

𝑉𝑎𝑅𝑡𝑗

= 𝑎𝑗 + 𝑏𝑗𝑀𝑡−1

𝑉𝑎𝑅𝑡𝑖 = 𝑎𝑖 + 𝑏𝑖𝑀𝑡−1

successivamente, il calcolo del 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗

viene compiuto effettuando una regressione di 𝑟𝑡𝑖

su 𝑟𝑡𝑗sullo stesso insieme di variabili.

𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗

= 𝑉𝑎𝑅𝑡𝑖 |𝑉𝑎𝑅𝑡

𝑗= 𝑎𝑖 ,𝑗 + 𝑏𝑖 ,𝑗𝑀𝑡−1 + 𝑐𝑉𝑎𝑅𝑡

𝑗

Dove:

𝑀𝑡−1 = vettore di variabili ritardate a t-1

𝑎, 𝑏, 𝑐,= coefficienti stimati dalla regressione

93

Per una dimostrazione più dettagliata, si veda T. Adrian, M. Brunnermeier; CoVar; Federal Reserve Bank

of New York, Staff Reports; 2009

82

In conclusione, la recente crisi finanziaria ha sollevato preoccupazioni sul rischio sistemi-

co, incrementate dalla constatazione che il VaR non riesce a cogliere questa misura di ri-

schio, e che essa si dimostra indipendente dalle principali grandezze bancarie (vedi Figura

2.15), rendendo difficile la sua quantificazione attraverso semplici indici di bilancio.

Ed è proprio la nascita del CoVaR che consente una maggiore gestione del rischio sistemi-

co da parte degli intermediari finanziari da un lato, e il controllo dello stesso da parte delle

autorità di vigilanza dall'altro.

In questo senso, il grande contributo del CoVaR sta proprio nell‟aver spostato l‟attenzione

della vigilanza dal singolo intermediario, al settore finanziario globale; completando il si-

stema di vigilanza con l‟estensione dello stesso anche a quei comportamenti degli interme-

diari che generano esternalità negative per tutto il sistema.

Fonte: G. Girardi, A. Ergün; Systemic Risk Measurement: Multivariate GARCH Estimation of CoVaR; 2012

Figura 2.15: relazione tra la contribuzione al rischio sistemico (misurato come media del ∆𝑪𝒐𝑽𝒂𝒓)e il rischio della so-

cietà “in isolamento”, misurato con il VaR, la dimensione della società (valor totale degli assets in milioni di dollari), il

leverage della società (rapporto tra attivo totale e l‟equity) e il beta della società

83

2.4.2 L‟Expected Shortfall, una misura di rischio coerente

Nel 1999 Artzner94

propose una misura di rischio alternativa al VaR: l‟Expected Shor-

tfall95

.

L‟Expected Shortfall è definito come il valore atteso delle perdite che scaturiscono oltre

una determinata soglia, generalmente il livello di confidenza 𝛼 del VaR. Formalmente:

𝐸𝑆(1−𝛼) = −1

𝛼 𝐹−1(𝑥)

𝛼

0

𝑑𝑥

Dove:

𝑥 = variabile aleatoria che indica i rendimenti del portafoglio

Sapendo che 𝑧𝛼 rappresenta il 100𝛼-esimo percentile della distribuzione di probabilità

F(x), si può scrivere che 𝑧𝛼 = −𝑉𝑎𝑅(1−𝛼), quindi è possibile scrivere che

𝐸𝑆(1−𝛼) = 𝑉𝑎𝑅(1−𝛼) +1

𝛼 𝐹 𝑥 𝑑𝑥 = −

1

𝛼 𝑥𝑓 𝑥 𝑑𝑥 =𝑧𝛼

−∞

𝑧𝛼

−∞

− 𝐸(𝑋|𝑋 < 𝑧𝛼)

O analogamente,

𝐸𝑆𝛼(𝑋) = 𝐸(−𝑋| − 𝑋 ≥ 𝑉𝑎𝑅𝛼(𝑋))

Similmente a quanto visto per le serie storiche filtrate, considerando la volatilità della di-

stribuzione 𝜍𝑡 , è possibile riscrivere la formula in termini di residui standardizzati

𝐸𝑆 = 𝐸(𝑋|𝑋 < 𝑧𝛼) = 𝜍𝑡𝐸𝑡 𝑋

𝜍𝑡|𝑋

𝜍𝑡<𝑧𝛼 ,𝑡

𝜍𝑡

94

P. Artzner, F. Delbaen, J. Eber, D. Carnegie; Coherent Measures Of Risk; Mathematical Finance; 1998 95

L‟expected Shortfall viene definite anche Average Shortfall (AS), Conditional VaR (CVaR) o Extreme

value at risk (EVaR)

84

Figura 2.16: l‟Expected Shortfall

Fonte: Y. Yamai, T. Yoshiba; On the Validity of Value-at-Risk: Comparative Analyses with Expected Shortfall; Mone-

tary And Economic Studies; 2002

Si può quindi affermare che se il VaR rappresenta la massima perdita probabile per un dato

livello di confidenza, l‟ES rappresenta il valore atteso della perdita che va oltre il valore

stimato dal VaR stesso.

Di conseguenza, se ad esempio il VaR può essere anche definita “la minima perdita poten-

ziale che un portafoglio può soffrire nel 5% dei casi peggiori” o, viceversa “la massima

perdita potenziale che un portafoglio può soffrire nel 95% dei casi 𝛼 = 0,95 dei casi”,

l‟ES è la semplice media delle perdite che scaturiscono nel restante 5% .

2.4.2.1 Le misure di rischio coerenti

Ma perché utilizzare una misura che calcoli una perdita per eventi estremi, quando il VaR

può agevolmente calcolare la perdita per rischi plausibili?

La risposta fornita dallo stesso Artzner è immediata: per quanto il VaR risulti il modello

che presenta il migliore trade-off tra precisione ed istantaneità, esso non può essere consi-

derato una misura di rischio coerente.

Formalmente, prima di definire una misura di rischio coerente, è necessario definire cos‟è

essa stessa una misura di rischio.

85

Dato (Ω, F, P) uno spazio di probabilità, e X un insieme non vuoto di valori reali di una va-

riabile casuale, si definisce 𝜌

𝜌:𝑋 → 𝑅 𝑈 ∞

una misura di rischio.

Secondo Artzner e al.(1999)96

una misura di rischio 𝜌:𝑋 → 𝑅 𝑈 ∞ è coerente se mono-

tona, invariante alle traslazioni, subadditiva, omogeneamente positiva.

- Monotonicità: dati 𝑋, 𝑌 ∈ 𝐹 con 𝑋 < 𝑌 si ha:

𝜌(𝑋) ≤ 𝜌(𝑌)

- Invarianza alle traslazioni: per ogni 𝑋 ∈ 𝐹 (dove 𝐹 è l‟insieme dei valori reali funzione di

Ω, se abbiamo

𝜌 𝑋 + 𝛼 ∙ 𝑟 = 𝜌 𝑋 − 𝛼

Dove:

𝑋 = Variabile aleatoria che indica i rendimenti del portafoglio

𝛼 = Ammontare sommato/sottratto al portafoglio

𝑟 = Rendimento dello strumento di riferimento (tasso risk free)

Allora la misura di rischio 𝜌 è invariante alle traslazioni.

In parole più semplici, se si somma o sottrae un ammontare 𝛼 alla posizione iniziale e lo

investiamo in uno strumento di riferimento, la misura di rischio diminuisce (aumenta) dello

stesso ammontare 𝛼.

Di conseguenza, l‟assioma implica che per ogni 𝑋

𝜌 𝑋 + 𝜌(𝑋) ∙ 𝑟 = 0

- Omogeneità positiva: dato 𝛿 > 0 e 𝑋 ∈ 𝐹, allora

𝜌 𝛿𝑋 = 𝛿𝜌 𝑋

96

P. Artzner, F. Delbaen, J. Eber, D. Heath; Coherent measures of risk; Mathematical Finance; 1999

86

Anche questo assioma ha un riscontro finanziario: data una posizione 𝛿𝑋, essa è più grande

e ragionevolmente meno liquida della posizione 𝑋; la rischiosità associata alla illiquidità

dello strumento 𝛿𝑋 deve essere maggiore o tutt‟al più uguale a 𝛿 posizioni di importo 𝑋

- Subadditività: per ogni 𝑋1, 𝑋2 ∈ 𝐹

𝜌 𝑋1 + 𝑋2 ≤ 𝜌 𝑋1 + 𝜌 𝑋2

La subadditività può essere considerata un requisito naturale nel mondo finanziario.

Ad esempio, se la proprietà non fosse soddisfatta, un individuo che voglia caricarsi dei ri-

schi 𝑋1 + 𝑋2 avrebbe interesse a separare i rischi in due conti differenti, piuttosto che unir-

li in un unico conto o, ancora, una impresa che deve soddisfare i requisiti di capitalizzazio-

ne (in cui quindi i rischi sono aggregati 𝜌 𝑋1 + 𝑋2 ), sarebbe incentivato a separarsi in due

entità, così da pagare un requisito minore, in quanto 𝜌 𝑋1 + 𝑋2 ≥ 𝜌 𝑋1 + 𝜌 𝑋2 .

Come si è avuto modo di vedere utilizzando i modelli VaR, le principali difficoltà nella

stima si incontrano dovendo includere nell‟analisi tutti i risk factor che interessano il porta-

fogli.

Questo ostacolo risulta ancor più accentuato dalla mancanza di non-additività, in particola-

re il VaR presenta:

- Non-additività da posizione: dato un portafoglio composto da due subportafogli, il VaR

complessivo non è dato dalla somma dei due parziali VaR con la conseguenza che l'ag-

giunta di un nuovo strumento di un portafoglio obbliga a ricalcolare il VaR per l'intera

portafoglio.

- Non-additività da fattori di rischio: un vantaggio del VaR consiste nella possibilità di di-

saccoppiare i rischi associati a diversi fattori di rischio, “accedendo” al VaR solo per una

classe di fattori di rischio. Si poi parla in questi casi di VaR parziale, come ad esempio

l‟Interest Rate VaR (IRVAR), Forex VaR (FXVaR), VaR Equity (EQVaR), Credit VaR

(CVaR).

Tuttavia questo non supera i problemi di calcolo del VaR in quanto vige la non additività

dei fattori di rischio: per un portafoglio su cui insistono molteplici variabili di rischio, il

VaR non è la somma dei VaR parziali.

87

Nondimeno, l‟ES non può essere considerato un modello superiore al VaR: innanzitutto

stimare la coda della distribuzione può risultare complesso se compiuta utilizzando metodi

tradizionali, in quanto, alcune proprietà dei prezzi delle attività possono modificarsi se os-

servate in condizioni di mercato normali o in condizioni estreme, e ciò rende più difficolto-

so utilizzare un modello di simulazione come il Monte Carlo.

In secondo luogo il backtesting risulta di difficile applicazione, dovendo calcolare la media

tra il valore della Expected Shortfall e le perdite realizzate oltre il VaR, che, essendo in-

frequenti, rendono impossibile una stima accurata.

2.4.3 Il CaViaR

Il VaR è definito come la massima perdita possibile con una probabilità dell'𝛼% per un o-

rizzonte di tempo predefinito, un altro modo di esprimere il VaR è indicarlo come il più

basso quantile delle perdite potenziali che scaturiscono all‟interno di un determinato porta-

foglio durante un periodo specifico.

Di conseguenza, stimare il quantile significa stimare direttamente il valore a rischio della

posizione/portafoglio.

Quindi, sfruttando la teoria del valore estremo (EVT)97

il VaR viene interpretato come un

particolare quantile dei valori futuri del portafoglio, su questa intuizione Engle e Manga-

nelli98

hanno dato vita all‟approccio CAViaR (Conditional, Autoregressive, Value at Risk)

mediante il quale piuttosto che modellare l‟intera distribuzione, si considera direttamente il

quantile mediante un processo autoregressivo.

97

La teorica del valore estremo (Extreme Vlue Theory) si preoccupa di modellare solamente le code estreme

della distribuzione, in quanto queste sono l‟unico obiettivo del risk management.

Secondo la teoria, per un campione molto ampio, tali code convergono alla distribuzione di Pareto generaliz-

zata, la quale viene poi utilizzata con vari approcci per il calcolo del VaR. 98

Per un‟analisi più approfondita, vedi R. Engle; S. Manganelli; CAViaR: Conditional Autoregressive Value

at Risk by Regression Quantiles; 2002

88

Definito 𝑟 l‟insieme dei rendimenti e 𝛼 il livello di confidenza, cioè la probabilità associata

al VaR (𝛼 è la probabilità che la perdita massima sia pari al VaR), la formulazione genera-

le del CAViaR è:

(3.0) 𝑞𝑡 ,𝛼 = 𝑓𝑡 𝛽𝛼 = 𝛽0 + 𝛽𝑖𝑓𝑡−𝑖 𝛽𝛼 + 𝛽𝑗 𝑙 𝑥𝑡−𝑗 𝑟

𝑗=1

𝑞

𝑖=1

In cui:

𝑥𝑡 = vettore di variabili osservate al tempo t

𝑓𝑡 𝛽𝛼 = 𝑓(𝑥𝑡−1;𝛽𝛼) = funzione che individua l‟ 𝛼 quantile della distribuzione definita al

tempo t-1, dove Prt−1 𝑟𝑡 ≤ 𝑓𝑡 𝛽𝛼 = 𝛼

𝛽𝛼 = vettore di dimensione 𝑝 = 𝑞 + 𝑟 + 1

𝑙 𝑥𝑡−j = funzione delle x osservazioni ritardate

𝛽0,𝛽𝑖 ,𝛽𝑗 = parametri

Dalla formulazione generale della (3.0) è possibile derivare differenti modelli, ad esempio

il Symmetric Absolute Value:

𝑞𝑡 ,𝛼 = 𝑓𝑡 𝛽𝛼 = 𝛽1 + 𝛽2𝑓𝑡−1 𝛽 + 𝛽3|𝑟𝑡−1|

O l‟Indirect GARCH (1,1):

𝑞𝑡 ,𝛼 = 𝑓𝑡 𝛽𝛼 = 𝛽1 + 𝛽2𝑓𝑡−12 𝛽 + 𝛽3𝑟𝑡−1

2

È facile constatare come in entrambi i modelli, il quantile è condizionato alla realizzazione

del rendimento del periodo precedente

89

Invece, i parametri 𝛽0,𝛽𝑖 ,𝛽𝑗 sono stimati mediante quantili di regressione99

. Si consideri

𝑟 𝑡=1𝑇 = 𝑟1; 𝑟2;⋯𝑟𝑇 come un campione casuale generato da

𝑟𝑡 = 𝑥𝑡′𝛽0 + 휀𝛼 ,𝑡

Dove:

휀𝛼 ,𝑡 = Errore associato al livello di confidenza 𝛼,il cui quantile associato è nullo

𝑞𝛼 휀𝛼 ,𝑡 𝑥𝑡 = 0

𝑥𝑡′ = vettore di regressori

Dato 𝑓𝑡 𝛽𝛼 = 𝑥𝑡′𝛽0 i quantili di regressione sono definiti attraverso un problema di mini-

mizzazione, come quei 𝛽 che risolvono:

𝑚𝑖𝑛𝛽1

𝑇 𝜃 − 𝑙 𝑟𝑡 < 𝑓𝑡 𝛽𝛼 𝑟𝑡 − 𝑓𝑡 𝛽𝛼

𝑇

𝑡=1

99

I quantili di regressione sono definiti in maniera dettagliata in R. Koenker; G. Bassett; Regression Quanti-

les; Econometrica; 1978.

90

CAPITOLO 3.

Il Var e la sua applicazione: i requisiti patrimoniali

imposti da Basilea a fronte dei rischi di mercato

3.1 L‟impiego del VaR a fini regolamentari: Il Market Risk Amendment

La pubblicazione del documento di consultazione del „93100

che per primo propose

l‟accantonamento a fronte del rischio di mercato, non esaurì gli obblighi del Comitato di

Basilea.

Infatti nel corso dei due anni successivi il documento fu riesaminato e, dopo la proposta

preliminare del ‟95, nel 1996 fu pubblicato ufficialmente il Market Risk Amendment, che

da una parte ribadisce quanto definito dal documento del ‟93 circa la costituzione del Tier

3 e il calcolo del requisito per i rischi di tasso, azionario e di cambio, e dall'altra introduce

modifiche all‟accordo iniziale potenziando il quadro normativo previsto dal primo Accordo

di Basilea.

Innanzitutto il nuovo accordo include il rischio commodities, cioè il rischio in posizioni in

merci e metalli preziosi101

.

Il Market Risk Amendment permette di stimare tale rischio attraverso un metodo per sca-

denze o un metodo semplificato, ma in entrambi i casi, le caratteristiche del mercato delle

commodities (complessità102

, alta volatilità e bassa liquidità) ha spinto il Comitato a vietare

la compensazione tra merci ma a consentire, su approvazione delle autorità di Vigilanza, la

compensazione tra sottomerci.

100

Per maggiori dettagli vedi Appendice D 101

Ad esclusione dell'‟oro, che è inserito tra i rischi di cambio in quanto lo stesso comitato di Basilea afferma

che “[...]la volatilità dell'‟oro è più simile a quella delle valute estere e le stesse banche gestiscono l‟oro in

modo analogo ad una valuta.” V. Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali

per incorporarvi i rischi di mercato; 1996. 102

Il mercato delle commodities è influenzato da quattro tipi di rischio: rischio direzionale (fluttuazione del

prezzo attuale), rischio base (rischio che la relazione e/o il rapporto tra merci analoghe si modifichi), rischio

di tasso d‟interesse (rischio che vari il costo di finanziamento di posizioni a termine e in opzioni) e il foward

gap risk (rischio che il prezzo a pronti cambi per ragioni diverse dalla variazione dei tassi d‟interesse)

91

Utilizzando il primo metodo, ogni merce viene inserita in uno scadenzario e, compensando

le posizioni lunghe e corte, si moltiplica il valore a pronti della posizione netta di fascia per

un coefficiente di spread.

Successivamente si compensano le posizioni residue nette, a patto che la copertura recipro-

ca imprecisa venga compensata applicando un addizionale dello 0,6% al risultato della

somma tra fasce.

Il requisito patrimoniale sarà calcolato come il 15% della posizione netta finale per ogni

merce.

Nel metodo semplificato invece, il valore del rischio commodities è pari al 15% della posi-

zione netta ( posizione lunga meno corta, a prescindere dalle scadenze)per ogni merce,

maggiorato del 3% della posizione lorda (lunga più corta).

Nondimeno, la novità più importante del Market Risk Amendment rimane l‟approvazione

all‟uso di modelli interni per la misurazione del rischio di mercato.

La scelta è perlopiù scaturita dalle numerose critiche che hanno accompagnato l‟approccio

standard.

Difatti, se da un lato il metodo risultava eccessivamente prudenziale ad esempio nello

sproporzionato valore delle ponderazioni nella vertical disallowance o il divieto di com-

pensare posizioni azionarie su mercati diversi, dall'altro esso trascurava alcuni “ingredien-

ti” finanziari come ad esempio la diversificazione, in quanto il sistema a building block

consentiva di sommare il requisito per le diverse posizioni, ignorando implicitamente la

correlazione tra i fattori di mercato.

L‟impostazione presentata nell‟aprile ‟93 finiva quindi per danneggiare le banche, ed in

particolare le banche di maggiori dimensioni, le quali erano impossibilitate a sfruttare le

correlazioni esistenti nei loro portafogli di grande entità.

Tuttavia, a convincere il comitato circa la necessità di un nuovo accordo fu l‟analisi empi-

rica svolta nel 1994 in cui a 15 banche fu affidato un portafoglio di 350 posizioni su cui

stimare il valore a rischio per tutto il portafoglio e per ogni macro-fattore di rischio, su un

holding period decadale e un livello di confidenza del 99%.

L‟esercizio di simulazione accertò come il ricorso a un modello standard forniva risultati

divergenti tra gli intermediari, causati soprattutto da differenze sostanziali nelle variabili

utilizzate nel calcolo.

92

In particolare le banche si differenziavano per:

Orizzonte temporale scelto, che andava da qualche mese a più di un anno

Dimensione del campione utilizzato per la stima della volatilità

Trattamento del rischio connesso con le opzioni

Metodo di aggregazione delle singole misure dei rischi: alcune banche consideraro-

no la correlazione tra risk factor, mentre altre sommarono i valori a rischio

Definizione dei fattori di rischio, ad esempio, nel numero di scadenze utilizzate nel

clumping delle obbligazioni.

Mentre il Comitato constatava che il metodo standard avrebbe potuto non offrire la giusta

proxy per il calcolo del requisito patrimoniale, stavano conoscendo una sempre maggiore

diffusione i modelli basati sul VaR e implementati da J.P. Morgan.

Il Comitato decise quindi di considerarli come un‟alternativa al metodo a blocchi, autoriz-

zando gli intermediari ad istituire modelli interni per la misurazione del rischio di mercato.

Il Market Risk Amendment consente piena libertà nel modello da utilizzare, a condizione

che il valore a rischio venga calcolato su base giornaliera, livello di confidenza sia del 99%

e il periodo di detenzione sia stabilito a 10 giorni, anche se lo stesso Comitato autorizza

l‟utilizzo di periodi di tempo più brevi e della tecnica della volatilità scalata per ottenere in

un secondo tempo la volatilità decadale.

Inoltre, a differenza di quanto previsto nella proposta del ‟93, il Comitato tiene conto della

correlazione imperfetta tra assets, e acconsente all‟utilizzo di correlazioni empiriche tra at-

tività.

Per quanto riguarda la scelta dei dati, l‟MRA stabilisce che teoricamente, le serie di dati

devono essere aggiornate con una cadenza non inferiore ai tre mesi (ma che è possibile una

revisione in qualsiasi momento in caso di shock rilevanti) e che, per quanto riguarda le se-

rie storiche utilizzate nella stima, il periodo di osservazione deve riguardare un anno in ca-

so di media semplice, e sei mesi in caso di media ponderata esponenziale (come ad esem-

pio nell‟Approccio Ibrido).

93

Considerando che spesso un modello interno cattura solo il rischio generico di portafoglio,

il Comitato ha stabilito che al rischio generico stimato dal VaR è necessario sommare il ri-

schio specifico103

.

Si desume quindi che il requisito patrimoniale totale a fronte del rischio di mercato è misu-

rato come somma del il rischio generico calcolato come il maggiore tra il VaR del giorno

precedente e la media dei VaR degli ultimi sessanta giorni moltiplicata per un fattore di

ponderazione e il rischio specifico, misurato attraverso il metodo standard.

𝐶𝑅.𝑚𝑟𝑘 = 𝑚𝑎𝑥 𝑉𝑎𝑅𝑡−1;𝐾 ∙ 𝑉𝑎𝑅𝑡−1

60𝑡=1

60 + 𝐶𝑅.𝑠

Dove

𝑉𝑎𝑅𝑡−1= VaR decadale relativo al giorno precedente

𝐾 = fattore di ponderazione o scaling factor

𝐶𝑅.𝑠 = capitale allocato a fronte del rischio specifico

Il Comitato ha stabilito che le Autorità di Vigilanza hanno il compito di stabilire il valore

del fattore correttivo 𝐾 che varia da 3 a 4, (al valore minimo di tre è prevista una maggio-

razione tra 0 e 1), che dipenderà dalla “qualità” del modello, determinata dalla stessa Auto-

rità di Vigilanza attraverso un test retrospettivo.

Sempre all‟Autorità spetta l‟autorizzazione all‟utilizzo di modelli interni, subordinata ad

un‟adeguata struttura del modello rispetto all‟attività bancaria, all‟efficacia del modello

proposto, all‟esecuzione di prove di stress.

Questi requisiti quantitativi non esauriscono gli obblighi per gli intermediari: il Market

Risk Amendment impone che l‟utilizzo dei modelli interni sia subordinato altresì al rag-

giungimento di criteri qualitativi, i quali concernono la correttezza e l‟integrità del modello

e l‟integrazione dello stesso nella più ampia struttura di risk management della banca.

103

Il Comitato acconsente all‟uso di modelli interni anche per il calcolo del rischio specifico di obbligazioni e

azioni, a patto che il requisito misurato con i modelli sia almeno pari al 50% del corrispondente requisito mi-

surato con il metodo standard

94

In particolare la banca deve possedere un sistema di gestione del rischio in cui:

a) Venga creata un‟unità di gestione del rischio indipendente che produca e analizzi

rapporti quotidiani sui risultati del modello di misurazione del rischio;

b) Cda e il Direttore generale abbiano parte attiva nella gestione del rischio e la banca

riesamini almeno annualmente il sistema di misurazione del rischio, comprendente

l‟attività delle unità di trading e dell'unità di controllo del rischio.

c) Si utilizzi attivamente il modello interno per il processo quotidiano di risk

management e l‟attività di programmazione e controllo;

d) Vengano svolte regolari prove di stress, al fine di individuare le vulnerabilità del

modello e definire il profilo di rischio alla luce dei limiti di esposizione fissati dal

management.

In particolare, il Market Risk Amendment stabilisce che “gli scenari di stress devono

contemplare tutta una gamma di fattori in grado di generare perdite e guadagni

straordinari nei portafogli di negoziazione o di rendere molto difficoltoso il controllo

del rischio. Fra tali fattori rientrano eventi di bassa probabilità e [...] gli scenari di

stress devono poter evidenziare l‟impatto di questi eventi sulle posizioni con caratte-

ristiche di prezzo sia lineari che non lineari104

”.

L‟intermediario dovrà produrre condizioni di stress definite combinando quanto de-

finito dall'Autorità di Vigilanza con le prove di stress elaborate dalle banche in base a

caratteristiche peculiari105

.

Tali condizioni devono comprendere sia situazioni di shock dei prezzi che situazioni

di shock dei parametri quali volatilità e correlazione.

Nel primo caso ci si avvale di scenari caratterizzati da forte perturbazione, come il

crollo della borsa dell'87 o la crisi dello SME del ‟92, mentre nel secondo caso si uti-

lizzano i valori estremi delle distribuzioni relative a valori passati.

In seguito, l‟intermediario deve valutare la capacità del Patrimonio di far fronte alle

ingenti perdite manifestate dagli stress test e la capacità avviare contromisure per la

riduzione del rischio complessivo.

104

Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali per incorporarvi i rischi di

mercato; 1996 105

Gli scenari di stress definiti dalla banca e i relativi risultati devono comunque essere sottoposti a verifica

da parte dell'‟autorità di Vigilanza

95

e) Si svolgano una serie documentata di politiche, procedure e controlli interni concer-

nenti il funzionamento del sistema;

L‟emanazione del Market Risk Amendment arricchisce il generale sistema di allocazione

del capitale e gestione del rischio106

: con l‟emendamento il requisito patrimoniale totale

minimo è fissato come somma tra:

Requisito a fronte del rischio di credito (ad esclusione del rischio su titoli di capitale e

obbligazionari e le posizioni in merci)

Requisito a fronte del rischio di mercato, definito alternativamente da:

Somma dei requisiti per i rischi di mercato, sia generici che specifici, definiti at-

traverso il metodo standard

Somma dei requisiti per i rischi di mercato, in cui i rischi generici sono stimati at-

traverso un modello interno, mentre quelli specifici utilizzando il metodo standard

Combinazione dei metodo standard e del metodo a modelli interni107

Il coefficiente di solvibilità rimane definito come rapporto tra Patrimonio di Vigilanza e at-

tivi ponderati per il rischio.

Per il rischio di mercato tale valore è definito moltiplicando il requisito a fronte del rischio

di mercato per 12,5% (reciproco dell'8% minimo richiesto dal coefficiente di solvibilità) e

sommando questo valore all‟RWA del rischio di credito, quindi:

𝑃𝑎𝑡𝑟𝑖𝑚𝑜𝑛𝑖𝑜 𝑑𝑖 𝑉𝑖𝑔𝑖𝑙𝑎𝑛𝑧𝑎

𝑅𝑊𝐴𝑟 .𝑐𝑟𝑒𝑑𝑖𝑡𝑜 + 𝑅𝑊𝐴𝑟 .𝑚𝑒𝑟𝑐𝑎𝑡𝑜≥ 8%

106

Un ulteriore miglioramento si avrà con l‟introduzione del rischio operativo da parte di Basilea II, vedi Par.

3.4 107

L‟emendamento precisava che le banche che avviavano un sistema di modellistica interno solo per alcuni

fattori di rischio dovevano poi estenderlo a tutti gli altri.

Nondimeno, nella fase di transizione l‟Emendamento permetteva un utilizzo integrato dei due modelli, a pat-

to che si soddisfacessero alcuni requisiti.

Per maggiori dettagli si veda Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali per

incorporarvi i rischi di mercato;1996.

96

3.2 I modelli di backtesting

“Value at Risk is only as good as its backtest.

When someone shows me a Value at Risk

number, I don‟t ask how it is computed,

I ask to see the backtest”108

Il capitolo precedente ha mostrato che l‟utilizzo di modelli interni è subordinato allo svol-

gimento di test retrospettivi, o backtesting, al fine di valutare la qualità del modello.

Sostanzialmente, il backtesting è “un framework statistico che consiste nel verificare se le

perdite sono in linea con le perdite stimate. Ciò implica un confronto sistematico delle

previsioni generate dal modello VaR con rendimenti effettivi e di genere si basa su test che

verificano le violazioni del VaR”109

.

Si definisce violazione un‟osservazione110

che presenta una perdita superiore rispetto al va-

lore a rischio stimato, formalmente:

𝐼𝑡+1 = 1 𝑠𝑒 𝑟𝑡+1 ≤ −𝑉𝑎𝑅 (𝑎𝑣𝑣𝑖𝑒𝑛𝑒 𝑢𝑛′𝑒𝑐𝑐𝑒𝑧𝑖𝑜𝑛𝑒 )

0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖

da cui, una hit function, è una funzione che misura, attraverso una sequenza di 0 e 1, quan-

te volte si manifesta un‟eccezione.

Christoffersen111

asserì che un modello VaR è valido se e solo se la sequenza di

ni 𝐼𝑡+1 𝑡=1𝑡=𝑇 generate dal modello stesso soddisfa due proprietà:

Ipotesi di copertura non condizionata: la probabilità di realizzare eccezioni deve es-

sere pari al livello di confidenza

Pr 𝐼𝑡+1(𝛼) = 1 = 𝐸 𝐼𝑡+1 𝛼 = 𝛼

108

A. Brown (Risk Manager) in un discorso del Luglio 2008 alla “Global Association of Risk Professionals” 109

P. Jorion; Value at Risk; McGraw-Hill; 2007 110

Si ricorda che l‟ampiezza dell'‟osservazione dipende dall'‟holding period utilizzato.

Più semplicemente, l‟osservazione è giornaliera in un VaR giornaliero, decadale in un VaR a due settimane e

così via 111

P. Christoffersen; Evaluating interval forecast; International Economic Review; 1998

97

se le eccezioni fossero maggiori di 𝛼, il modello sottostimerebbe il rischio; vicever-

sa il numero di eccezioni è molto al disotto della probabilità definita, il modello so-

vrastima l‟entità delle perdite.

I test di unconditional coverage verificano ex post che il numero di violazioni effet-

tivamente verificatesi sia in linea con il numero di eccezioni previste dal modello.

Sostanzialmente, i test di copertura incondizionata si basano su una logica speculare

rispetto al VaR: se con quest‟ultimi si effettua una previsione circa le possibili per-

dite future, con i secondi si paragonano ex post i risultati della negoziazione con i

risultati forniti precedentemente dal VaR: se il modello è corretto si dovrebbe otte-

nere un numero di eccezioni, cioè di perdite che superano il valore a rischio, pari al

massimo al livello di confidenza scelto (Figura 3.1) o, di converso, un rapporto tra

gli outliner teorici e quelli riscontrati ex post pari a 1.

Figura 3.1: perdite/guadagni stimati dal VaR (𝒛𝜶 = 𝟏,𝟔𝟓) confrontati con perdite/profitti reali (holding period giornalie-

ro)

Fonte: J.P.Morgan/Reuters; RiskMetrics™,Technical Document; 1996

98

Ipotesi d‟indipendenza: le eccezioni passate non possiedono informazioni sulle ec-

cezioni future, in altre parole le eccezioni osservate in due momenti differenti de-

vono essere indipendenti.

La violazione della condizione di indipendenza implica che le eccezioni tendono ad

addensarsi in un lassi di tempo brevi.

Questo raggruppamento aumenta esponenzialmente l‟esposizione al rischio per

l‟intermediario, in quanto comporta che i requisiti patrimoniali per il rischio di

mercato siano inadeguati in periodi prolungati, ma soprattutto in periodi in cui il

VaR tende ad essere maggiormente volatile, cioè durante gli episodi di maggior ri-

schio.

Un modello che viola l‟ipotesi di indipendenza può risultare maggiormente rischio-

so di un modello che viola l‟ipotesi di copertura incondizionata

Invero, dal punto di vista dell'intermediario fronteggiare periodi prolungati di perdi-

te inattese (cioè superiori a quanto stimato dal VaR) potrebbe essere più problema-

tico della gestione di un numero di perdite maggiori, ma distribuite in un lasso di

tempo più ampio.

Quindi, la proprietà di indipendenza tra le eccezioni pone una forte restrizione al

modo con cui le eccezioni si manifestano: in parole povere, la clusterizzazione si

traduce in una serie di eccezioni prevedibili e questo comporta una violazione delle

proprietà di indipendenza, ma soprattutto segnala una mancanza di reattività del

modello VaR alle condizioni di mercato.

Quindi, un modello di backtesting deve poter misurare non solo l‟entità delle perdite, ma

anche la frequenza delle stesse poiché la proprietà di copertura incondizionata pone una re-

strizione sulla quantità di violazioni del VaR, mentre la proprietà indipendenza limita la

misura con cui tali violazioni possono manifestarsi.

La serie di eccezioni 𝐼𝑡+1 𝑡=1𝑡=𝑇 che soddisfa simultaneamente l‟ipotesi di unconditional co-

verage e l‟ipotesi di indipendenza si dice che presenta una conditional coverage, tale per

cui

𝐸 𝐼𝑡+1 𝛼 |Ω𝑡 = 𝛼

99

E la serie stessa è i.i.d. come è una variabile casuale Bernulliana in cui Pr 𝐼𝑡+1 = 𝛼

𝐼𝑡Errore. Il segnalibro non è definito. 𝛼 ~𝐵(𝛼)

Un modello VaR che presenta una serie di eccezioni a copertura condizionata è un modello

accurato.

In conclusione, il contributo di Christoffersen si è concretizzato nel definire delle proprietà

che rendono o meno accurato un modello VaR, e di conseguenza a questa logica si sono

affiancati una pluralità di test retrospettivi, che si preoccupano di verificare se il modello

possiede uno o entrambi i requisiti, e generalmente basati su test delle ipotesi112

.

In particolare si distingue (Figura 3.2 e 3.3):

Test di unconditional coverage;

Test di indipendenza;

Test della conditional coverage;

Test basato sulla funzione di perdita.

112

Nel test delle ipotesi si individuano due ipotesi: l‟ipotesi nulla 𝐻0 e l‟ipotesi alternativa 𝐻1.

Nel nostro caso, se l‟ipotesi nulla 𝐻0 è rigettata, le previsioni del VaR non sono ottimali, quindi il modello è

inaccurato; viceversa se l‟ipotesi nulla è accettata, è accolto anche il modello. È importante anticipare che il test delle ipotesi comporta 2 tipi d‟errore, legati da relazione inversa:

Errore del primo tipo (α), cioè l‟errore di rifiutare l‟ipotesi 𝐻0 quando è vera (nel nostro caso, rifiutare un

modello VaR quando esso è coerente)

Errore del secondo tipo (β), cioè l‟errore di accettare 𝐻0 quando è falsa (nel nostro caso, accettare un modello

VaR quando questo non compie una buona stima)

Si definisce potenza del test il complemento a 1 dell‟errore del second tipo, cioè la quantità 1-β, ed esprime

quindi la capacità del test di accertare la falsità di H0 quando questa è effettivamente falsa.

Ogni test delle ipotesi comporta sempre il bilanciamento tra i due tipi di errori: rifiutando un modello accura-

to rispetto a accettare un modello impreciso. Essendo più grave commettere errore del secondo tipo piuttosto

che l‟errore del primo tipo, ai nostri fini è importante la potenza del test sia elevata.

Un test statisticamente più potente minimizza efficacemente entrambe queste probabilità.

100

Figura 3.2 modelli di backtesting: struttura

Fonte: KPMG; Financial Risk Management Backtesting Value at Risk Models; 2011

Figura 3.3: test incondizionato e condizionato su un processo GARCH(1,1); considerando un intervallo di confidenza del

95%

Fonte: J. Lopez; Regulatory Evaluation of Value-at-Risk Models; Federal Reserve Bank of New York; 1997

101

3.2.1 I test di Unconditional Coverage: POF (Proportion of Failures) e

TUFF (Time until First Failure)

Il test creato da Kupiec113

nel „95, detto anche Proportion Of Failures test (test sulla pro-

porzione dei fallimenti), si concentra sulla misura della conditional coverage e misura

quante volte la realtà empirica viola la stima del VaR.

Il test di Kupiec si basa sul test di massima verosimiglianza: l‟ipotesi nulla 𝐻0 è che la

probabilità di osservare delle eccezioni, determinata empiricamente coincida con la proba-

bilità definita nel livello di confidenza

𝐻0:𝑝 = 𝛼

La statistica corrispondente è definita dal test di massima verosimiglianza, dato dal rappor-

to tra due funzioni di verosimiglianza114

, una vincolata rispetto all‟ipotesi nulla e una non

vincolata.

𝐿𝑅𝑃𝑂𝐹 = −2ln 𝛼𝐼 𝛼 1 − 𝛼 𝑇−𝐼 𝛼

𝑝 𝐼 𝛼 1 − 𝑝 𝑇−𝐼 𝛼 ~𝜒2(1)

Dove:

𝛼 = Livello di confidenza

T = Numero totale di osservazioni

𝑝 = Frequenza delle eccezioni effettivamente registrate, dato da 𝑝 = 𝐼(𝛼) T dove

𝐼 𝛼 = 𝐼(𝛼)𝑇𝑡=1 è la quantità di eccezioni osservate

Il test è definito sul logaritmo naturale del quoziente: è immediato costatare che se 𝛼 è

molto prossimo a 𝑝 l‟evidenza empirica conferma quanto stimato dal modello, quindi il test

assumerà valori prossimi a zero e si accetterà il modello, viceversa il test assumerà valori

positivi e molto alti.

113

P. Kupiec; Techniques for verifying the accuracy of risk measurement models; 1995 114

È importante ricordare che il test rapporto delle massime verosimiglianze è una statistica-test che calcola il

rapporto tra le massime probabilità di un risultato sotto le due ipotesi alternative. La massima probabilità del

risultato sotto ipotesi nulla è definito al numeratore, mentre la massima probabilità del risultato sotto ipotesi

alternativa è definito al denominatore.

102

Asintoticamente, il test si distribuisce come una chi-quadro con un grado di libertà, è quin-

di possibile definire un valore critico, pari al quantile della chi-quadro115

𝜒2, che costituirà

il valore-soglia sulla possibilità di accettare o rifiutare l‟ipotesi nulla.

Se i test basati sul numero di eccezioni possono contare su semplicità, immediatezza e un

numero limitato di ipotesi forti, presentano fondamentalmente due svantaggi: generalmen-

te questi test presentano difficoltà di misurazione con modelli VaR che sistematicamente

sottostimano il rischio e in campioni di dimensioni coerenti con l'attuale quadro normativo,

(cioè un anno) essi presentano una bassa potenza, come riconosciuto dall'autore stesso.

In secondo luogo questi test ignorano in che misura è soddisfatta la proprietà di indipen-

denza, e di conseguenza, espongono al rischio di eccezioni clusterizzate.

ricordando che violazioni dipendenti segnalano una assenza di sensibilità del modello alle

mutevoli condizioni di mercato, basarsi unicamente sui test di unconditional coverage po-

trebbe risultare aleatorio.

Sulla stessa idea del POF test, Kupiec ha definito il TUFF Time Until First Failure (tempo

fino alla prima eccezione), cioè un test che oltre ad individuare la quantità delle eccezioni

misura il tempo trascorso prima della prima eccezione.

La corrispondente statistica è ancora una volta definita dal rapporto tra due funzioni di

massima verosimiglianza:

𝐿𝑅𝑇𝑈𝐹𝐹 = −2𝑙𝑛 𝛼(1− 𝛼)𝜐−1

𝑝 (1− 𝑝 )𝑣−1 ~𝜒2(1)

Anche il TUFF test si distribuisce come una chi-quadro con un grado di libertà, consenten-

do di accettare o rifiutare l‟ipotesi nulla se il valore del test supera il limite definito dall'a-

nalista.

115

È opportuno chiarire che il quantile stabilito dalla chi-quadro definisce un livello di confidenza che nulla

ha a che fare con il livello di confidenza stabilito nel VaR.

103

3.2.2 Test di indipendenza: il test di Markov

In termini statistici, ogni test di indipendenza è definito sulla base del test delle ipotesi, in

cui l‟ipotesi nulla presuppone che le violazioni siano indipendenti, mentre l‟eventuale a-

nomalia che il test deve analizzare è prevista nell‟ipotesi alternativa.

Quindi tutti tests di indipendenza svolgono una verifica limitata sul modello: ci sono mi-

riadi di modi in cui la proprietà di indipendenza può essere violata, ma ogni modello di ba-

cktest può studiare una sola forma di violazione.

Tra i tests d‟indipendenza, il più utilizzato è senza dubbio il cosiddetto test di Markov rea-

lizzato da Christoffersen116

, che sfrutta lo stesso test di massima verosimiglianza del POF.

Il test verifica se la probabilità di un'eccezione in qualsiasi giorno dipende o meno dal ma-

nifestarsi dell'eccezione il giorno precedente: definito 𝑛𝑖𝑗 in numero di giorni in cui è av-

venuta la condizione j, condizionata all‟avvenimento della condizione i il giorno preceden-

te, le eccezioni possono essere visualizzate in una tabella 2x2 tale per cui:

𝐼𝑡−1 = 0 𝐼𝑡−1 = 1

𝐼𝑡 = 0 𝑛00 𝑛10 𝑛00 + 𝑛10

𝐼𝑡 = 1 𝑛01 𝑛11 𝑛01 + 𝑛11

𝑛00 + 𝑛01 𝑛10 + 𝑛11 N

Dove:

𝑛𝑖𝑗 = numero di giorni in cui un‟eccezione nel giorno j-esimo (𝐼𝑡) è preceduta da

un‟eccezione nel giorno i-esimo (𝐼𝑡−1)

116

In realtà questo test è parte integrante del test di previsione dell'intervallo di Christoffersen.

A fine divulgativo si è preferito scorporarlo dal suo contesto..l‟autore ci perdonerà per questa trasgressione!

104

Si consideri una catena di Markov117

di prim‟ordine, con una matrice di transizione data da

Π1 = π00 π01

π10 π11

Dove:

𝜋𝑖𝑗 = Pr(𝐼𝑡 = 𝑖|𝐼𝑡−1 = 𝑗) cioè la probabilità che il giorno j-esimo (cioè in t) vi sia una

violazione, condizionata a quanto successo in giorno i-esimo (cioè in t-1),

E quindi

π00 = 1 − π01

π10 = 1 − π11

Da cui la matrice di transizione:

Π1 = 1 − π01 π01

1− π11 π11

Tali parametri sono stimati attraverso le frequenze campionarie 𝑛𝑖𝑗 , per cui:

Π 1 =

𝑛00

𝑛00 + 𝑛01

𝑛01

𝑛00 + 𝑛01𝑛10

𝑛10 + 𝑛11

𝑛11

𝑛10 + 𝑛11

117

Una catena di Markov finita è un sistema composto da un numero finito di n stati, in cui la probabilità che

il sistema passi dallo stato i allo stato j al tempo t-1 è pij t .

Dato un tempo t e una catena di Markov, la matrice

𝑝𝑡 =

𝑝11 (𝑡) 𝑝12(𝑡) ⋯

𝑝21 (𝑡) 𝑝22(𝑡) ⋯

⋮ ⋮ ⋱

È detta matrice di transizione stocastica, in cui

0 ≤ 𝑝𝑖𝑗 ≤ 1 e 𝑝𝑖𝑗 = 1𝑛𝑗=1

La riga i-esima della matrice 𝑃𝑡 descrive l‟ evoluzione di i al tempo t; pertanto la somma di tutti i valori deve

essere 1.

Ulteriori approfondimenti esulano dalle competenze di questo lavoro, si consiglia di vedere altrove.

105

Se è verificata l‟ipotesi d‟indipendenza, la probabilità di ottenere un‟eccezione il giorno t è

indipendente dal verificarsi dell'eccezione il giorno t-1 e di conseguenza, la probabilità che

ieri si sia verificata l‟eccezione deve essere uguale alla probabilità che non si sia verificata,

formalmente

(3.1) 𝐻0:𝜋00 = 𝜋10 = 1− 𝜋

E di conseguenza: 𝜋10 = 𝜋11 = 𝜋

Da cui la matrice di transizione nell‟ipotesi nulla è data da

Π 2 = 1− 𝜋 𝜋

1− 𝜋 𝜋

In questo modo possibile costruire una statistica definita ancora una volta dal rapporto di

massima verosimiglianza:

𝐿𝑅𝑖𝑛𝑑 = −2 ln 𝐿 𝑛 𝜋

𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = −2𝑙𝑛

1− 𝜋 𝑛00𝜋𝑛01 1− 𝜋 𝑛10𝜋𝑛11

𝜋00𝑛00𝜋01

𝑛01𝜋10𝑛10𝜋11

𝑛11

= −2𝑙𝑛 1− 𝜋 𝑛00 +𝑛10𝜋𝑛01 +𝑛11

𝜋00𝑛00𝜋01

𝑛01𝜋10𝑛10𝜋11

𝑛11 ~𝜒2(1)

Dove:

𝐿 𝑛 𝜋 = 1− 𝜋 𝑛00𝜋𝑛01 1− 𝜋 𝑛10𝜋𝑛11 = definisce attraverso la verosimiglianza la pro-

babilità di ottenere n eccezioni in ipotesi di indipendenza seriale (cioè considerando la

3.1).

𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = verosimiglianza non vincolata

Che si distribuisce anch‟essa come una chi-quadro con un grado di libertà.

106

3.2.3 Test di Conditional Coverage: il test di previsione dell'intervallo

e il Mixed-Kupiec test

Un test completo di copertura condizionale, che consideri al contempo il numero di viola-

zioni del VaR e l‟indipendenza delle violazioni stesse è l‟Interval forecasts test di Christof-

fersen118

ottenuto combinando il test d‟indipendenza e il test POF di Kupiec.

Di conseguenza l‟ipotesi nulla sarà definita dalla combinazione delle due ipotesi dei test

precedenti: la probabilità delle eccezioni è pari al livello di confidenza e la probabilità che

si verifichi un‟eccezione al tempo j-esimo è indipendente dal verificarsi dell'eccezione al

tempo i-esimo, formalmente:

𝐻0: 𝜋00 = 𝜋10 = 𝑎

Da cui la statistica corrispondente è data ancora una volta dal rapporto di massima verosi-

miglianza:

𝐿𝑅𝑐𝑐 = −2𝑙𝑛 𝐿(𝑛|𝜋 = 𝛼)

𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = −2𝑙𝑛

𝐿(𝑛|𝜋 = 𝛼)

𝐿(𝑛|𝜋)

𝐿(𝑛|𝜋)

𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11)

= −2𝑙𝑛 𝐿(𝑛|𝜋 = 𝛼)

𝐿(𝑛|𝜋) − 2𝑙𝑛

𝐿(𝑛|𝜋)

𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11)

= 𝐿𝑅𝑖𝑛𝑑 + 𝐿𝑅𝑃𝑂𝐹~𝜒2(2)

Dove:

𝐿(𝑛|𝜋 = 𝛼) = verosimiglianza espressa con il vincolo di copertura e di indipendenza

𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = verosimiglianza non vincolata

Tale statistica, essendo soggetta a 2 vincoli, si distribuisce come una chi-quadro con due

gradi di libertà.

Alcuni autori119

hanno sottolineato come sia possibile che un modello passi un test di con-

ditional coverage, pur non presentando né il requisito di copertura incondizionata, né quel-

lo di indipendenza, in questo senso è consigliata l‟esecuzione di test separati.

118

P. Christoffersen; Evaluating interval forecast; International Economic Review; 1998 119

S. Campbell; A Review of Backtesting and Backtesting Procedure, Federal Reserve Board; 2005

107

Di converso, la scomposizione del test di conditional coverage in due test separati offre ul-

teriori possibilità di verifica: se il test risulta fallito, è possibile compiere test distinti per

verificare il difetto effettivo del modello.

Nondimeno, il test di previsione dell'intervallo si limita ad esaminare la dipendenza tra due

osservazioni adiacenti, trascurando la verifica su periodi di tempo più ampi.

Per far fronte a tale difetto, Haas120

introduce un test che, analogamente al test di conditio-

nal coverage, è costituito dall'aggregazione di un test di copertura incondizionata e un test

di indipendenza.

Tuttavia, se per il test di copertura incondizionata si fa riferimento ancora al POF-test, per

il test d‟indipendenza Haas introduce un ulteriore test; il quale piuttosto che osservare se

un‟eccezione dipende dal risultato del giorno precedente121

, misura il tempo trascorso tra

due eccezioni, riuscendo a catturare forme più generali di dipendenza tra eccezioni

Sfruttando il TUFF-test di Kupiec, viene definita la statistica test per ciascuna i-esima ec-

cezione. Quindi:

𝐿𝑅𝑖 = −2𝑙𝑛 𝛼(1 − 𝛼)𝜐𝑖−1

𝑝 (1− 𝑝 )𝑣𝑖−1 ~𝜒2(1)

Dove

𝜐𝑖 è il tempo che intercorre tra l‟eccezione i e l‟eccezione i-1122

.

𝐻0 = le eccezioni sono indipendenti

Pertanto calcolando la statistica per ogni eccezione, con n eccezioni, è possibile costruire

un test che verifichi il tempo trascorso tra eccezioni adiacenti, a cui aggiungere il TUFF-

test riguardante la prima eccezione.

120

M. Haas; New Methods in Backtesting; Research center Caesar; 2001 121

Come avviene nel Markov test 122

Se si considera la prima eccezione, 𝜐 diventa il tempo trascorso prima dell'‟avvento della prima eccezione,

cioè un TUFF-test, v. Par 3.2.1

108

La statistica test sarà quindi definita da:

𝐿𝑅𝑖𝑛𝑑 = −2𝑙𝑛 𝛼(1− 𝛼)𝜐𝑖−1

𝑝 (1 − 𝑝 )𝑣𝑖−1

𝑛

𝑖=2

− 𝑙𝑛 𝛼(1− 𝛼)𝑣−1

𝑝 (1− 𝑝 )𝑣−1 123

Che è distribuita come una 𝜒2(𝑛)

Conseguentemente il test di indipendenza può essere combinato con il POF test di Kupiec,

per ottenere insieme un test di indipendenza e copertura condizionata:

𝐿𝑅𝑚𝑖𝑥 = 𝐿𝑅𝑃𝑂𝐹 + 𝐿𝑅𝑖𝑛𝑑

Distribuita come una 𝜒2(𝑛 + 1)

3.2.4 Test basato sulla funzione di perdita

I test visti in precedenza focalizzano l‟attenzione sulla possibilità di perdite (eccezioni) su-

periori al VaR, e/o sulla loro “densità” all‟interno di un determinato lasso di tempo.

Di fatto, questa impostazione è coerente con quanto postulato dal VaR, che implicitamente

definisce la probabilità di subire una perdita superiore rispetto a quanto calcolato, trala-

sciando l‟effettiva entità di questa perdita.

Un‟alternativa a questi modelli di backtesting è fornita da Lopez124

che introduce un test

basato sulla minimizzazione di una funzione di perdita, normalmente decisa dall'analista in

base alle proprie valutazioni, e di conseguenza abbandona in metodo basato sul test delle

ipotesi, rendendo possibile utilizzare test retrospettivi anche con un numero limitato di os-

servazioni

Formalmente la “perdita” al tempo t+1 è dato dalla funzione:

𝐶𝑚𝑡+1 = 𝑓 𝑟𝑡+1,𝑉𝑎𝑅𝑚𝑡 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡

𝑔 𝑟𝑡+1,𝑉𝑎𝑅𝑚𝑡 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡

Dove 𝑓 𝑥,𝑦 ≥ 𝑔 𝑥,𝑦

Generalmente l‟utilizzo della funzione di perdita comporta la definizione di uno score,

𝐶𝑚 = 𝐶𝑚𝑡+𝑖250𝑖=1 .

123

Considerando che l‟ipotesi nulla stabilisce che le eccezioni debbano essere indipendenti, anche le statisti-

ca-test risulteranno indipendenti, cosicché è possibile sommarle. 124

J. Lopez; Methods for EvaluatingValue-at-Risk Estimates; 1999

109

Successivamente il modello di backtesting utilizza tale per testare le performance del mo-

dello, confrontando quanto ottenuto empiricamente, cioè 𝐶𝑚 , con un valore benchmark

precedentemente definito.

Su questa base, Lopez fornisce tre tipi di funzioni di perdita:

Funzioni di perdita basate sul metodo binomiale

Analogamente a quanto visto con Kupiec, tale funzione di perdita definisce un valore

ogni qualvolta l‟analisi del modello esibisce una violazione

𝐶𝑚𝑡+1 = 1 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡

0 𝑠𝑒 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡

Dunque l‟analisi verte su ogni elemento del set di osservazioni, assegnando il pun-

teggio quando il valore empirico si presenta come eccezione; in questo senso, è facile

capire come il modello abbia un orientamento negativo: minore sarà lo score totale

𝐶𝑚 , tanto più accurato è il metodo.

È importante costatare che analogamente al POF test, il test di Lopez basato sulla bi-

nomiale si concentra solo sul numero di eccezioni avvenute, e non fornisce informa-

zioni addizionali all‟analisi delle performance del modello.

Come per il test di Kupiec, il valore benchmark è fornito imponendo che il numero di

eccezioni all‟interno del campione sia pari al numero di eccezioni ammesse dal mo-

dello125

.

Funzioni di perdita analoghe al “modello del moltiplicatore”

Tale modello si avvicina al metodo di benchmark previsto dal Comitato nell‟ambito

del Market Risk Amendment.

125

Ad esempio, per un VaR (99%) e con 250 osservazioni il valore benchmark è 𝐸 𝐶𝑚 = 2,5

110

In questo caso, il test non verte non più sull‟analisi di ogni valore a rischio all‟interno

dell'holding period, bensì assegna uno score basato sul set totale delle osservazioni,

in particolare

𝐶𝑚𝑡+1(𝑛) =

0 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡

0 𝑠𝑒 𝑟𝑡+1 ≤ 𝑉𝑎𝑅𝑚𝑡 𝑒 0 ≤ 𝑛 ≤ 4

0,4 5 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 5

0,5 6 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 6

0,65 7 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 7

0,75 8 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 8

0,85 9 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 9

1 𝑛 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 ≥ 10

Funzioni di perdita che considerano la dimensione delle perdite

In questo metodo l‟obiettivo non è solamente di verificare la presenza di una viola-

zione, bensì anche quello di computare l‟entità della stessa introducendo nella fun-

zione di perdita binomiale una componente che attribuisce importanza alla dimensio-

ne delle eccezioni rispetto al VaR. Formalmente:

𝐶𝑡+1 = 1 + 𝑟𝑡+1 − 𝑉𝑎𝑅𝑚𝑡

2 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡

0 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡

È immediato osservare che lo score derivante dal modello sarà tanto maggiore quan-

to maggiore è la differenza tra la violazione e il VaR.

Con questa funzione di perdita il valore benchmark è ottenuto attraverso un metodo

di simulazione simile a quanto già visto per il modello Monte Carlo: definita una

funzione dei rendimenti, si compiono numerosi simulazioni, definendo per ogni si-

mulazione la distribuzione dei rendimenti e il relativo C-value.

111

Ottenuta la funzione di densità dei C-value si specifica un valore benchmark, definito

dal quantile della distribuzione

126.

L‟analisi sviluppata da Lopez sottolinea come l‟utilizzo di una funzione di perdita riesca

meglio dei metodi basati sul test delle ipotesi a giudicare l‟effettiva performance del mo-

dello VaR, bypassando il problema della bassa potenza del test cui sono soggetti i test di

unconditional e conditional coverage.

Il test di Lopez si focalizza su otto modelli quali:

1. Modello simulato distribuito come una Normale standardizzata 휀𝑡+1~𝑁(0,1) defi-

nito true data-generating process (DGP), che viene utilizzato per individuare il nu-

mero di eccezioni nel test delle ipotesi e come benchmark nella funzione di perdita

2. Distribuzione Normale 휀𝑡+1~𝑁(0, 1 2 )

3. Distribuzione Normale 휀𝑡+1~𝑁(0, 3 4 )

4. Distribuzione Normale 휀𝑡+1~𝑁(0,11

4)

5. Distribuzione Normale 휀𝑡+1~𝑁(0,11

2)

6. Modello a media mobile esponenziale con 𝜆 = 0,94

7. Modello a media mobile esponenziale con 𝜆 = 0,99

8. Simulazione Storica127

126

Altri autori suggeriscono di misurare una media del valore dell‟eccezioni, data da:

𝐶 =1

𝑇 𝐶𝑖

𝑇

𝑖=1

E successivamente calcolare il valore benchmark da una distribuzione simulata dei rendimenti di portafoglio 127

Per questo modello sono state prese a riferimento le ultime 500 osservazioni

112

Per quanto riguarda i modelli di backtesting, l‟autore utilizza:

- test POF per l‟unconditional coverage

- test di Christoffensen la conditional coverage

Entrambi considerati utilizzando un valore critico del 5%

- test basato sulla funzione di perdita nelle tre varianti proposte da Lopez.

L‟abilità delle tre varianti nel valutare le performance dei modelli è giudicata verificando

quanto spesso le stime VaR hanno uno score maggiore rispetto a quanto previsto dal DGP,

sostanzialmente quante volte lo score della stima supera lo score-benchmark.

L‟analisi di Lopez in Figura 3.4 dimostra che per i modelli omoschedastici la potenza del

test varia notevolmente, legata soprattutto alla differenza tra la varianza dei modelli stessi e

la varianza del DGP, assunta come distribuzione effettiva dei rendimenti (in parole povere,

essa “costituisce” il denominatore nel rapporto di massima verosimiglianza): l‟analisi svela

come le differenze più grandi portano a maggiore potenza.

Per quanto riguarda i modelli eteroschedastici EWMA, il rapporto di massima verosimi-

glianza non presenta alcuna potenza in quanto le stime VaR sono molto simili a quelle pre-

viste nel DGP, e al contempo è possibile notare che il modello di simulazione storica ha

bassa potenza in entrambi i test.

Fonte: J. Lopez; Methods for EvaluatingValue-at-Risk Estimates; 1999

Figura 3.4: Analisi di Lopez sull'‟efficacia dei modelli di backtest

113

Per quanto riguarda i modelli di Lopez, il valore rappresenta il numero di simulazioni in

cui lo score-benchmark del DGP è risultato inferiore a quello calcolato con il modello. Di

conseguenza valori molto alti rappresentano i casi in cui il modello è rifiutabile poiché i-

naccurato.

In questo senso, è possibile notare che se il modello 2 e il modello 3 manifestano il massi-

mo grado di imprecisione, di converso i modelli 4 e 5 presentano sistematicamente uno

score inferiore rispetto al valore benchmark; al contrario i modelli a volatilità esponenziale

e il modello a simulazione storica presentano livelli di “inaccettabilità” tollerabili.

Come osservato da Campbell128

e dallo stesso Lopez129

il vero vantaggio del metodo della

funzione di perdita sta nella possibilità di costruire la funzione in base alle analisi del valu-

tatore.

Per quanto riguarda i metodi proposti da Lopez, se i primi due ricalcano rispettivamente

quanto visto nel metodo POF e nel Framework di Basilea, è il terzo metodo a richiedere

una più attenta analisi.

Innanzitutto, l‟approccio della funzione di perdita è in contrasto con le proprietà stocasti-

che della funzione 𝐼𝛼 che, come già precisato, si distribuisce come una variabile casuale

Bernulliana, trascurando la forma della distribuzione dei rendimenti.

In secondo luogo, e anche in virtù di quanto già visto nei modelli VaR, la possibilità di ipo-

tizzare a priori la forma della distribuzione può portare a distorsioni nella valutazione.

In parole povere, nel caso la distribuzione è definita in modo errato, i risultati del backtest

sono distorti. Di conseguenza uno score che supera il valore di riferimento può comportare

che il modello VaR sia a priori sbagliato, ma può anche implicare ipotesi sbagliate circa la

funzione di backtest utilizzata.

Questo macroscopico difetto ha spinto lo stesso Lopez a suggerire l‟utilizzo del metodo per

confrontare le perfomance del modello VaR nel tempo o per confrontare modelli diversi tra

loro, mentre se l‟obiettivo è quello di validare un modello VaR, l‟autore consiglia di

l‟utilizzo della la funzione di perdita in tandem con altri metodi.

128

S. Campbell; A Review of Backtesting and Backtesting Procedures; Finance and Economics Discussion

Series; Divisions of Research & Statistics and Monetary Affairs; Federal Reserve Board; 2005 129

J. Lopez; Methods for EvaluatingValue-at-Risk Estimates; 1999

114

3.3 Il backtesting secondo Basilea

La possibilità di utilizzare modelli interni, ha imposto l‟utilizzo di un modello di backtest

che verificasse le effettive performance del modello VaR.

A tal fine il Comitato premette che “The essence of all backtesting efforts is the compari-

son of actual trading results with model-generated risk measures. If this comparison is

close enough, the backtest raises no issues regarding the quality of the risk measurement

model. In some cases, however, the comparison uncovers sufficient differences that prob-

lems almost certainly must exist, either with the model or with the assumptions of the back-

test. In between these two cases is a grey area where the test results are, on their own, in

conclusive”130

.

Per il prosieguo della trattazione, è utile ricordare che se il VaR è la massima perdita otte-

nibile all‟interno di un holding period e con un intervallo di confidenza 𝛼, di converso la

probabilità giornaliera che si verifichi un‟eccezione131

(se le stesse sono indipendenti) è di

100- 𝛼%.

Il test retrospettivo elaborato da Basilea consiste in un confronto tra le perdite teoriche pre-

viste dal modello VaR utilizzato e le perdite giornaliere effettivamente realizzate, contando

il numero di eccezioni, cioè di casi in cui la perdita teorica supera il valore a rischio misu-

rato dal modello interno.

Formalmente, il backtest previsto da Basilea è basato su una mera computazione del nume-

ro di volte in cui si verificano le eccezioni, su un livello di confidenza del 99%, in linea

con quanto previsto per la definizione dei modelli VaR.

Il trade off tra numero di osservazioni e “stabilità” del test ha fatto sì che il Comitato defi-

nisse un test basato su un computo su base trimestrale delle eccezioni, utilizzando i dati

degli ultimi dodici mesi, cioè 250 giorni borsa, considerando un periodo di detenzione di

130

“Ogni test retrospettivo consiste essenzialmente nel raffrontare gli effettivi risultati di negoziazione con le

misure del rischio prodotte dai modelli. Se i valori comparati sono sufficientemente prossimi, il test retrospet-

tivo non evidenzia alcun problema in ordine alla qualità del modello. In alcuni casi, per contro, gli scosta-

menti sono tali da far ritenere quasi certa l‟esistenza di problemi, a livello di modello oppure dei criteri pre-

suntivi su cui è basato il test. Fra queste due situazioni estreme vi è un‟”area intermedia” in cui i risultati del

test non sono, di per sé, conclusivi”.

Tratto da: Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in

conjunction with the internal models approach to market risk capital requirements; 1996 131

Cioè il numero di volte in cui la perdita, empiricamente verificatasi superava quanto calcolato dal VaR

115

un giorno e avendo a riferimento un portafoglio composto da posizioni immutate in un arco

di tempo giornaliero132

.

Il risultato fornito dal test retrospettivo è valutato attraverso l‟approccio a zone o semaforo

di Basilea: in base al numero di eccezioni e considerando l‟errore del Errore del 1˚ tipo e

del 2˚ tipo a cui il test è soggetto, sono definite tre zone distinte, che indicano il grado di

inaccuratezza del modello, e di conseguenza il rischio di perdite superiori al VaR che insi-

ste sull'‟intermediario. (Tabella 3.1).

132

A questo proposito, lo stesso Comitato ammette che l‟elevato tourn-over che caratterizza i portafogli ban-

cari rende di difficile applicazione il backtest Basilea: per ridurre la contaminazione derivante dalla difficoltà

di valutare le performance di un modello VaR in un contesto così mutevole, il Comitato di Basilea impone di

calcolare il VaR e il relativo backtest riferendosi ad un portafoglio costante

116

Tabella 3.1: definizione di un modello accurato per T=250 (ipotesi nulla: 𝜶 = 𝟏%) e di modelli inaccurati (ipotesi alter-

nativa 𝜶 = 𝟐%,𝟑%,𝟒%,𝟓%). Il numero esatto indica la probabilità di ottenere quel numero di eccezioni.

Mo

del

lo I

nac

cura

to:

liv

elli

di

cop

ertu

ra a

lter

nat

ivi

Liv

ello

di

cop

ertu

ra:

95

% E

rro

re

tip

o

0

0

0

0

0,1

0,5

1,3

3,1

6,5

11

,9

19

,5

29

,1

40

,2

51

,8

62

,9

72

,9

Nu

mer

o

esa

tto

0

0

0

0,1

0,3

0,9

1,8

3,4

5,4

7,6

9,6

11

,1

11

,6

11

,2

10

8,2

Liv

ello

di

cop

ertu

-

ra:

96

%

Err

ore

tip

o

0

0

0

0,2

0,9

2,7

6,3

12

,5

21

,5

32

,8

45

,5

58

,3

69

,9

79

,5

86

,9

92

,1

Nu

mer

o

esa

tto

0

0

0,2

0,7

1,8

3,6

6,2

9

11

,3

12

,7

12

,8

11

,6

9,6

7,3

5,2

3,4

Liv

ello

di

cop

ertu

-

ra:

97

%

Err

ore

tip

o

0

0

0,4

1,9

5,7

12

,8

23

,7

37

,5

52

,4

66

,3

77

,9

86

,6

92

,3

96

98

99

,1

Nu

mer

o

esa

tto

0

0,4

1,5

3,8

7,2

10

,9

13

,8

14

,9

14

11

,6

8,6

5,8

3,6

2

1,1

0,5

Liv

ello

di

cop

ertu

-

ra:

98

%

Err

ore

tip

o

0

0,6

3,9

12

,2

26

,2

43

,9

61

,6

76

,4

86

,9

93

,4

97

98

,7

99

,5

99

,8

99

,9

10

0

Nu

mer

o

esa

tto

0,6

3,3

8,3

14

17

,7

17

,7

14

,8

10

,5

6,5

3,6

1,8

0,8

0,3

0,1

0

0

Nu

mer

o

Ecc

e-

zio

ni

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Mo

del

lo A

ccu

rato

Liv

ello

di

cop

ertu

-

ra:

99

%

Err

ore

tip

o

10

0

91

,9

71

,4

45

,7

24

,2

10

,8

4,1

1,4

0,4

0,1

0

0

0

0

0

0

Nu

mer

o

esa

tto

8,1

20

,5

25

,7

21

,5

13

,4

6,7

2,7

1

0,3

0,1

0

0

0

0

0

0

Nu

mer

o

Ecc

e-

zio

ni

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Fonte: Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in conjunction

with the internal models approach to market risk capital requirements; 1996

117

In particolare, si distingue:

Zona Verde: non più di quattro eccezioni.

Tale risultato è sintomo di un modello VaR corretto comporta una probabilità molto

bassa di errore del 2˚ tipo.

Zona Gialla: dai cinque ai nove errori.

I modelli inseriti nella zona gialla si presentano non perfettamente accurati.

Per questi tipi di modelli e per quelli presenti nella zona rossa, il Comitato ha previ-

sto un sistema di rivalutazione del rescaling factor K, al fine di aumentare il requisito

prudenziale e tener conto delle difficoltà del modello stesso133

.

Tuttavia lo stesso Comitato assicura che “[...] al fine di non distorcere la struttura

d‟incentivi, si dovrebbe generalmente presumere che i risultati rientranti nella zona

gialla comportino una maggiorazione del fattore di moltiplicazione, a meno che la

banca possa dimostrare che tale maggiorazione non è giustificata”134

.

Quindi, lo stesso Comitato permette di non maggiorare lo scaling factor, a patto che

la banca dimostri che tale defaillance del modello sia giustificata da motivi validi ed

esterni al modello VaR135

.

In questo senso, il Comitato sollecita le banche a compiere anche test differenti da

quanto prescritto dal Market Risk Amendment, utilizzando ad esempio altri modelli,

differenti intervalli di confidenza o sottoinsiemi dell'intero portafoglio col solo scopo

di motivare un alto numero di eccezioni nel modello.

In quest‟ambito il Comitato lascia a discrezione delle Autorità di Vigilanza la possi-

bilità di non applicare la maggiorazione se l‟“ingresso” nella zona gialla è saltuario o

dipendente da eventi esterni al modello, tenendo conto di altri fattori quali lo scosta-

mento tra la perdita teorica e quella effettiva, l‟osservanza da parte della banca dei

criteri qualitativi previsti dal MRA

133

Dei differenti valori del rescaling factor si parlerà più avanti 134

Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in conjunc-

tion with the internal models approach to market risk capital requirements; 1996 135

In particolare il Comitato distingue performance scadenti causate:

Malfunzionamenti o imprecisioni del modello: tali difetti distorcono la valutazione del requisito pa-

trimoniale, e in quanto tali comportano il proporzionale aumento del rescaling factor

Casualità e evoluzione imprevista dei mercati: tali mancanze non sono sintomo di difficoltà del mo-

dello del prevedere il valore a rischio ma dipendono da cause che esulano in parte dalle responsabilità

della banca

Negoziazione infragiornaliera: è intervenuta una perdita rilevante tra una giornata e la giornata suc-

cessiva

118

Zona rossa: dieci eccezioni o più

Salvo non si operi in un ambito di improvvisa e imprevedibile turbolenza dei merca-

ti, i modelli presenti nella zona rossa possono essere additati senza dubbio come i-

naccurati.

In considerazione di ciò il Comitato impone l‟aumento del rescaling factor e sollecita

l‟Autorità di Vigilanza a compiere indagini e pressioni sull'intermediario affinché

compia azioni correttive.

Partendo dal numero di eccezioni, il Comitato ha quindi definito lo scaling factor K, cioè

quel valore, proporzionale al numero di violazioni, che deve essere moltiplicato per il VaR

al fine di ottenere l‟effettivo requisito patrimoniale. La (3.4) e la Tabella 3.2 mostrano la

relazione esistente tra le zone e il valore del fattore scalare.

Tabella 3.2: l‟approccio a zone o semaforo di Basilea, in un campione T=250 e con un livello di copertura del 99%. Co-

me è noto la probabilità cumulativa è la probabilità di ottenere un numero di eccezioni pari o inferiore a quanto specifica-

to. Va inoltre specificato che la zona gialla e la zona rossa sono delimitate rispettivamente alla probabilità del 95% e del

99,99%

Zone Number of excep-

tions

Increase of scaling

factor K

Cumulative proba-

bility

(in %)

Green Zone

0 0 8,11

1 0 28,58

2 0 54,32

3 0 75,81

4 0 89,22

Yellow Zone

5 0,40 95,88

6 0,50 98,63

7 0,65 99,60

8 0,75 99,89

9 0,85 99,97

Red Zone 10 or more 1 99,99

Fonte: Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in conjunction

with the internal models approach to market risk capital requirements; 1996

119

O, più formalmente

(3.4) 𝐾 =

3,0 𝑠𝑒 𝑁 ≤ 4 (𝐺𝑟𝑒𝑒𝑛 𝑧𝑜𝑛𝑒)

3,0 + 0,2 𝑁 − 4 𝑠𝑒 5 ≤ 𝑁 ≤

4,0 𝑠𝑒 10 ≤ 𝑁 (𝑅𝑒𝑑 𝑧𝑜𝑛𝑒)

9 (𝑌𝑒𝑙𝑙𝑜𝑤 𝑧𝑜𝑛𝑒)

Nondimeno è facile immaginare come l‟approccio del semaforo di Basilea sia troppo sem-

plicistico per una valutazione piena del modello.

Infatti oltre ad ignorare totalmente la possibile dipendenza tra le eccezioni, le prove empi-

riche dimostrano che il test di Basilea presenta difficoltà nel distinguere un modello accu-

rato. Il Comitato stesso, pienamente cosciente delle lacune, ha preferito comunque optare

per un test formale piuttosto che basarsi su un approccio discrezionale, suggerendo tuttavia

di utilizzare il test in tandem con test uniformemente più potenti.

120

3.4 Basilea II

Il nuovo Accordo di Basilea, o Basilea II, emanato nel 2004 e orientato a banche e gruppi

bancari a livello internazionale, è stato realizzato per sopperire ai difetti e alle distorsioni136

prodotti dal precedente accordo e per ampliare gli obiettivi della Vigilanza bancaria:

all‟intenzione di stabilire un level playing field e garantire la solvibilità del sistema banca-

rio definiti da Basilea I, si aggiunge l‟obbiettivo di accrescere la sensibilità al rischio degli

intermediari finanziari.

Infatti il nuovo framework è volto a conferire maggiore importanza alla gestione del ri-

schio, a creare un più stretto legame tra rischio e adeguatezza patrimoniale e a promuovere

il costante potenziamento delle capacità di valutazione dell'esposizione da parte delle stes-

se banche.

In questo senso, il Comitato non ha compiuto un‟operazione di miglioramento del prece-

dente accordo, bensì ha definito ex novo un complesso sistema di Vigilanza composto da

tre pilastri (Figura 3.5):

Figura 3.5: i tre pilastri di Basilea II

Fonte: <www.borsaitaliana.it>

136

Il primo Accordo di Basilea classificava la totalità di controparti in quattro categorie, incentivando le ban-

che a dar vita a sistemi distorsivi per ridurre il costo della regolamentazione.

Per maggiori dettagli si veda l‟Appendice D

121

Primo pilastro: definisce il nuovo set di requisiti patrimoniali e coefficienti a fronte

del rischio di credito, del rischio di mercato e del rischio operativo.

Come per l‟Accordo dell'‟88, il Patrimonio di Vigilanza rimane superiore o uguale

all‟8% degli attivi ponderati per il rischio ma, se la composizione e le caratteristiche

del Patrimonio di Vigilanza rimangono invariate, un sensibile rinnovo avviene nel

calcolo degli attivi ponderati per il rischio.

L‟Attivo ponderato totale è definito ora dalla somma tra gli RWA per rischio di

credito, rischio di mercato e rischio operativo, Basilea II definisce:

Rischio di credito

I nuovi metodi per la ponderazione degli assets sono orientati alla convinzio-

ne che ad una stima più precisa comporta un vantaggio per gli intermediari

più efficienti.

In questo senso è consentito agli intermediari di sviluppare propri metodi di

stima, delineati sulla base dei business e del profilo di rischio

dell‟intermediario

In questo senso, il Comitato ha previsto due metodi di calcolo dell'RWA: una

metodologia Standard ed un approccio, invece, basato sui rating interni (In-

ternal Rating Based, IRB).

Il metodo Standard rimane simile a quanto previsto nel primo Accordo: viene

assegnata per ogni esposizione un coefficiente di ponderazione, che dipende

dalla natura della controparte, della esposizione e della presenza di rating e-

sterni.

In particolare, per le controparti “retate” le ponderazioni sono fornite da isti-

tuzioni esterne, mentre per le esposizioni prive di rating il metodo in pone

perlopiù una ponderazione del 100%

Nel metodo IRB invece, le banche utilizzano proprie stime per i calcolo delle

tre componenti di rischio: Probability of Default, Loss Given Default, Exposi-

tion at Default.

In particolare, nell‟approccio IRB Foundation (approccio di base), la PD è

stimata dalla banca, mentre l‟Autorità di Vigilanza fornisce quadri di stima

122

della LGD e della EAD; al contrario nell‟IRB Advanced137

(approccio avan-

zato) tutti i fattori sono generati autonomamente dall‟intermediario; di conse-

guenza la gamma delle ponderazioni risulterà maggiormente diversificata

consentendo maggiore sensibilità al rischio

Rischio di mercato: Basilea II, segue in larga parte la disciplina del Market

Risk Amendment del 1996, focalizzandosi sul trading book e mantenendo le

categorie titoli azionati, titoli di debito, posizioni in cambi e posizioni in

commodities.

Rischio operativo: è definito come “il rischio di perdite derivanti dalla ina-

deguatezza o dalla disfunzione di procedure, risorse umane e sistemi interni,

oppure da eventi esogeni”138

.

Esso può essere calcolato secondo tre diversi metodi dagli istituti finanziari:

un metodo base (BIA, basic indicator approach), un metodo standard (TSA,

traditional standardised approach) ed un metodo avanzato (AMA, advanced

measurement approach)139

.

Nel metodo base, il requisito è dato da un coefficiente fisso 𝛼 pari al

15%,applicato al valore medio del Margine di Intermediazione degli ultimi

tre anni, considerando quest‟ultimo come rappresentativo dell‟attività globale

dell'intermediario.

Nella metodologia standard, invece, si richiede alle banche di suddividere

l‟attività in unità operative e linee, applicando per ognuna di esse un indicato-

re 𝛽 differente per ogni business line. Infine, con approccio avanzato, le valu-

tazioni si basano sulla suddivisione dell‟attività in aree e sull‟utilizzo di mo-

delli interni per la stima del capitale richiesto.

137

L‟utilizzo dell'‟IRB Advanced è destinato solo ad intermediari che rispettano particolari requisiti 138

Comitato di Basilea per la Vigilanza Bancaria; Convergenza internazionale della misurazione del

capitale e dei coefficienti patrimoniali; 2004 139

L‟approccio standardizzato e L‟approccio avanzato possono essere adottati a condizione che la banca ri-

spetti alcuni requisiti, per i dettagli si veda Comitato di Basilea per la Vigilanza Bancaria; Convergenza in-

ternazionale della misurazione del capitale e dei coefficienti patrimoniali; 2004

123

Tabella 3.2: evoluzione del calcolo del requisito patrimoniale a fronte dei tre rischi

Secondo Pilastro

Riguarda la supervisione degli intermediari da parte delle Autorità di Vigilanza e

improntato ad una duplice esigenza: in primo luogo le banche hanno l‟obbligo di

valutare la coerenza tra capitale e profilo di rischio, e la propria adeguatezza patri-

moniale, eventualmente tenendo conto dei rischi esterni, e dell'impatto di situazioni

congiunturali avverse.

In secondo luogo le Autorità di Vigilanza devono al contempo verificare il processo

di determinazione dell‟adeguatezza patrimoniale, le strategie poste in essere e la

struttura organizzativa ed assumere eventuali azioni correttive.

Per adempiere a tali obblighi, le banche devono dotarsi di sistemi di misura che

permettano di verificare l‟adeguatezza patrimoniale e alle autorità di Vigilanza

spetta il compito di supervisionare tale processo ed eventualmente denunciare ano-

malie.

In questo senso, le istituzioni finanziarie effettuano una valutazione autonoma dei

propri requisiti patrimoniali attraverso l‟ICAAP (Internal Capital Adequacy Asses-

sment Process), mentre parallelamente le Autorità valutano il processo svolto dalla

Rischio di Credito

Rischio di Merca-

to Rischio Operativo

Basilea I

(1988) Approccio Standard - -

Market

Risk A-

mendment

(1996)

Approccio Standard

Approc-

cio Stan-

dard

Model-

li In-

terni

-

Basilea II

(2004)

Approc-

cio Stan-

dard

IRB

Founda-

tion

IRB

Advan-

ced

Approc-

cio Stan-

dard

Model-

li In-

terni

Approc-

cio Base

Approc-

cio Stan-

dard

Approc-

cio A-

vanzato

124

banca con una procedura denominata SREP (Supervisory Review and Evaluation

Process).

I rischi che devono essere ivi valutati sono in particolare il rischio di concentrazio-

ne, il rischio commerciale, i rischi di tasso sul banking book ed il rischio di liquidi-

tà, ma esistono molte altre fattispecie che devono essere analizzate e valutate in tal

senso.

In secondo luogo è previsto che le Autorità di Vigilanza possano richiedere un li-

vello superiore di patrimonializzazione o possano intervenire se viene constatata

una copertura insufficiente dei requisiti.

Terzo Pilastro

Lo scopo del terzo pilastro è quello di completare i requisiti patrimoniali minimi

stabiliti nel primo pilastro e il processo di controllo prudenziale affrontato dal se-

condo.

In particolare il Comitato si è adoperato per incoraggiare la disciplina di mercato

mediante l‟elaborazione di una serie di obblighi di trasparenza e di pubblicità ri-

guardanti anche i modelli con cui la banca calcola la propria adeguatezza patrimo-

niale e valuta il rischio.

Il nuovo Accordo di Basilea individua nella disciplina di mercato uno strumento

complementare agli strumenti di Vigilanza del primo e del secondo pilastro: se agli

investitori si offre la possibilità di misurare in maniera efficace il profilo di rischio e

l'adeguatezza patrimoniale delle banche, essi avranno più strumenti per valutare la

società e, implicitamente, il mercato è incentivato a fornire un giudizio sull'adegua-

tezza patrimoniale dell'intermediario

125

CAPITOLO 4.

Il VaR e gli shock di mercato: il caso empirico

4.1 L‟analisi empirica: premessa

Il caso empirico è orientato a verificare se e in che misura il VaR sia in grado di incorpora-

re eventuali shock di mercato.

A tal proposito, l‟analisi si sviluppa nella stima della massima perdita probabile mediante

l‟utilizzo di differenti modelli VaR.

Per enfatizzare l‟obiettivo proposto, la stima si concentra intorno a periodi sensibili del

mercato finanziario europeo, optando dunque per i principali momenti di shock nel periodo

2001-2013.

Infine, è opportuno specificare che l‟elaborazione matematico-statistica è stata svolta uti-

lizzando il foglio elettronico Excel e il programma Gretl.

4.1.1 I modelli selezionati

La selezione dei modelli è tesa a considerare sia modelli maggiormente “tradizionali” che

modelli più innovativi, con un occhio di riguardo a metodi che conferiscono maggior peso

alle osservazioni più recenti rispetto a quelle passate.

In particolare si è optato per:

Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%;

Modello Asset-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%;

Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,99;

Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,97;

Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%; volatilità stimata con modello GARCH(1;1);

126

Modello Asset-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,99;

Modello Asset-Normal; holding period annuale (261 osservazioni); livello di confi-

denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,97;

Al fine di considerare la vera forma della distribuzione, questi modelli sono stati calcolati

utilizzando un percentile 𝑧𝛼 “modificato” (da ora definito 𝑧𝛼∗ ), in grado di incorporare cur-

tosi e asimmetria della distribuzione dei rendimenti per ogni titolo e per l‟indice di merca-

to.

Modello delle Simulazioni Storiche; holding period annuale (261 osservazioni), li-

vello di confidenza 99%;

Modello ibrido; holding period annuale (261 osservazioni), livello di confidenza

99%, 𝜆 = 0,99;

4.1.2 Il campione adoperato

Le turbolenze avvenute nell‟ultimo ventennio, quali l‟esplosione della bolla informatica, lo

shock dei mutui subprime, e il crack della banca Lehman Brothers hanno impattato note-

volmente sui mercati Europei, causando da almeno 5 anni una crisi finanziaria e, in alcuni

casi come Italia, Spagna, Grecia e Irlanda anche un fenomeno di grave recessione.

In questo senso, lo studio empirico non poteva non focalizzarsi proprio su mercato europe-

o, ed in particolare su tre market exchange: il mercato italiano, il mercato tedesco e il mer-

cato francese.

Al fine di non rendere l‟analisi troppo generalizzata, per ognuno di essi sono state scelte le

società più rappresentative dei rispettivi mercati di riferimento.

In questo senso, si è ritenuto opportuno considerare le società più rappresentative come

quelle maggiormente capitalizzate all‟interno dei rispettivi mercati.

A tal fine, si è optato per otto tra le prime dieci società a maggiore capitalizzazione

all‟interno degli indici FTSE MIB, DAX30 e CAC40, generalmente considerati gli indici

di riferimento rispettivamente per la Borsa di Milano, di Francoforte e di Parigi.

La scelta compiuta ha definito un portafoglio complessivo che, seppure di dimensione mo-

desta, risulta piuttosto diversificato a livello di settore industriale.

127

Difatti, ricorrendo la differenziazione in settori del GICS®140

, è possibile constatare come

siano state toccate in misura più o meno amplia tutti i settori, nonostante appaia preponde-

rante la presenza di società finanziarie e di società di beni di “lusso” (consumer discretio-

nary).

Grafico 4.1: ripartizione del campione per GICS® Sector

Analogamente, la suddivisione in gruppi industriali rivela più in dettaglio una presenza

preponderante di società automobilistiche, banche e assicurazioni

140

Gli standards GICS® (Global Industry Classification Standard) sono stati introdotti nel 1999 da MSCI e

S&P al fine di definire una classificazione settoriale delle società in tutto il mondo.

Il GICS® è costituito da 10 settori, 24 gruppi industriali, 68 industrie e 154 sotto-industrie. Ogni impresa

viene catalogata in base al core business ((misurato sulle voci contabili di ricavo).

I settori individuate dal GICS® sono:

• Energy Sector (settore energetico);

• Materials Sector (settore manifatturiero);

• Industrials Sector (settore industriale);

• Consumer Discretionary Sector (imprese che si rivelano maggiormente sensibili ai cicli economici);

• Consumer Staples Sector (imprese meno sensibili ai cicli economici);

• Health Care Sector (settore farmaceutico e biotecnologico);

• Financials Sector (settore finanziario);

• Telecommunications Services Sector (settore telecomunicazioni);

• Utilities Sector (settore delle public utilities come gas, energia elettrica, acqua, ecc.).

8%

4%

29%

4%13%

21%

4%

9%

4%4%

Campione aggregato: GICS sector

Energy

Utilities

Financials

Telecommunication Services

Industrial

Consumer Discretionary

Materials

Health Care

Information Technology

Consumer Staples

128

Grafico 4.2: ripartizione del campione per gruppi industriali

Spostando l‟attenzione sui singoli portafogli, è opportuno specificare la composizione de-

gli stessi:

Mercato Italiano:

a) Assicurazioni Generali

Fondata nel 1831, Assicurazioni Generali è la più grande compagnia di assi-

curazioni italiana con oltre 10 milioni di clienti e 100 miliardi di attivi in ge-

stione.

b) ENEL

L‟Ente Nazionale per l‟energia ELettrica è un gruppo multinazionale presente

in 40 Paesi e 4 continenti con 61 milioni di clienti e 98 GW di capacità instal-

lata generati da un parco centrali molto diversificato tra idroelettrico, termoe-

lettrico, nucleare, geotermico, eolico, fotovoltaico e altre fonti rinnovabili.

Nel 2012 il gruppo ha realizzato un ebitda di 17 mld di euro.

9%

4%

17%

13%

4%4%

17%

8%

4%

8%

4%

4%4%

Ripartizione campione: GICS Industry Group

Energy

Utilities

Banks

Insurance

Telecommunication Services

Transportation

Automobiles & Components

Pharmaceuticals, Biotechnology

Consumer Durables & Apparel

Capital Goods

Household & Personal Products

Materials

Software & Services

129

c) ENI

L'Ente Nazionale Idrocarburi è una società attiva nei settori del petrolio, della

petrolchimica, e della generazione e produzione di energia elettrica.

Presente in 90 Paesi e con 10 milioni di clienti, Eni è il sesto gruppo petrolife-

ro mondiale per giro d'affari, leader mondiale nei servizi petroliferi per le at-

tività offshore e onshore, primo in Italia nella raffinazione e prima tra le so-

cietà italiane secondo la rivista Forbes.

Nel 2012 il gruppo ha conseguito un utile di 18,5 mld.

d) Intesa SanPaolo

Il Gruppo Intesa SanPaolo è il maggior gruppo bancario in Italia con 11,1 mln

di clienti e 1,6 mld di utile, il secondo gruppo bancario per capitalizzazione e

sesto in Europa. E' leader italiano nelle attività finanziarie per famiglie e im-

prese.

e) Atlantia

Atlantia S.p.A. (ex Autostrade S.p.A.) è la capogruppo di società operanti nel-

la gestione di tratte autostradali con 5 mila km di autostrade a pedaggio in I-

talia, Brasile, Cile, India e Polonia.

Con 5 mln di clienti al giorno e 11 mila dipendenti, Atlantia è leader nella co-

struzione e manutenzione di infrastrutture autostradali, sicurezza e tecnologie

di risparmio energetico, con un ebitda di 2,4 mld.

f) FIAT

Fiat Group Automobiles è una società italiana, partecipata interamente da Fiat

S.p.A. e un Gruppo automobilistico internazionale che produce veicoli di

grande diffusione con i marchi generalisti Fiat, Alfa Romeo Lancia Abarth e

Fiat Professional, e automobili di lusso e sportive con i brand Ferrari e Mase-

rati.

Con l‟acquisizione della maggioranza di Chrysler nel 2009, Fiat e Chrysler

hanno venduto più di quattro milioni di veicoli, diventando il settimo costrut-

tore del mondo.

130

g) Telecom Italia

Telecom Italia S.p.A. è tra le più importanti società italiane di servizi di tele-

comunicazione con 114,5 milioni di km di rete telefonica in rame, 5,7 milioni

di km di rete telefonica in fibra.

Con 21,15 milioni di accessi alla rete fissa italiana, 8,96 milioni di accessi al-

la rete a banda larga, 32,15 milioni di clienti della rete mobile TIM, nel 2012

ha realizzato perdite per 1,27 mld e un ebitda di 11,64 mld.

h) Unicredit

UniCredit è tra le prime banche europee, con una rete di 9000 sportelli distri-

buiti in 20 Paesi, 150 mila dipendenti e 40 mln di clienti.

Nella tabella 4.1 si presentano i principali fondamentali delle società, mentre in Figura 4.1,

serie storica dei titoli dal ‟97 ad oggi in relazione all‟andamento dell‟indice di riferimento.

131

Tabella 4.1: portafoglio italiano, composizione e principali indicatori

Codice GICS Sector GICS Indrustry

Group

GICS Industry Total

Sales

(in mln)141

Pre-Tax

Profit

(in mln)

No

share

in issue

PE142

EPS Market

Value143

(in mln)

Assicurazioni

Generali G.MI Financial Insurance Insurance 84.657 1.638 155.687 11,7 1,39 25.906

ENEL Spa ENEL.M

I Utilities Utilities Electric utilities 82.699 48.20 9.403.356 9,9 0,32 30.222

ENI Spa ENI.MI Energy Energy

Oil, Gas & Con-

sumable 12.6000 16.600 3.634.183 12,2 1,43 63.961

Intesa San

Paolo ISP.MI Financials Banks Commercial

Banks 36.139 2..967

15.501.51

0 21,3

0,08

3 27.375

Atlantia Spa ATL.MI Industrial Transportation

Transportation

Infrastructure 5.101 1.146 661.828 16,8 0,94 10.423

Fiat Spa F.MI

Consumer Discre-

tionary

Automobiles &

Components Automobiles 8.395 2.036 1.250.662

21,0

5 0,30 7.991

Telecom

Italia Spa TIT.MI Telecommunication

Services

Telecommunica-

tion Services

Diversified Tel-

ecommunication 29.503 -44

13.417.04

0 7,8

0,08

9 9.365

Unicredit Spa UCG.MI Financials Banks

Commercial

Banks 42.775 -32 5.789.207 27,2 0,20 31.753

Fonte: Thompson Reuters®

141

Al 12/12 142

Al 12/13 (Stime Thompson Reuters ®) 143

Al 15/10/13

132

DATASTREAM EQUITIES 11/10/13 10.58

ENELGeography Code - IT Industry Group - CNVEL

Local Code - M312836 Exchange - Milan

Mnemonic - I:ENEL

Sector - ELECT

Current Price 3.2040 11:41

12 Mth Range High 3.2580 11/ 1/13

Low 2.3040 12/ 7/13

Price Change 1mth 3mth 12mth

(E) 16.6% 32.5% 12.4%

Relative to FTSEMIB

8.7% 10.3% -6.7%

Market Value (E) 30128.35M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 0.090 0.080 0.32 0.31

PE 35.6 40.1 9.9 10.4

PE Rel. 195.8%

P/Cash 2.88 (%=Rel to DS Index)

Dividend Rate (E) 0.15

Dividend Yield 4.68

Dividend Cover 0.5Div Last Fin Year 0.15

Last Div Paid YR (E) 0.15 Tax-G

Pay Date 27/06/13 XD Date 24/06/13

(E) 12/10 12/11 12/12

Total sales 71943M 77573M 82699M

Pre-Tax Prof. 8074M 8438M 4820M

Publ. EPS 0.47 0.44 0.09

Cash EPS 1.16 1.12 1.11

Mkt to Bk Val 0.93 0.76 0.80

ROE (%) 12.34 10.81 2.29

No. Shares in Issue 9403356(000s)

Volume 67584.1(000s)

Percentage of free float 69%

Volatility 4

Beta 0.949

Correlation 0.822

Price and Index (rebased)

94959697989900010203040506070809101112

2

4

6

8

10

ENEL

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.00

ENIGeography Code - IT Industry Group - OILIN

Local Code - M313247 Exchange - Milan

Mnemonic - I:ENI

Sector - OILGP

Current Price 17.5000 11:43

12 Mth Range High 19.4800 17/ 1/13

Low 15.2900 25/ 6/13

Price Change 1mth 3mth 12mth

(E) 0.9% 9.8% 0.2%

Relative to FTSEMIB

-5.9% -8.6% -16.8%

Market Value (E) 63598.18M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 2.15 1.59 1.43 1.74

PE 8.1 11.0 12.2 10.0

PE Rel. 53.8%

P/Cash 3.94 (%=Rel to DS Index)

Dividend Rate (E) 1.09

Dividend Yield 6.23

Dividend Cover 1.5Div Last Fin Year 1.08

Last Div Paid INT (E) 0.55 Tax-G

Pay Date 26/09/13 XD Date 23/09/13

(E) 12/10 12/11 12/12

Total sales 98864M 109B 126B

Pre-Tax Prof. 16540M 18477M 16600M

Publ. EPS 1.74 1.89 2.15

Cash EPS 4.69 4.60 4.44

Mkt to Bk Val 1.28 1.16 1.13

ROE (%) 12.99 12.86 13.58

No. Shares in Issue 3634183(000s)

Volume 13258.5(000s)

Percentage of free float 74%

Volatility 3

Beta 0.664

Correlation 0.794

Price and Index (rebased)

94959697989900010203040506070809101112

0

10

20

30

ENI

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.01

INTESA SANPAOLOGeography Code - IT Industry Group - BANKS

Local Code - M007261 Exchange - Milan

Mnemonic - I:ISP

Sector - BANKS

Current Price 1.7650 11:45

12 Mth Range High 1.7820 10/10/13

Low 1.1240 26/ 3/13

Price Change 1mth 3mth 12mth

(E) 8.0% 37.0% 38.1%

Relative to FTSEMIB

0.6% 14.0% 14.6%

Market Value (E) 27360.15M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 0.10 0.050 0.083 0.14

PE 17.6 35.3 21.3 12.3

PE Rel. 172.5%

P/Cash 6.07 (%=Rel to DS Index)

Dividend Rate (E) 0.05

Dividend Yield 2.83

Dividend Cover 1.0Div Last Fin Year 0.05

Last Div Paid YR (E) 0.05 Tax-G

Pay Date 23/05/13 XD Date 20/05/13

(E) 12/10 12/11 12/12

Total sales 35105M 36728M 36139M

Pre-Tax Prof. 3237M -9542M 2967M

Publ. EPS 0.20 -0.56 0.10

Cash EPS 0.83 0.56 0.29

Mkt to Bk Val 0.48 0.45 0.43

ROE (%) 5.09 -16.29 3.32

No. Shares in Issue 15501510(000s)

Volume 288937.1(000s)

Percentage of free float 90%

Volatility 5

Beta 1.636

Correlation 0.894

Price and Index (rebased)

94959697989900010203040506070809101112

0

2

4

6

8

INTESA SANPAOLO

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 10.57

ASSICURAZIONI GENERALIGeography Code - IT Industry Group - FLINS

Local Code - M006207 Exchange - Milan

Mnemonic - I:G

Sector - NLINS

Current Price 16.2600 11:41

12 Mth Range High 16.2600 11/10/13

Low 11.7000 11/10/12

Price Change 1mth 3mth 12mth

(E) 8.7% 16.6% 39.0%

Relative to FTSEMIB

1.3% -2.9% 15.3%

Market Value (E) 25314.74M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 0.060 0.21 1.39 1.45

PE 271.0 77.4 11.7 11.2

PE Rel. 378.5%

P/Cash 2.34 (%=Rel to DS Index)

Dividend Rate (E) 0.20

Dividend Yield 1.23

Dividend Cover 1.0Div Last Fin Year 0.20

Last Div Paid YR (E) 0.20 Tax-G

Pay Date 23/05/13 XD Date 20/05/13

(E) 12/10 12/11 12/12

Total sales 87156M 70952M 84657M

Pre-Tax Prof. 2837M 1805M 1638M

Publ. EPS 1.10 0.56 0.06

Cash EPS 16.08 8.34 6.94

Mkt to Bk Val 1.25 1.03 1.24

ROE (%) 10.13 4.85 0.52

No. Shares in Issue 1556872(000s)

Volume 12109.5(000s)

Percentage of free float 87%

Volatility 4

Beta 1.250

Correlation 0.905

Price and Index (rebased)

94959697989900010203040506070809101112

0

10

20

30

40

50

ASSICURAZIONI GENERALI

FTSE MIB INDEX (PI)

Source: Thomson Datastream

Figura 4.1 e 4.2: andamento del prezzo dei titoli italiani in realazione all‟indice FTSE MIB e serie storica dei rendimenti

133

DATASTREAM EQUITIES 11/10/13 11.05

UNICREDITGeography Code - IT Industry Group - BANKS

Local Code - M478141 Exchange - Milan

Mnemonic - I:UCG

Sector - BANKS

Current Price 5.4100 11:49

12 Mth Range High 5.4600 10/10/13

Low 3.2380 4/ 4/13

Price Change 1mth 3mth 12mth

(E) 14.4% 50.5% 54.5%

Relative to FTSEMIB

6.6% 25.3% 28.2%

Market Value (E) 31319.61M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 0.15 0.080 0.20 0.37

PE 36.1 67.6 27.2 14.7

PE Rel. 330.5%

P/Cash 2.03 (%=Rel to DS Index)

Dividend Rate (E) 0.09

Dividend Yield 1.66

Dividend Cover 0.9Div Last Fin Year 0.09

Last Div Paid YR (E) 0.09 Tax-G

Pay Date 23/05/13 XD Date 20/05/13

(E) 12/10 12/11 12/12

Total sales 42032M 42749M 42775M

Pre-Tax Prof. 2175M -7727M -327M

Publ. EPS 0.42 -3.37 0.15

Cash EPS 4.18 4.97 2.66

Mkt to Bk Val 0.47 0.24 0.34

ROE (%) 1.88 -16.21 1.43

No. Shares in Issue 5789207(000s)

Volume 97801.5(000s)

Percentage of free float 94%

Volatility 6

Beta 1.912

Correlation 0.894

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

UNICREDIT

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 15/10/13 11.05

ATLANTIAGeography Code - IT Industry Group - TRNSV

Local Code - M350619 Exchange - Milan

Mnemonic - I:ATL

Sector - INDTR

Current Price 15.6800 11:46

12 Mth Range High 15.7800 9/10/13

Low 11.9200 21/ 6/13

Price Change 1mth 3mth 12mth

(E) 4.5% 25.7% 29.7%

Relative to FTSEMIB

-3.0% 3.7% 6.9%

Market Value (E) 10377.45M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 1.25 0.94 0.94 1.03

PE 12.5 16.7 16.8 15.2

PE Rel. 80.9%

P/Cash 6.72 (%=Rel to DS Index)

Dividend Rate (E) 0.75

Dividend Yield 4.76

Dividend Cover 1.3Div Last Fin Year 0.75

Last Div Paid FIN (E) 0.391 Tax-G

Pay Date 23/05/13 XD Date 20/05/13

(E) 12/10 12/11 12/12

Total sales 4521M 4941M 5101M

Pre-Tax Prof. 1108M 1127M 1146M

Publ. EPS 1.05 1.28 1.25

Cash EPS 2.18 2.68 2.33

Mkt to Bk Val 2.88 2.22 2.38

ROE (%) 22.79 24.81 21.94

No. Shares in Issue 661828(000s)

Volume 1777.2(000s)

Percentage of free float 49%

Volatility 4

Beta 0.875

Correlation 0.823

Price and Index (rebased)

94959697989900010203040506070809101112

0

10

20

30

ATLANTIA

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 15/10/13 11.02

FIATGeography Code - IT Industry Group - AUTOS

Local Code - M197640 Exchange - Milan

Mnemonic - I:F

Sector - AUTMB

Current Price 6.3950 11:42

12 Mth Range High 6.4500 16/ 8/13

Low 3.3140 20/11/12

Price Change 1mth 3mth 12mth

(E) 4.0% 7.7% 50.5%

Relative to FTSEMIB

-3.5% -11.2% 24.1%

Market Value (E) 7997.98M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 0.29 0.16 0.30 0.53

PE 22.4 38.8 21.5 12.1

PE Rel. 188.0%

P/Cash 1.36 (%=Rel to DS Index)

Dividend Rate (E) 0.00

Dividend Yield -

Dividend Cover -Div Last Fin Year 0.00

Last Div Paid YR (E) 0.09 Tax-G

Pay Date 21/04/11 XD Date 18/04/11

(E) 12/10 12/11 12/12

Total sales 35880M 59559M 83957M

Pre-Tax Prof. 706M 2185M 2036M

Publ. EPS 0.18 1.08 0.29

Cash EPS 1.81 3.06 4.71

Mkt to Bk Val 1.64 0.52 0.52

ROE (%) 4.76 13.16 3.91

No. Shares in Issue 1250662(000s)

Volume 10696.4(000s)

Percentage of free float 70%

Volatility 9

Beta 1.331

Correlation 0.688

Price and Index (rebased)

94959697989900010203040506070809101112

0

5

10

15

20

FIAT

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 15/10/13 11.04

TELECOM ITALIAGeography Code - IT Industry Group - TELFL

Local Code - M349716 Exchange - Milan

Mnemonic - I:TIT

Sector - TELFL

Current Price 0.6925 11:47

12 Mth Range High 0.7700 17/10/12

Low 0.4710 6/ 8/13

Price Change 1mth 3mth 12mth

(E) 14.1% 37.5% -8.6%

Relative to FTSEMIB

5.8% 13.4% -24.7%

Market Value (E) 9291.30M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS -0.08 0.00 0.089 0.097

PE -8.7 7.8 7.1

PE Rel.

P/Cash 1.61

Dividend Rate (E) 0.02

Dividend Yield 2.89

Dividend Cover 0.0Div Last Fin Year 0.02

Last Div Paid YR (E) 0.02 Tax-G

Pay Date 25/04/13 XD Date 22/04/13

(E) 12/10 12/11 12/12

Total sales 27571M 29957M 29503M

Pre-Tax Prof. 4127M -2624M -44M

Publ. EPS 0.16 -0.24 -0.08

Cash EPS 0.43 0.44 0.43

Mkt to Bk Val 0.66 0.71 0.69

ROE (%) 11.40 -18.31 -7.72

No. Shares in Issue 13417040(000s)

Volume 160090.4(000s)

Percentage of free float 78%

Volatility 6

Beta 0.738

Correlation 0.547

Price and Index (rebased)

94959697989900010203040506070809101112

0

5

10

TELECOM ITALIA

FTSE MIB INDEX (PI)

Source: Thomson Datastream

134

Figura 4.3: serie storica dei rendimenti dal 01/01/2000 al 31/12/2012

-0,1

-0,05

0

0,05

0,1

0,15

2001

ASSICURAZIONI_G

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

ENEL

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

ENI

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

INTESA_SP

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

ATLANTIA

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

0,3

2001

FIAT

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

2001

TELECOM

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

2001

UNICREDIT

135

Tabella 4.2: titoli italiani, statistiche descrittive dell‟intera serie storica

ASSICURAZIONI GENERALI ENEL ENI INTESA SP Media - 0,0001 Media - 0,0001 Media 0,0003 Media 0,0000

Errore standard 0,0003 Errore standard 0,0003 Errore standard 0,0003 Errore standard 0,0005 Deviazione standard 1,7% Deviazione standard 1,7% Deviazione standard 1,8% Deviazione standard 2,6%

Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,1% Curtosi 3,6617 Curtosi 9,9315 Curtosi 10,3365 Curtosi 6,5219

Asimmetria 0,0289 Asimmetria - 0,0721 Asimmetria 0,5723 Asimmetria 0,2072 Intervallo 0,2170 Intervallo 0,2970 Intervallo 0,2714 Intervallo 0,3654 Minimo -8,6% Minimo -11,3% Minimo -9,6% Minimo -16,9%

Massimo 13,1% Massimo 18,4% Massimo 17,5% Massimo 19,7% Q-Test Ljung-Box 27,816 Q-Test Ljung-Box 33,199 Q-Test Ljung-Box 20,472 Q-Test Ljung-Box 35,046

p-value 0,002 p-value 0,000 p-value 0,025 p-value 0,000 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129

ATLANTIA FIAT TELECOM UNICREDIT

Media 0,0004 Media - 0,0001 Media - 0,0003 Media - 0,0003 Errore standard 0,0003 Errore standard 0,0005 Errore standard 0,0004 Errore standard 0,0005

Deviazione standard 1,7% Deviazione standard 2,6% Deviazione standard 2,2% Deviazione standard 2,5% Varianza campionaria 0,0% Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1%

Curtosi 7,1124 Curtosi 6,7557 Curtosi 5,0808 Curtosi 8,3840 Asimmetria 0,3930 Asimmetria 0,5526 Asimmetria - 0,0335 Asimmetria 0,4007 Intervallo 0,2678 Intervallo 0,4167 Intervallo 0,3138 Intervallo 0,3404 Minimo -11,7% Minimo -14,6% Minimo -17,0% Minimo -13,1%

Massimo 15,1% Massimo 27,1% Massimo 14,3% Massimo 20,9% Q-Test Ljung-Box 30,323 Q-Test Ljung-Box 29,507 Q-Test Ljung-Box

Q-Test Ljung-Box 14,171

p-value 0,001 p-value 0,001 p-value

p-value 0,165 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129

136

Mercato Tedesco:

a) Allianz

Allianz SE è tra le principali società d‟assicurazione in Europa, presente in

più di 70 paesi con oltre 180 000 dipendenti con oltre 80 milioni di clienti.

b) BMW

BMW è tra le prime società europee produttrice di automobili e motocicli,

con 76,45 mld di ricavi e 10,48 mld di ebitda a giugno 2013.

c) Bayer

La Bayer AG è tra le principali case farmaceutiche a livello mondiale, con

110 mila dipendenti e presente in quasi tutti i Paesi del mondo.

Nel 2012 Bayer ha fatturato globalmente 39,7 miliardi di Euro.

d) BASF

La BASF (Badische Anilin- und Soda Fabrik) SE è è una delle più grandi

compagnie chimiche al mondo.

Il Gruppo conta più di 160 tra filiali, produce circa 8.000 diversi utilizzati in

molti settori dell'industria, in 41 Paesi tra Europa, Asia e America.

Con 110 mila dipendenti e clienti in 170 Paesi, la società a giusno 2013 ha re-

alizzato ricavi per 40,17 mld e un ebitda di 8,56 mld.

e) Daimler

Presente nei cinque continenti con 17 stabilimenti, Daimler AG è uno dei più

grandi produttori di auto al mondo, vantando nel proprio portafoglio marchi

Mercedes-Benz, Smart, Freightliner, Western Star, BharatBenz, Fuso, Setra e

Thomas Built Buses

Nel 2012 il gruppo impegnata 275 mila persone, vendendo 2,2 mln di veicoli

con ricavi di 114,3 mld e 8,6 mld di ebit.

137

f) SAP

SAP (Systeme, Anwendungen, Produkte in der Datenverarbeitung) AG è tra

le principali società nel settore dei sistemi informatici d‟impresa e nella pro-

duzione di software.

Con 59 mila dipendenti e 195 mila clienti distribuiti in 120 paesi, nel giugno

2013 la società presentava ricavi per 16,23 mld e un ebitda di 5,85 mld.

g) Siemens

Siemens AG è la più grande società metalmeccanica d‟Europa e la maggiore

conglomerata del continente sia per fatturato e dipendenti, operando nel setto-

re metalmeccanico, delle infrastrutture, dell‟energia e dell‟Healthcare.

La società impegna 475 mila dipendenti distribuiti in 10 divisioni e 190 Paesi.

h) Volkswagen

Volkswagen AG è il più grande produttore di auto in Europa, producendo

in28 Paesi nel mondo, con 9,2 mln di auto vendute in 153 Paesi, corrispon-

dente al 12,8% delle vendite mondiali.

Il gruppo comprende 12 marchi in 7 paesi Europei: Volkswagen auto, Audi,

SEAT, ŠKODA, Bentley, Bugatti, Lamborghini, Porsche, Ducati, Volkswa-

gen Commercial Vehicles, Scania and MAN, i quali hanno fatturato 193 mld

di ricavi e 21,9 mld di utile nel 2009.

138

Tabella 4.3: portafoglio tedesco, composizione e principali indicatori

144

Al 12/12 145

Al 12/13 (Stime Thompson Reuters ®) 146

Al 15/10/13 147

I valori di Total Sales e di Pre-Tax Profit sono rispettivamente al 9/12 e 9/13

Codice GICS Sector GICS Indrustry

Group

GICS Industry Total

Sales144

(in mln)

Pre-Tax

Profit

(in mln)

No

share

in issue

PE145

EPS145

Market

Value146

(in mln)

Allianz Se-Reg ALV.DE Financial Insurance Insurance 100.000 8.631 455.950 9,2 13,2 55.169

Bayerische Moto-

ren Werke Ag

(BMW) BMW.DE

Consumer Dis-

cretionary

Automobilies &

Components Automobilies 76.848 7.819 601.995 10,3 7,84 49.951

Bayer Ag-Reg BAYN.DE Health Care

Pharmaceuticals,

Biotechnology Phatmaceuticals 39.760 3.248 826.948 15,3 5,69 72.854

BASF Se BAS.DE Materials Materials Chemicals 78729 8.439 918.479 13,3 5,37 66.130

Daimler Ag DAI.DE

Consumer Dis-

cretionary

Automobilies &

Components Automobilies 114.000 7.718 106.949 11,9 4,92 63.553

SAP Ag SAP.DE

Information

Technology

Software & Services

Pharmaceuticals Software 16.223 3.824 122.850 16,3 3,33 66.189

Siemens147

Ag-

Reg SIE.DE Industrials Capital Goods Industrial Con-

glomerate 78.296 7.278 881.000 16,8 5,43 79.652

Volkswagen Ag-

Pfd VOW.DE Consumer Dis-

cretionary

Automobilies &

Components Automobilies 193.000 25.492 295.090 7,7 21,9 29.861

Fonte: Thompson Datastream®

139

DATASTREAM EQUITIES 11/10/13 11.12

ALLIANZGeography Code - BD Industry Group - FLINS

Local Code - D840400 Exchange - Frankfurt

Mnemonic - D:ALV

Sector - NLINS

Current Price 120.450 11:54

12 Mth Range High 121.800 22/ 5/13

Low 92.000 12/10/12

Price Change 1mth 3mth 12mth

(E) 6.1% 4.0% 30.9%

Relative to DAXINDX

3.8% -2.3% 9.7%

Market Value (E) 54919.13M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 11.4 12.9 13.1 13.4

PE 10.5 9.3 9.2 9.0

PE Rel. 67.5%

P/Cash 2.86 (%=Rel to DS Index)

Dividend Rate (E) 4.50

Dividend Yield 3.74

Dividend Cover 2.9Div Last Fin Year 4.50

Last Div Paid YR (E) 4.50 Tax-G

Pay Date 08/05/13 XD Date 08/05/13

(E) 12/10 12/11 12/12

Total sales 93596M 94193M 100B

Pre-Tax Prof. 7173M 4846M 8631M

Publ. EPS 11.20 5.63 11.42

Cash EPS 34.16 36.84 42.10

Mkt to Bk Val 1.02 0.83 1.09

ROE (%) 13.57 6.35 12.28

No. Shares in Issue 455950(000s)

Volume 20.1(000s)

Percentage of free float 95%

Volatility 4

Beta 1.380

Correlation 0.802 Next AGM MAY.12

Price and Index (rebased)

94959697989900010203040506070809101112

0

200

400

600

ALLIANZ

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.13

BMWGeography Code - BD Industry Group - AUTOS

Local Code - D519000 Exchange - Frankfurt

Mnemonic - D:BMW

Sector - AUTMB

Current Price 80.532 11:52

12 Mth Range High 81.339 19/ 9/13

Low 60.325 12/10/12

Price Change 1mth 3mth 12mth

(E) 0.7% 15.2% 32.6%

Relative to DAXINDX

-1.5% 8.2% 11.1%

Market Value (E) 48479.84M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 7.77 7.88 7.84 8.13

PE 10.4 10.2 10.3 9.9

PE Rel. 74.0%

P/Cash 7.74 (%=Rel to DS Index)

Dividend Rate (E) 2.50

Dividend Yield 3.10

Dividend Cover 3.2Div Last Fin Year 2.50

Last Div Paid YR (E) 2.50 Tax-G

Pay Date 15/05/13 XD Date 15/05/13

(E) 12/10 12/11 12/12

Total sales 60477M 68821M 76848M

Pre-Tax Prof. 4836M 7383M 7819M

Publ. EPS 4.91 7.45 7.77

Cash EPS 20.25 9.27 10.40

Mkt to Bk Val 1.67 1.25 1.58

ROE (%) 14.98 19.16 17.78

No. Shares in Issue 601995(000s)

Volume 7.3(000s)

Percentage of free float 53%

Volatility 4

Beta 1.194

Correlation 0.754 Next AGM MAY.12

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

100

BMW

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.08

BAYERGeography Code - BD Industry Group - CHMSP

Local Code - DBAY001 Exchange - Frankfurt

Mnemonic - D:BAYN

Sector - CHMCL

Current Price 86.800 11:45

12 Mth Range High 89.700 5/ 8/13

Low 65.385 15/11/12

Price Change 1mth 3mth 12mth

(E) 2.7% 3.7% 26.8%

Relative to DAXINDX

0.5% -2.6% 6.3%

Market Value (E) 71779.00M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 2.96 3.51 5.69 6.43

PE 29.3 24.7 15.3 13.5

PE Rel. 179.1%

P/Cash 16.95 (%=Rel to DS Index)

Dividend Rate (E) 1.90

Dividend Yield 2.19

Dividend Cover 1.8Div Last Fin Year 1.90

Last Div Paid YR (E) 1.90 Tax-G

Pay Date 29/04/13 XD Date 29/04/13

(E) 12/10 12/11 12/12

Total sales 35088M 36528M 39760M

Pre-Tax Prof. 1736M 3358M 3248M

Publ. EPS 1.57 2.99 2.96

Cash EPS 5.21 5.66 5.12

Mkt to Bk Val 2.42 2.12 3.22

ROE (%) 6.90 12.98 12.98

No. Shares in Issue 826948(000s)

Volume 2.2(000s)

Percentage of free float 88%

Volatility 4

Beta 0.896

Correlation 0.763 Next AGM APR.10

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

100

BAYER

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.09

BASFGeography Code - BD Industry Group - CHEMS

Local Code - DBASF11 Exchange - Frankfurt

Mnemonic - D:BAS

Sector - CHMCL

Current Price 71.621 11:49

12 Mth Range High 75.927 1/ 2/13

Low 62.650 24/10/12

Price Change 1mth 3mth 12mth

(E) 3.2% 0.5% 10.5%

Relative to DAXINDX

0.9% -5.6% -7.4%

Market Value (E) 65782.31M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 5.31 4.91 5.37 5.90

PE 13.5 14.6 13.3 12.1

PE Rel. 105.6%

P/Cash 8.55 (%=Rel to DS Index)

Dividend Rate (E) 2.60

Dividend Yield 3.63

Dividend Cover 1.9Div Last Fin Year 2.60

Last Div Paid YR (E) 2.60 Tax-G

Pay Date 29/04/13 XD Date 29/04/13

(E) 12/10 12/11 12/12

Total sales 63873M 73497M 78729M

Pre-Tax Prof. 7373M 8970M 8436M

Publ. EPS 4.96 6.74 5.31

Cash EPS 8.86 8.72 8.37

Mkt to Bk Val 2.58 2.04 2.66

ROE (%) 23.44 27.17 20.03

No. Shares in Issue 918479(000s)

Volume 26.7(000s)

Percentage of free float 95%

Volatility 3

Beta 1.363

Correlation 0.886 Next AGM APR.10

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

BASF

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

Figura 4.4 e 4.5: andamento dei prezzi dei titoli delle società componenti il portafoglio tedesco e serie storica dei prezzi di tali titoli

140

DATASTREAM EQUITIES 11/10/13 11.11

DAIMLERGeography Code - BD Industry Group - AUTOS

Local Code - D710000 Exchange - Frankfurt

Mnemonic - D:DAI

Sector - AUTMB

Current Price 58.355 11:50

12 Mth Range High 58.355 11/10/13

Low 35.500 15/11/12

Price Change 1mth 3mth 12mth

(E) 2.9% 18.8% 53.3%

Relative to DAXINDX

0.6% 11.6% 28.5%

Market Value (E) 62410.34M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 5.71 6.28 4.92 5.57

PE 10.2 9.3 11.9 10.5

PE Rel. 67.3%

P/Cash 7.21 (%=Rel to DS Index)

Dividend Rate (E) 2.20

Dividend Yield 3.77

Dividend Cover 2.9Div Last Fin Year 2.20

Last Div Paid YR (E) 2.20 Tax-G

Pay Date 11/04/13 XD Date 11/04/13

(E) 12/10 12/11 12/12

Total sales 97761M 107B 114B

Pre-Tax Prof. 6628M 8449M 7718M

Publ. EPS 4.28 5.32 5.71

Cash EPS 7.71 8.43 8.10

Mkt to Bk Val 1.49 0.91 1.01

ROE (%) 13.50 14.91 14.60

No. Shares in Issue 1069494(000s)

Volume 27.8(000s)

Percentage of free float 92%

Volatility 7

Beta 1.520

Correlation 0.864 Next AGM APR.13

Price and Index (rebased)

94959697989900010203040506070809101112

0

50

100

150

DAIMLER

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.10

SAPGeography Code - BD Industry Group - SOFTW

Local Code - D716460 Exchange - Frankfurt

Mnemonic - D:SAP

Sector - SFTCS

Current Price 54.330 11:39

12 Mth Range High 64.690 14/ 3/13

Low 52.550 8/10/13

Price Change 1mth 3mth 12mth

(E) -0.3% -4.3% 0.9%

Relative to DAXINDX

-2.5% -10.2% -15.4%

Market Value (E) 66744.63M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 2.37 2.48 3.33 3.71

PE 22.9 21.9 16.3 14.6

PE Rel. 158.6%

P/Cash 18.06 (%=Rel to DS Index)

Dividend Rate (E) 0.85

Dividend Yield 1.56

Dividend Cover 2.9Div Last Fin Year 0.85

Last Div Paid YR (E) 0.85 Tax-G

Pay Date 05/06/13 XD Date 05/06/13

(E) 12/10 12/11 12/12

Total sales 12464M 14233M 16223M

Pre-Tax Prof. 2338M 4768M 3824M

Publ. EPS 1.52 2.89 2.37

Cash EPS 1.67 3.80 3.01

Mkt to Bk Val 4.74 3.95 5.27

ROE (%) 19.81 30.55 21.02

No. Shares in Issue 1228504(000s)

Volume 13.9(000s)

Percentage of free float 72%

Volatility 3

Beta 0.754

Correlation 0.672 Next AGM MAY.12

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

SAP

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.07

SIEMENSGeography Code - BD Industry Group - DIVIN

Local Code - D723610 Exchange - Frankfurt

Mnemonic - D:SIE

Sector - GNIND

Current Price 91.529 11:49

12 Mth Range High 91.880 1/10/13

Low 73.662 19/ 4/13

Price Change 1mth 3mth 12mth

(E) 4.4% 15.7% 23.0%

Relative to DAXINDX

2.1% 8.7% 3.2%

Market Value (E) 80637.00M

Fin.Yr LocStd I/B/E/S

09/12 06/13 09/13 09/14

EPS 4.93 5.11 5.43 6.98

PE 18.6 17.9 16.8 13.1

PE Rel. 129.8%

P/Cash 9.47 (%=Rel to DS Index)

Dividend Rate (E) 2.91

Dividend Yield 3.18

Dividend Cover 1.8Div Last Fin Year 2.91

Last Div Paid YR (E) 2.9077 Tax-G

Pay Date 24/01/13 XD Date 24/01/13

(E) 9/10 9/11 9/12

Total sales 75978M 73515M 78296M

Pre-Tax Prof. 5811M 9242M 7278M

Publ. EPS 4.35 6.82 4.93

Cash EPS 8.43 8.94 9.66

Mkt to Bk Val 2.50 1.97 2.23

ROE (%) 14.18 20.53 14.32

No. Shares in Issue 881000(000s)

Volume 10.7(000s)

Percentage of free float 88%

Volatility 3

Beta 1.150

Correlation 0.841 Next AGM JAN.13

Price and Index (rebased)

94959697989900010203040506070809101112

0

50

100

150

SIEMENS

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.07

VOLKSWAGENGeography Code - BD Industry Group - AUTOS

Local Code - D766400 Exchange - Frankfurt

Mnemonic - D:VOW

Sector - AUTMB

Current Price 168.400 10:44

12 Mth Range High 181.400 14/ 8/13

Low 132.100 18/ 4/13

Price Change 1mth 3mth 12mth

(E) -3.4% 6.4% 25.2%

Relative to DAXINDX

-5.5% -0.1% 5.0%

Market Value (E) 49693.08M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 46.4 37.6 21.9 25.0

PE 3.6 4.5 7.7 6.7

PE Rel. 32.4%

P/Cash 3.94 (%=Rel to DS Index)

Dividend Rate (E) 3.50

Dividend Yield 2.08

Dividend Cover 10.8Div Last Fin Year 3.56

Last Div Paid YR (E) 3.50 Tax-G

Pay Date 26/04/13 XD Date 26/04/13

(E) 12/10 12/11 12/12

Total sales 127B 159B 193B

Pre-Tax Prof. 8994M 18926M 25492M

Publ. EPS 15.19 33.12 46.45

Cash EPS 40.27 40.50 42.77

Mkt to Bk Val 1.07 0.83 0.98

ROE (%) 16.82 29.77 32.16

No. Shares in Issue 295090(000s)

Volume 1.6(000s)

Percentage of free float 12%

Volatility 4

Beta 0.858

Correlation 0.428 Next AGM APR.12

Price and Index (rebased)

94959697989900010203040506070809101112

0

100

200

300

400

VOLKSWAGEN

DAX 30 PERFORMANCE (PI)

Source: Thomson Datastream

141

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

DAIMLER

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

0,3

2001

SAP

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

SIEMENS

-0,6

-0,4

-0,2

0

0,2

0,4

0,6

0,8

1

1,2

1,4

2001

VOLKSWAGEN

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

ALLIANZ

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

2001

BMW

-0,2

-0,1

0

0,1

0,2

0,3

0,4

2001

BAYER

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

2001

BASF

Figura 4.6: serie storica dei rendimenti tei titoli tedeschi dal gennaio 2000 al dicembre 2012

142

Tabella 4.4: statistiche descrittive dei titoli tedeschi per la serie storica totale

ALLIANZ BMW BAYER BASF

Media - 0,0001 Media 0,0004 Media 0,0003 Media 0,0004

Errore standard 0,0004 Errore standard 0,0004 Errore standard 0,0004 Errore standard 0,0003

Deviazione standard 2,4% Deviazione standard 2,2% Deviazione standard 2,1% Deviazione standard 1,9%

Varianza campionaria 0,1% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0%

Curtosi 7,1273 Curtosi 4,2501 Curtosi 36,0753 Curtosi 5,4574

Asimmetria 0,4739 Asimmetria 0,2876 Asimmetria 1,6167 Asimmetria 0,1973

Intervallo 0,3400 Intervallo 0,2671 Intervallo 0,5496 Intervallo 0,2565

Minimo -14,51% Minimo -12,24% Minimo -16,83% Minimo -12,12%

Massimo 19,49% Massimo 14,47% Massimo 38,13% Massimo 13,53%

Q-Test Ljung-Box 42,9854 Q-Test Ljung-Box 43,8456 Q-Test Ljung-Box 36,9586 Q-Test Ljung-Box 33,1398

p-value 0,0000 p-value 0,0000 p-value 0,0001 p-value 0,0003

Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129

DAIMLER SAP SIEMENS VOLKSWAGEN

Media 0,0000 Media 0,0003 Media 0,0002 Media 0,0008

Errore standard 0,0004 Errore standard 0,0005 Errore standard 0,0004 Errore standard 0,0007

Deviazione standard 2,3% Deviazione standard 2,6% Deviazione standard 2,3% Deviazione standard 3,8%

Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1%

Curtosi 6,0584 Curtosi 11,4941 Curtosi 4,7229 Curtosi 496,4774

Asimmetria 0,4412 Asimmetria 0,9354 Asimmetria 0,1321 Asimmetria 15,6125

Intervallo 0,3284 Intervallo 0,4182 Intervallo 0,3315 Intervallo 1,6777

Minimo -13,26% Minimo -15,26% Minimo -15,09% Minimo -44,03%

Massimo 19,59% Massimo 26,56% Massimo 18,06% Massimo 123,73%

Q-Test Ljung-Box 23,6372 Q-Test Ljung-Box 18,7950 Q-Test Ljung-Box 48,2820 Q-Test Ljung-Box 387,6710

p-value 0,0086 p-value 0,0429 p-value 0,0000 p-value 0,0000

Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129

143

Mercato Francese

a) AXA

AXA è uno dei principali gruppi assicurativi e di gestione d‟attivi mondiale, leader

nella protezione assicurativa e nell‟asset management presente in 57 Paesi soprat-

tutto in Europa, Nord America e Asia.

Il Gruppo impegna 163.000 collaboratori e nel 2012 ha presentato un Utile di 98

mln.

b) BNP Paribas

BNP Paribas è uno dei maggiori gruppi in Europa e leader nel credito al consumo,

con una presenza stabile in 84 paesi e 201.800 dipendenti.

Giudicata la sesta banca al mondo per solidità secondo S&P, la banca ha conseguito

nel 2012 ricavi per 39,1 mld e un‟utile di 6,6 mld.

c) Schneider

Schneider Electric SA è un gruppo industriale con più di 130 mila dipendenti in

100 Paesi, che produce prodotti per la gestione elettrica e sistemi.

d) Société Générale

La Société Générale con una presenza stabile in 76 paesi e 32 milioni di clienti (So-

ciété générale pour favoriser le développement du commerce et de l'industrie en

France) è la settima banca per capitalizzazione della zona euro, impiegando circa

154mila dipendenti.

e) L‟Oréal

Con duemila dipendenti, 27 marchi internazionali e 611 brevetti depositati,l‟Oréal è

uno dei più grandi gruppi cosmetici al mondo presente in 130 paesi distribuiti sui

cinque continenti.

144

f) LVMH

La Louis Vuitton Moët Hennessy S.A. è la più grande multinazionale specializzata

in beni di lusso.

Il gruppo LVMH è costituito da 65 società del lusso e conta al suo interno 77 mila

dipendenti.

g) Sanofi

Sanofi è il primo gruppo farmaceutico in Europa e quarta al mondo, con 110 mila

dipendenti distribuiti in 100 Paesi e sui cinque continenti.

h) Total

Total SA è una delle prime quattro aziende mondiali operanti nel settore petrolchi-

mico e del gas naturale.

145

Tabella 4.5: portafoglio francese, composizione e principali indicatori

148

Al 12/12 149

Al 12/13 (Stime Thompson Reuters®) 150

Valori al 15/10/13

Fonte : Thompson Datastream®

Codice GICS Sector GICS Indrustry

Group

GICS Industry Total

Sales148

(in mln)

Pre-Tax

Profit

(in mln)

No

share in

issue

PE149

EPS1

49

Market

Value150

(in mln)

AXA Sa

CS.PA Financials Insurance Insurance 103.000 5.417 2.392.722 9.1 2.02 44.277

BNP Paribas

BNP.PA Financials Banks Commercial Banks 86.635 10.372 1.244.462 11.4 4.67 67.412

Shneider Electic

Sa SU.PA Industrials Capital Goods Electrical Equipment 23.946 2.461 560.344 15.3 4.06 34.954

Société Générale

GLE.PA Financials Banks Commercial Banks 71.506 1.542 798.656 12.1 3.42 33.200

L‟Oréal

OR.PA Consumer Sta-

ples

Household & Perso-

nal Products Personal Products 22.463 3.876 604.551

24.5

5.13 74.994

LVMH Moet

Hennessy Louis

Vuitton

MC.PA Consumer Di-

scretionary

Consumer Durables

& Apparel

Texiles, apparel &

Luxury Goods 28.103 5.725 508.036 20.1 7.30 73.589

Sanofi

SAN.PA Health Care

Pharmaceuticals,

Biotechnology Pharmaceuticals 34.947 5.877 1.326.900 13.6 5.38 97.574

Total Sa

FP.PA Energy Energy Oil, Gas & Consu-

mer Fuels 182.000 23.907 2.376.734 8.7 5.01 105.265

146

DATASTREAM EQUITIES 11/10/13 11.41

AXAGeography Code - FR Industry Group - FLINS

Local Code - G012062 Exchange - Euronext Paris

Mnemonic - F:MIDI

Sector - NLINS

Current Price 18.2700 12:24

12 Mth Range High 18.2700 10/10/13

Low 11.5000 16/11/12

Price Change 1mth 3mth 12mth

(E) 1.5% 13.5% 56.6%

Relative to FRCAC40

-0.9% 4.1% 26.8%

Market Value (E) 43715.01M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 1.77 1.65 2.02 2.14

PE 10.3 11.1 9.1 8.5

PE Rel. 61.6%

P/Cash 4.46 (%=Rel to DS Index)

Dividend Rate (E) 0.72

Dividend Yield 3.94

Dividend Cover 2.3Div Last Fin Year 0.72

Last Div Paid YR (E) 0.72 Tax-N

Pay Date 14/05/13 XD Date 09/05/13

(E) 12/10 12/11 12/12

Total sales 104B 104B 103B

Pre-Tax Prof. 4051M 4589M 5417M

Publ. EPS 1.21 1.49 1.77

Cash EPS 7.94 7.16 4.10

Mkt to Bk Val 0.66 0.54 0.75

ROE (%) 6.46 9.90 9.84

No. Shares in Issue 2392722(000s)

Volume 10535.0(000s)

Percentage of free float 78%

Volatility 6

Beta 2.068

Correlation 0.865

Price and Index (rebased)

94959697989900010203040506070809101112

0

10

20

30

40

AXA

FRANCE CAC 40 (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.39

BNP PARIBASGeography Code - FR Industry Group - BANKS

Local Code - G013110 Exchange - Euronext Paris

Mnemonic - F:BNP

Sector - BANKS

Current Price 53.3700 12:21

12 Mth Range High 53.3900 10/10/13

Low 38.2900 18/ 4/13

Price Change 1mth 3mth 12mth

(E) 5.2% 21.0% 37.6%

Relative to FRCAC40

2.7% 10.9% 11.3%

Market Value (E) 66416.94M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 5.16 3.91 4.67 5.29

PE 10.3 13.6 11.4 10.1

PE Rel. 76.0%

P/Cash 3.83 (%=Rel to DS Index)

Dividend Rate (E) 1.50

Dividend Yield 2.81

Dividend Cover 2.6Div Last Fin Year 1.50

Last Div Paid YR (E) 1.50 Tax-N

Pay Date 24/05/13 XD Date 21/05/13

(E) 12/10 12/11 12/12

Total sales 87432M 82085M 86635M

Pre-Tax Prof. 13020M 9651M 10372M

Publ. EPS 6.33 4.82 5.16

Cash EPS 24.16 21.95 13.94

Mkt to Bk Val 0.76 0.49 0.62

ROE (%) 10.45 7.69 7.78

No. Shares in Issue 1244462(000s)

Volume 5270.7(000s)

Percentage of free float 84%

Volatility 4

Beta 1.689

Correlation 0.823

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

100

BNP PARIBAS

FRANCE CAC 40 (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 15/10/13 11.07

SCHNEIDER ELECTRICGeography Code - FR Industry Group - ELEQP

Local Code - G012197 Exchange - Euronext Paris

Mnemonic - F:QT@F

Sector - ELTNC

Current Price 62.3700 11:52

12 Mth Range High 65.9900 18/ 9/13

Low 47.5400 15/10/12

Price Change 1mth 3mth 12mth

(E) -0.5% 13.4% 31.2%

Relative to FTSEMIB

-7.7% -6.5% 8.1%

Market Value (E) 34948.66M

Fin.Yr LocStd I/B/E/S

12/12 12/12 12/13 12/14

EPS 3.39 3.39 4.06 4.57

PE 18.4 18.4 15.3 13.6

PE Rel. 102.4%

P/Cash 12.09 (%=Rel to DS Index)

Dividend Rate (E) 1.87

Dividend Yield 3.00

Dividend Cover 1.8Div Last Fin Year 1.87

Last Div Paid YR (E) 1.87 Tax-N

Pay Date 07/05/13 XD Date 02/05/13

(E) 12/10 12/11 12/12

Total sales 19580M 22387M 23946M

Pre-Tax Prof. 2356M 2438M 2461M

Publ. EPS 3.29 3.39 3.39

Cash EPS 4.73 4.80 5.16

Mkt to Bk Val 2.05 1.40 1.82

ROE (%) 12.97 11.86 11.32

No. Shares in Issue 560344(000s)

Volume 1002.9(000s)

Percentage of free float 95%

Volatility 4

Beta 1.092

Correlation 0.790

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

SCHNEIDER ELECTRIC

FTSE MIB INDEX (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 15/10/13 11.06

SOCIETE GENERALEGeography Code - FR Industry Group - BANKS

Local Code - G013080 Exchange - Euronext Paris

Mnemonic - F:SGE

Sector - BANKS

Current Price 41.3900 11:50

12 Mth Range High 41.3900 15/10/13

Low 24.3000 18/ 4/13

Price Change 1mth 3mth 12mth

(E) 12.5% 46.3% 70.0%

Relative to FTSEMIB

4.3% 20.6% 40.1%

Market Value (E) 33056.38M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 0.64 0.81 3.42 4.40

PE 64.7 51.1 12.1 9.4

PE Rel. 284.5%

P/Cash 3.31 (%=Rel to DS Index)

Dividend Rate (E) 0.45

Dividend Yield 1.09

Dividend Cover 1.8Div Last Fin Year 0.45

Last Div Paid YR (E) 0.45 Tax-N

Pay Date 24/06/13 XD Date 29/05/13

(E) 12/10 12/11 12/12

Total sales 52704M 58473M 71506M

Pre-Tax Prof. 5844M 4111M 1542M

Publ. EPS 4.96 3.20 0.64

Cash EPS 21.22 10.99 12.51

Mkt to Bk Val 0.65 0.28 0.44

ROE (%) 8.08 5.06 1.00

No. Shares in Issue 798656(000s)

Volume 2469.2(000s)

Percentage of free float 93%

Volatility 6

Beta 2.370

Correlation 0.912

Price and Index (rebased)

94959697989900010203040506070809101112

0

50

100

150

SOCIETE GENERALE

FTSE MIB INDEX (PI)

Source: Thomson Datastream

Figura 4.7 e 4.8: serie storica dei prezzi titoli francesi in relazione all‟indice di riferimento e dei rendimenti di tali titoli

147

DATASTREAM EQUITIES 11/10/13 11.36

L'OREALGeography Code - FR Industry Group - PRSNL

Local Code - G012032 Exchange - Euronext Paris

Mnemonic - F:OR@F

Sector - PERSG

Current Price 125.8000 12:20

12 Mth Range High 136.6500 16/ 5/13

Low 96.0000 7/11/12

Price Change 1mth 3mth 12mth

(E) 0.9% -2.8% 30.0%

Relative to FRCAC40

-1.5% -10.9% 5.1%

Market Value (E) 76052.50M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 4.79 4.92 5.13 5.52

PE 26.3 25.6 24.5 22.8

PE Rel. 142.4%

P/Cash 20.56 (%=Rel to DS Index)

Dividend Rate (E) 2.30

Dividend Yield 1.83

Dividend Cover 2.1Div Last Fin Year 2.30

Last Div Paid YR (E) 2.30 Tax-N

Pay Date 10/05/13 XD Date 07/05/13

(E) 12/10 12/11 12/12

Total sales 19496M 20343M 22463M

Pre-Tax Prof. 3152M 3467M 3876M

Publ. EPS 3.82 4.11 4.79

Cash EPS 5.41 5.44 6.12

Mkt to Bk Val 3.35 2.75 3.05

ROE (%) 15.74 15.01 14.87

No. Shares in Issue 604551(000s)

Volume 524.7(000s)

Percentage of free float 39%

Volatility 5

Beta 0.597

Correlation 0.642

Price and Index (rebased)

94959697989900010203040506070809101112

0

50

100

150

L'OREAL

FRANCE CAC 40 (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.37

LVMHGeography Code - FR Industry Group - CLTHG

Local Code - G012101 Exchange - Euronext Paris

Mnemonic - F:LVMH

Sector - PERSG

Current Price 146.4500 12:18

12 Mth Range High 149.2500 19/ 9/13

Low 119.2500 24/ 6/13

Price Change 1mth 3mth 12mth

(E) 3.5% 9.6% 19.1%

Relative to FRCAC40

1.0% 0.5% -3.7%

Market Value (E) 74401.81M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 6.86 6.64 7.30 8.30

PE 21.3 22.1 20.1 17.6

PE Rel. 122.8%

P/Cash 14.65 (%=Rel to DS Index)

Dividend Rate (E) 3.00

Dividend Yield 2.05

Dividend Cover 2.2Div Last Fin Year 2.90

Last Div Paid FIN (E) 1.80 Tax-N

Pay Date 25/04/13 XD Date 22/04/13

(E) 12/10 12/11 12/12

Total sales 20320M 23659M 28103M

Pre-Tax Prof. 4781M 4912M 5725M

Publ. EPS 6.36 6.27 6.86

Cash EPS 7.97 9.09 10.00

Mkt to Bk Val 3.51 2.47 2.87

ROE (%) 19.57 15.46 14.57

No. Shares in Issue 508036(000s)

Volume 660.8(000s)

Percentage of free float 54%

Volatility 3

Beta 1.052

Correlation 0.779

Price and Index (rebased)

94959697989900010203040506070809101112

0

50

100

150

LVMH

FRANCE CAC 40 (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.34

SANOFIGeography Code - FR Industry Group - PHRMC

Local Code - G012057 Exchange - Euronext Paris

Mnemonic - F:SQ@F

Sector - PHARM

Current Price 73.1200 12:18

12 Mth Range High 86.6700 28/ 5/13

Low 66.0700 23/10/12

Price Change 1mth 3mth 12mth

(E) -1.6% -8.4% 9.6%

Relative to FRCAC40

-4.0% -16.1% -11.4%

Market Value (E) 97022.94M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 3.76 2.55 5.38 6.05

PE 19.4 28.7 13.6 12.1

PE Rel. 159.6%

P/Cash 11.35 (%=Rel to DS Index)

Dividend Rate (E) 2.77

Dividend Yield 3.79

Dividend Cover 0.9Div Last Fin Year 2.77

Last Div Paid YR (E) 2.77 Tax-N

Pay Date 14/05/13 XD Date 09/05/13

(E) 12/10 12/11 12/12

Total sales 30384M 33389M 34947M

Pre-Tax Prof. 5599M 5319M 5877M

Publ. EPS 4.19 4.31 3.76

Cash EPS 7.69 7.55 6.44

Mkt to Bk Val 1.18 1.35 1.65

ROE (%) 10.78 10.42 8.75

No. Shares in Issue 1326900(000s)

Volume 3036.4(000s)

Percentage of free float 91%

Volatility 4

Beta 0.503

Correlation 0.570

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

100

SANOFI

FRANCE CAC 40 (PI)

Source: Thomson Datastream

DATASTREAM EQUITIES 11/10/13 11.35

TOTALGeography Code - FR Industry Group - OILIN

Local Code - G012027 Exchange - Euronext Paris

Mnemonic - F:TAL

Sector - OILGP

Current Price 43.6500 12:20

12 Mth Range High 43.6750 27/ 9/13

Low 35.2500 17/ 4/13

Price Change 1mth 3mth 12mth

(E) 2.5% 13.4% 12.6%

Relative to FRCAC40

0.0% 3.9% -8.9%

Market Value (E) 103744.4M

Fin.Yr LocStd I/B/E/S

12/12 06/13 12/13 12/14

EPS 4.74 4.21 5.01 5.23

PE 9.2 10.4 8.7 8.3

PE Rel. 57.7%

P/Cash 4.61 (%=Rel to DS Index)

Dividend Rate (E) 2.36

Dividend Yield 5.41

Dividend Cover 1.8Div Last Fin Year 2.34

Last Div Paid INT (E) 0.59 Tax-N

Pay Date 27/09/13 XD Date 24/09/13

(E) 12/10 12/11 12/12

Total sales 140B 167B 182B

Pre-Tax Prof. 21035M 26654M 23907M

Publ. EPS 4.73 5.46 4.74

Cash EPS 8.50 9.47 9.48

Mkt to Bk Val 1.54 1.37 1.27

ROE (%) 18.72 19.11 15.17

No. Shares in Issue 2376734(000s)

Volume 4664.3(000s)

Percentage of free float 100%

Volatility 3

Beta 0.705

Correlation 0.738

Price and Index (rebased)

94959697989900010203040506070809101112

0

20

40

60

80

TOTAL

FRANCE CAC 40 (PI)

Source: Thomson Datastream

148

Figura 4.9: serie storica dei rendimenti dei titoli francesi dal 01/01/2000 al 31/12/2012

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

2001

AXA

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

2001

BNPPARIBAS

-0,25

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

SHNEIDER

-0,2

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

0,25

2001

SOCIETE_GENERAL

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

2001

L_OREAL

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

0,2

2001

LVMH

-0,15

-0,1

-0,05

0

0,05

0,1

0,15

2001

SANOFI

-0,1

-0,05

0

0,05

0,1

0,15

2001

TOTAL

149

Tabella 4.6: statistiche descrittive dei titoli francesi

AXA BNPPARIBAS SHNEIDER SOCIETÉ GÉNÉRALE Media 0,0001 Media 0,0002 Media 0,0003 Media 0,0001

Errore standard 0,0005 Errore standard 0,0005 Errore standard 0,0004 Errore standard 0,0005 Deviazione standard 2,9% Deviazione standard 2,6% Deviazione standard 2,3% Deviazione standard 2,8%

Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1% Curtosi 7,2519 Curtosi 9,7638 Curtosi 5,9107 Curtosi 7,7416

Asimmetria 0,6701 Asimmetria 0,7049 Asimmetria 0,0033 Asimmetria 0,3889 Intervallo 0,4028 Intervallo 0,3814 Intervallo 0,3677 Intervallo 0,4013 Minimo - 0,1841 Minimo - 0,1724 Minimo - 0,2040 Minimo - 0,1623

Massimo 0,2187 Massimo 0,2090 Massimo 0,1637 Massimo 0,2389 Q-Test Ljung-Box 72,38 Q-Test Ljung-Box 55,4083 Q-Test Ljung-Box 63,5761 Q-Test Ljung-Box 99,4788

p-value 0,0000 p-value 0,0000 p-value 0,0000 p-value 0,0000 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129

L’ORÉAL LVMH SANOFI TOTAL

Media 0,0002 Media 0,0003 Media 0,0003 Media 0,0002 Errore standard 0,0003 Errore standard 0,0004 Errore standard 0,0003 Errore standard 0,0003

Deviazione standard 1,8% Deviazione standard 2,1% Deviazione standard 1,9% Deviazione standard 1,8% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0%

Curtosi 4,4115 Curtosi 5,3478 Curtosi 3,8290 Curtosi 5,3813 Asimmetria 0,2203 Asimmetria 0,4615 Asimmetria 0,1532 Asimmetria 0,2915 Intervallo 0,2586 Intervallo 0,2917 Intervallo 0,2500 Intervallo 0,2283 Minimo - 0,1112 Minimo - 0,1226 Minimo - 0,1034 Minimo - 0,0919

Massimo 0,1474 Massimo 0,1690 Massimo 0,1466 Massimo 0,1364 Q-Test Ljung-Box 24,266 Q-Test Ljung-Box 10,6150 Q-Test Ljung-Box 20,6299 Q-Test Ljung-Box 34,0545

p-value 0,0069 p-value 0,3880 p-value 0,0238 p-value 0,0002 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129

150

Le tabelle 4.2;4.4;4.6 mostrano le principali statistiche descrittive della serie storica dei

rendimenti dei titoli esaminati.

Innanzitutto, è possibile notare come, coerentemente con il comportamento di molte varia-

bili finanziarie, i titoli presentino media sostanzialmente nulla ed un eccesso di Curtosi

Inoltre è stato possibile utilizzare la statistica di Ljung-Box per verificare la presenza di au-

tocorrelazione tra i dati.

Tale statistica è definita come

𝐿𝐵 = (𝑛 − 1) 𝑟𝑡

2

𝑛 − 𝑡

𝑘

𝑡=1

Dove 𝑘 è l‟ordine dei ritardi scelto.

Sotto 𝐻0 la statistica si distribuisce come una chi-quadro 𝜒2(𝑘).

Nel caso in esame, la statistica mostra in maniera inoppugnabile una forte autocorrelazione

tra i rendimenti per tutte le serie e, di conseguenza evidenzia indirettamente la non-

indipendenza dei rendimenti.

L‟autocorrelazione dei rendimenti può essere osservata implicitamente nelle figure 4.3; 4.6

e 4.9 dove è possibile constatare che, in corrispondenza di periodi di turbolenza del merca-

to, le serie sono esposte a fenomeni di volatility clustering.

Tale fenomeno, che consiste appunto in una clusterizzazione della volatilità in cui a periodi

di alta volatilità (fenomeni di shock) si alternano periodi di bassa volatilità, è effetto

dell‟autocorrelazione dei rendimenti.

151

Al fine di definire uno studio più vicino alla realtà, il numero di azioni per ogni società

componente i portafogli è stato scelto in maniera casuale, in particolare

Società N° di azioni

Portafoglio Italiano

Assicurazioni Generali 13.585

ENEL Spa 55.367

ENI Spa 12.492

Intesa San Paolo 86.823

Atlantia Spa 13.607

Fiat Spa 28.452

Telecom Italia Spa 191.231

Unicredit Spa 18.909

Portafoglio Tedesco

Allianz Se-Reg 2.121

Bayerische Motoren Werke Ag (BMW) 3.231

Bayer Ag-Reg 5.381

BASF Se 4.512

Daimler Ag 4.224

SAP Ag 4.713

Siemens Ag-Reg 2.268

Volkswagen Ag-Pfd 1.851

Portafoglio Francese

AXA Sa 16.289

BNP Paribas 3.986

Shneider Electic Sa 3.715

Société Générale 4.962

L‟Oréal 2.539

LVMH Moet Hennessy Louis Vuitton 1.969

Sanofi 4.100

Total Sa 5.529

152

4.1.3 Gli indici di mercato adoperati

L‟utilizzo di indici di mercato risulta fondamentale per questo studio.

Nelle pagine successive oltre a rappresentare il risk factor nei modelli Delta-Normal, essi

verranno utilizzati come benchmark dell‟andamento generale del mercato.

Al fine di poter svolgere gli opportuni confronti si è optato per degli indici rappresentativi

dei rispettivi mercati. In particolare per il mercato italiano, tedesco e francese la scelta è ri-

caduta rispettivamente su FTSE MIB, DAX30 e CAC40.

FTSE MIB

Costituito dai 40 titoli più rilevanti per liquidità e capitalizzazione e rappresentante

l‟80% della capitalizzazione di mercato, l‟indice FTSE MIB (Financial Times

Stock Exchange Milano Indice di Borsa) è il principale indice di riferimento della

borsa di Milano e ha l‟obiettivo di replicare la composizione settoriale del mercato

azionario italiano

Il FTSE MIB, che è un indice value-weighted151

, è costituito partendo dall'insieme

di tutte le azioni quotate sul mercato azionario principale MTA large cap e MTA

mid cap ed è calcolato in riferimento al benchmark ICB152

.

Il FTSE MIB è stato introdotto il 31/12/97 con un valore iniziale di 24.402 punti

indice.

DAX30

Il DAX 30 (Deutsche Aktienindex 30) è considerato l‟indice del mercato azionario

tedesco.

Esso misura l‟andamento delle 30 maggiori società tedesche (società con sede giu-

ridica o operativa in Germania con la maggioranza delle azioni scambiate nel Fran-

kfurt Stock Exchange) in termini di scambio e di capitalizzazione e rappresenta

l‟80% dell'‟intera capitalizzazione del mercato tedesco.

151

In un indice value weighted il prezzo del titolo è ponderato per la capitalizzazione di borsa.

In un indice price-weighted, invece, il peso del titolo è funzione del prezzo. 152

L‟ICB (Industry Classification Benchmark) è uno standard industriale creato nel 2005 dal Dow Jones in-

dexes e FTSE e creato per catalogare le società. L‟ICB differenzia le società all‟interno di dieci industrie, di-

ciannove supersettori, quarantuno settori, centoquattordici sottosettori.

153

CAC40

L'indice borsistico CAC 40, è il principale indice di borsa francese e uno dei più

importanti del sistema Euronext.

Nato il 31/12/87 con un valore iniziale di 1000 punti, l'indice è value-weighted ed è

composto da 40 delle 100 società a maggiore capitalizzazione quotate alla Borsa

Euronext di Parigi.

Tabella 4.7: valori di correlazione tra gli indici di mercato scelti

FTSEMIB DAX30 CAC40 1,0000 0,8338 0,9022 FTSEMIB

1,0000 0,8864 DAX30

1,0000 CAC40

4.1.4 Gli shock osservati

Come in precedenza accennato, l‟intento di verificare le performance di diversi modelli

VaR si esplica con la scelta di diversi momenti di shock del mercato finanziario interna-

zionale ed europeo dal 2001 ad oggi.

La scelta di tali momenti nella verifica dei modelli è cruciale, in quanto durante tali periodi

i parametri principali del modello subiscono sensibili variazioni.

In primo luogo è immediato pensare che le elevate fluttuazioni generatesi durante i periodi

di shock producono un incremento della volatilità per i titoli quotati e per gli indici di rife-

rimento del mercato.

In secondo luogo, shock a livello macroeconomico producono una tendenza al ribasso del

mercato, influenzando il secondo parametro di fondamentale importanza nella stima: il va-

lore di mercato dei titoli.

In questo senso, la scelta si è orientata perlopiù su i tre maggiori fenomeni finanziari che

hanno interessato il nuovo millennio:

11/09/2001 Shock Post-Attentato al World Trade Center

L‟attentato al World Trade Center ebbe significativo impatto sui mercati finanziari

mondiali.

Innanzitutto, l‟attacco danneggiò i sette grattacieli facenti parte del complesso e

l‟adiacente World Financial Center causando la distruzione del sistema di contrat-

154

tazioni di Wall Street e il sistema di comunicazione della Bank of New York, uno

dei principali istituti americani.

Inoltre entrambi i complessi erano sede di alcune istituzioni e società finanziarie

mondiali, quali NYMEX (New York Mercantile Exchange), NYBOT (New York

Board of Trade), Lehman Brothers, American Express, Dow Jones, Merril Lynch,

Deloitte, Nomura, il New York Stock Exchange; Morgan Stanley, Deutshe Bank e

il New York Board of Trade.

La chiusura della borsa americana fino al 17 Settembre e l‟immissione di liquidità

da parte della Fed limitarono parzialmente i crolli finanziari del post-attentato.

Nondimeno, l‟incertezza conseguente gli attentati provocarono in ogni modo il

crollo dei corsi azionari: alla riapertura dei mercati, l‟Indice DJIA (Dow Jones In-

dustrial Average) registrò una flessione negativa del 14,3%, e la perdita in USA nei

tre mesi successivi di quasi mezzo milione di posti di lavoro e 27,3 miliardi di dol-

lari di PIL.

Il panico diffusosi nel mercato americano nei mesi successivi si trasmise a tutte le

borse dei paesi occidentali.

Scoppio della bolla153

di Internet

La Bolla speculativa di Internet, detta anche bolla delle Dot.com si è sviluppata du-

rante gli anni della New economy (o, appunto, era delle Dot.com), cioè tra il ‟97 e il

‟01 ed è stata generata da un aumento esponenziale del valore dei titoli delle start-

up legate a internet e al mondo dell' high-tech.

In particolare, la bolla si sviluppò nel 1994 con la quotazione di Netscape, la quale,

creando il primo browser commerciale, provocò un‟esplosione di nascite di

"Dot.com".

Tali società puntavano sull‟espansione della propria base di clienti il più rapida-

mente possibile acquisendo fette di mercato, anche a costo di grandi perdite annua-

li. La frase get big fast, Espandersi o Fallire, diventò il motto dell‟era delle

Dot.com.

153

Una bolla speculativa è un aumento ingiustificato del prezzo delle azioni di una società (o, come nel no-

stro caso, di un settore) e si verifica quando gli investitori, osservato l‟apprezzamento di alcuni titoli azionari,

sono spinti a comprare al fine di speculare in previsione di ulteriori aumenti. Si crea così un processo autoa-

limentato che termina quando la bolla "scoppia" e i prezzi crollano.

155

Ai target ambizioni delle start-up seguì la sovrastima dal parte del mercato, il quale

ignorò i fondamentali e le caratteristiche di tali società (scarsa capitalizzazione, pic-

cole dimensioni) nella convinzione che le start-up avrebbero prodotto profitti in fu-

turo.

La bolla scoppiò tra ‟00 e ‟01: i rapporti annuali e trimestrali pubblicati nel marzo

2000 mostrarono la debolezza dell'“affare Internet” e se il 10 marzo 2000 l'indice

NASDAQ, raggiunse il suo punto massimo a 5048, il 13 marzo cominciarono le

vendite che portarono l‟indice in soli tre giorni a perdere il 9%.

Il calo non fu tuttavia improvviso, ma graduale e si protrasse per i due anni succes-

sivi.

Con lo scoppio della bolla, alcune società come Pets.com, fallirono completamente

mentre altre Dot.com riuscirono a sopravvivere, per essere successivamente acqui-

state dai grandi operatori del mercato come Google, Microsoft e Yahoo!.

Crisi dei mutui Subprime154

e crack della banca Lehman Brothers

Tra il 2001 e il 2005, i bassi tassi di interesse della Fed, la possibilità di conseguire

elevati profitti da parte delle banche e l‟apertura al mercato a soggetti in evidenti

difficoltà economiche stimolarono lo sviluppo dei mutui subprime, che da 145 mi-

liardi di dollari nel 2001, raggiunsero i 635 miliardi nel 2005.

La possibilità di ottenere un mutuo a tassi vantaggiosi stimolò anche il mercato

immobiliare, che agendo di pari passo con lo sviluppo dei subprime, vide accresce-

re il prezzo degli immobili.

Questo mix rischio-profitto cominciò a vacillare nel 2005, quando la Fed, nel tenta-

tivo di frenare questo processo autoalimentato innalzò i tassi di riferimento155

dal

1,5% nel 2005 al 5,25% nel 2007.

154

Per mutui subprime si definiscono quei mutui concessi a soggetti “secondari”, che per le loro caratteristi-

che finanziarie non possono accedere al mercato “regolare” dei mutui. Per questo motivo, tali prestiti si carat-

terizzano per alti tassi, variabili e di conseguenza rappresentano un asset rischioso sia per il prestatore che per

il debitore.

In particolare il prefisso "sub-", fa riferimento appunto a condizioni sub-ottimali rispetto ai prime loan.

Nella categoria dei subprime si trovano innumerevoli strumenti finanziari come ad esempio i mutui subprime

o le carte di credito subprime.

156

Di conseguenza i debitori osservarono un brusco innalzamento del tasso del proprio

mutuo, accrescendo il numero delle insolvenze e dei successivi pignoramenti au-

mentò, a causa

L‟esplosione della bolla immobiliare avvenne nel 2007, quando all‟aumento dei pi-

gnoramenti fece seguito un‟ondata di vendite immobiliari da parte degli intermedia-

ri

Alla svalutazione delle case, nel Luglio 2007 fece seguito la conseguente svaluta-

zione degli strumenti innovativi garantiti da mutui ipotecari, suscitando difficoltà

per i grandi istituti che avevano realizzato grossi margini di profitto con i subprime,

quali Bearn Sterns156

, AIG, Northen Rock157

, Citigroup, UBS e Lehman Brothers

mentre sull‟altro versante i tagli dei tassi da parte della Fed e l‟immissione di liqui-

dità da parte della BCE e della stessa Fed non riuscirono a contenere gli effetti del

crollo.

Il 15 settembre 2008, dopo il ritiro dell'offerta di acquisto da parte di Barclays, la

Lehman Brothers Holdings annunciò il ricorso al Chapter 11158

, causando nella

stessa giornata il crollo dell‟80% del valore delle proprie azioni e il ribasso di 500

punti dell'indice Dow Jones, un crollo ancor maggiore di quello avvenuto 7 anni

prima con l‟attentato al World Trade Center.

Le conseguenze a lungo termine del dissesto causato dalla crisi dei subprime fu la

crisi del debito sovrano per molti paesi europei e l‟attuale crisi economica, ma gli

effetti nei giorni immediatamente successivi furono il tracollo dei corsi azionari,

con la perdita di circa 900 miliardi di euro, ben oltre l‟intera capitalizzazione di

Piazza Affari con le sole perdite europee pari a 125 miliardi.

155

In parole semplici, i tassi di riferimento sono quei tassi di interesse a cui la Federal Reserve concede pre-

stiti alle banche, e, coerentemente ad una logica di rendimento-rischio, rappresentano di fatto i tassi

d‟interesse più bassi del mercato 156

A causa delle evidenti difficoltà finanziarie e per sfuggire al fallimento, il 16 marzo 2008 Jp Morgan ac-

quisì Bear Stearns. 157

Nel Settembre 2007 a causa del suo business incentrato perlopiù sul mercato interbancario (che andò in

crisi alle prime avvisaglie di difficoltà del mercato) la Northern Rock annunciò difficoltà nella liquidità, sca-

tenando una corsa agli sportelli. 158

Il Chapter 11 è appunto il capitolo 11 del Bankruptcy Code USA, (che si avvicina alla legge fallimentare

italiana), che ha come obiettivo la riorganizzazione d‟impresa a fronte di una crisi.

157

Crisi del debito sovrano159

L‟eccessivo intervento pubblico al fine di salvaguardare le istituzioni finanziarie da

un lato e la bassa crescita dall'altro causò l‟innalzamento dell‟esposizione debitoria

degli Stati160

.

Infatti, primi interventi di riduzione dei tassi d‟interesse effettuati dalla Fed e dalla

BCE hanno fatto seguito interventi massici da parte dei Governi che hanno erogato

fondi agli istituti di credito, raccolti accrescendo il debito pubblico.

L‟aumento del debito causò situazioni di difficoltà per molti paesi dell'eurozona: la

Grecia, che sembrava avere attraversato la fase 2007-2008 in maniera meno negati-

va, con uno sviluppo sostenuto negli anni precedenti nell‟Ottobre 2009 ammise di

aver mentito sulla situazione finanziaria degli ultimi anni161

e di aver effettuato ope-

razioni finanziarie spregiudicate con le banche d‟affari Goldman Sachs e JP Mor-

gan Chase per nascondere l‟entità dell‟indebitamento.

Nell‟Aprile dell'‟anno successivo, l‟agenzia di rating S&P declassò i titoli greci al

livello BB+, cioè al livello di obbligazioni spazzatura, seguita a ruota dalle altre a-

genzie.

I piani di risanamento proposti dal Governo greco e gli interventi finanziari della

BCE, come la ristrutturazione del debito e l‟abbattimento forfettario del 50% del

debito a carico dei privati non impedì l‟allargamento della sfiducia nei confronti di

altri paesi “periferici”.

Nell‟Aprile 2010 l‟annuncio da parte delle banche portoghesi di non essere in grado

di acquistare in asta i titoli del debito pubblico portoghese costituì il campanello

d'allarme circa la possibilità di una crisi anche per il Portogallo.

Il Paese approvò il risanamento di bilancio e riduzione delle spese a cui fece seguito

un piano di salvataggio di 80 miliardi da parte dell‟UE.

Quasi contemporaneamente (Agosto 2010) l'Irlanda, dopo esser stata investita dalla

bolla speculativa e dalla successiva crisi finanziaria che causò riduzione del Pil del

7,5%, e l‟incremento del 20% del deficit pubblico accettò anch‟essa un programma

di salvataggio del FMI di 85 miliardi di euro.

159

Si veda anche http://economia.unipv.it 160 Basti pensare che nel 2007 il debito pubblico rappresentava l‟81% del Prodotto interno lordo (Pil) delle

economie avanzate, mentre nel 2015, salirà al 109% (stime del FMI). 161

Il Governo Greco annunciò che il rapporto deficit/Pil avrebbe raggiunto la cifra record di 12,7%

158

Nel Luglio 2011 entrambi i paesi videro un declassamento dei propri titoli al livel-

lo “junk” da parte di Moody‟s

Nell‟estate-Autunno 2011 la speculazione colpì i grandi paesi periferici: Italia e

Spagna.

Già nel 2008 l‟arresto della crescita espose la Spagna all‟attacco degli investitori

sui titoli sovrani: a fronte dell'aumento dello spread Bonos-Bund a quota 500 punti

base, il governo spagnolo decretò elezioni anticipate e a fine 2012 in nuovo esecu-

tivo dette il via alle politiche di austerità richieste dalla BCE

Per quanto riguarda l‟Italia la crisi del debito italiano, a differenza degli altri Paesi

periferici, non si realizzò sulle fondamenta della crisi immobiliare, ma fu causata da

variabili finanziarie che già da anni influenzavano l‟economia del Paese.

In particolare nel decennio 2000-2010 l‟Italia era aggravata da l'alto livello del de-

bito pubblico, e una crescita economica del 4% in tutto il decennio.

Questi fattori spinsero molti investitori a nutrire dubbi sulla reale solvibilità del Pa-

ese: nel Luglio 2011, dopo aver attaccato i titoli spagnoli, la speculazione si con-

centrò sui Btp italiani, raggiungendo uno spread Btp-Bund di 337 punti e un conse-

guente rendimento dei Btp a 15 anni del 5,90%.

L‟ampliamento dello spread comportò un circolo vizioso di allargamento della sfi-

ducia nel sistema-Italia e conseguente ulteriore aumento dello spread, provocando

tra l‟altro forti ribassi nella Borsa di Milano162

.

Nel 2012 dopo l‟abbassamento del merito creditizio italiano da parte di S&P, la

manovra di 20 miliardi di euro e Long Term Refinancing Operation163

attuato dalla

BCE comportò una riduzione dello spread e il conseguente calo del costo

dell‟indebitamento italiano, anche se l'economia reale continuò a peggiorare ed en-

trò in recessione.

162

Bisogna specificare che nonostante le banche italiane non possedessero titoli “tossici” derivanti dai su-

bprime, erano molto esposte sui titoli di Stato italiani.

Infatti in quel periodo circa il 60% del bilancio delle prime 5 banche italiane era costituito da titoli di Stato

italiani 163

Il long term refinancing operation (LTRO, piano di rifinanziamento a lungo termine) è un intervento della

BCE con il quale la Banca Centrale, a fronte di una garanzia (collaterale) composta generalmente da obbliga-

zioni, fornisce un prestito alle banche ad un tasso pari alla media del tasso delle MRO (Main Refafinancing

operation), calcolata durante il periodo dell'‟operazione, che è di 3 anni.

159

La scelta dei momenti shock è avvenuta osservando i periodi di crisi finanziaria di cui si è

discusso.

In particolare, assumendo che l‟indice sia espressivo dell‟andamento generale del merca-

to164

, la scelta è propesa su 5 “osservazioni shock”, nelle quali il FTSE MIB, il DAX30 e il

CAC40 hanno realizzato un crollo nel loro valore.

Per la precisione, sono state scelte le seguenti osservazioni:

1. 21 Settembre 2001

2. 9 Ottobre 2002

3. 20 Marzo 2008

4. 6 Marzo 2009

5. 12 Settembre 2011

Al fine di compiere un‟analisi più ampia del fenomeno di turbolenza, la stima non è stata

calcolata a partire dall‟ “osservazione shock”, bensì in momenti precedenti e successivi a-

gli shock stessi.

Più precisamente, per ogni shock l‟analisi s‟incentra su tre stime del valore a rischio: la

prima si basa su l‟osservazione avvenuta un mese prima lo shock, la seconda su

un‟osservazione avvenuta un mese dopo lo shock e la terza su l‟osservazione avvenuta due

mesi dopo lo shock165

.

164

Nel presente studio si è assunto che l‟indice possa sintetizzare il generale andamento del mercato.

Questa ipotesi verrà più volte giudicata non corretta nel proseguio di questo lavoro 165

Per facilitare la comprensione, nel presente lavoro si indicheranno le osservazioni shock con S1; S2; S3;

S4; S5 secondo l‟ordine cronologico, e l‟osservazione su cui è calcolata la stima con -1M; +1M; +2M a se-

conda che la stima sia calcolata rispettivamente un mese prima, un mese dopo o due mesi dopo la turbolenza.

Per la precisione, si opterà per la stima 21 osservazioni prima dell‟osservazione shock, 21 osservazioni dopo

e 40 osservazioni dopo

160

0

10000

20000

30000

40000

50000

60000P

un

ti In

dic

e

FTSE MIB

DAX30

CAC40

11/09/01 Attentato al WTC

Luglio '07: inizia a crisi dei subrime

15/09/08 Lehman Brothers ricorre

13/03/00: Scoppio della bolla di Internet

Ottobre '09 : inizia la Crisi

08/07/11 comincia la

08/08/11 bocciatura del bilancio Usa. È tracollo

Grafico 4.3: FTSE MIB, DAX30 e CAC40, serie storica dal 1/10/98 al 15/10/13

Fonte: Thimpson Reuters®

161

4.2 Lo studio dei risultati ottenuti: la ricerca del modello ottimo

L‟analisi dei risultati ottenuti passa necessariamente attraverso la determinazione del mo-

dello ottimo.

Su quali basi è possibile determinare se un modello è ottimo?

È pacifico pensare che le variabili che influenzano il giudizio di un modello sono il risulta-

to fornito e la capacità di rispondere ad uno shock di mercato, il quale si manifesta nel crol-

lo dei corsi azionari e nell‟aumento della volatilità.

Banalmente, si potrebbe pensare che quanto maggiore sia il valore stimato, tanto migliore

può essere considerato il modello, in realtà questo non è sempre vero: come visto nel Capi-

tolo 1, nell‟ottica del risk management è indubbio pensare che un modello che fornisca va-

lori eccessivamente alti impone accantonamenti di capitale spesso eccessivi rispetto

all‟effettiva esposizione al rischio, distraendo risorse da un‟allocazione redditizia.

In questo senso, la strada per determinare l‟effettiva validità di un modello passa per i mo-

delli di backtesting, nonostante, come più volte sottolineato, anch‟essi rappresentino un si-

stema approssimativo e spesso inattendibile per determinare la legittimità dell‟approccio

Value at Risk.

Tuttavia, in questo studio l‟analisi empirica si limita all'osservazione dei differenti modelli,

studiandone l‟andamento durante gli shock, verificando, attraverso l‟analisi delle stime

fornite, se, quando e in che misura ognuno dei modelli proposti risponda alle qualità che un

modello di stima del rischio di mercato debba possedere166

.

166

È inoltre opportuno precisare che in questa sede considerare il VaR come valore monetario può risultare

fuorviante, in quanto la massima perdita possibile deve essere rapportata al valore di mercato del portafogli.

In parole più semplici, è più opportuno definire il VaR su base percentuale affinché sia più facile comprende-

re la quota di capitale che ogni modello stima debba essere accantonata a fronte dell'investimento.

162

4.2.1 Il modelli Varianze-Covarianze “ordinari”

Nel Capitolo 2 si è più volte sottolineato che il modello Varianze-Covarianze mostra ec-

cessive approssimazioni assumendo la normalità dei rendimenti.

Preso atto di tale limite, in questo lavoro si è preferito utilizzare dei modelli che incorpo-

rassero almeno in parte la differenza che intercorre tra la vera distribuzione dei rendimenti

e la distribuzione Normale standard.

Alla luce di quanto appreso, è inequivocabile che la scelta del 𝑧𝛼 modificato rappresenta

un significativo miglioramento nella stima, considerando che, come è possibile notare dalla

Tabella 4.8, il valore “modificato” differisce in maniera sostanziale dal corrispettivo previ-

sto dalla Normale Standard al livello di confidenza del 99% (𝑧𝛼 = 2,326).

Tabella 4.8: valore di 𝑧𝛼∗ , calcolato introducendo nel calcolo Curtosi e Asimmetria, per i differenti shock. I valori evi-

denziati in rosa, verde e blu sono rispettivamente inferiori a 2,326 (il percentile della Normale standardizzata al livello di

confidenza del 99%), compresi tra 2,326 e 3 e superiori a 3

Assicurazioni

Generali ENEL ENI Intesa SP Atlantia FIAT Telecom Unicredit

S1

-1M 2,167 2,585 2,093 2,712 2,862 4,224 2,678 2,126

+1M 2,762 2,858 2,122 3,333 3,601 4,584 2,455 4,453

+2M 2,861 2,715 2,043 3,165 3,532 4,228 2,421 3,975

S2

-1M 2,737 2,408 2,182 2,547 3,280 2,950 2,755 3,261

+1M 2,531 2,606 2,223 2,598 7,448 2,720 2,607 3,160

+2M 2,496 2,644 2,289 2,571 7,913 2,685 2,539 3,191

S3

-1M 2,951 2,306 2,482 2,344 2,974 2,069 4,253 2,806

+1M 3,113 2,375 2,449 2,492 3,041 2,103 3,984 2,761

+2M 3,194 2,336 2,447 2,484 3,084 2,101 3,883 2,736

S4

-1M 3,263 4,203 4,616 3,781 3,164 2,953 3,413 3,343

+1M 2,853 4,361 4,250 3,329 3,039 4,087 3,202 3,125

+2M 2,718 4,179 4,186 3,212 2,952 3,983 3,207 3,066

S5

-1M 2,408 2,107 2,286 2,675 3,106 2,159 2,772 2,729

+1M 2,425 2,509 2,798 2,501 3,316 2,504 2,486 2,682

+2M 2,441 2,551 2,718 2,367 3,093 2,336 2,434 2,434

163

Il risultato può essere facilmente allargato agli altri portafogli, giungendo alla conclusione

che nel solo portafogli italiano i casi in cui il valore modificato del percentile si è dimostra-

to prossimo o di poco inferiore al valore “ordinario” fornito dalla Normale Standard è sta-

to solo il 7,8%

È facile intuire come questo risultato sia dovuto a valori di asimmetria e curtosi dei titoli

sensibilmente superiori rispetto a quanto previsto dalla funzione gaussiana.

Un caso emblematico dell'allontanamento delle distribuzioni dei rendimenti dalla normalità

distributiva ci è fornito durante lo shock della banca d‟affari Lehman167

.

Come è possibile constatare dal Grafico 4.4, il crollo causato dalla Lehman si inserisce nel

più ampio fenomeno di crollo dei corsi azionari causato dalla crisi dei mutui subprime, che

raggiunge il valore più basso per i tre indici il 6 Marzo 2009.

Similmente, anche i titoli annessi ai tre portafogli sono soggetti a forti shock dei rendimen-

ti (vedi Figure 4.3,4.6 e 4.9), che portano il più delle volte a valori così eccezionali di cur-

tosi e asimmetria che l‟assunzione di normalità risulta troppo difficile da accettare.

I Grafici 4.4 e 4.5 riportano un caso peculiare di quanto scritto poc‟anzi: a fronte di forti

shock tra l‟Ottobre e il Novembre 2008, il titolo Volkswagen presenta statistiche descritti-

ve sensibilmente diverse da quelle previste per una Normale (0;0), tanto da rendere giusti-

ficabile l‟utilizzo del percentile modificato che includa tali statistiche.

167

Il caso è peculiare, se ne tornerà a parlare più avanti

164

Grafico 4.4 e 4.5: distribuzione dei rendimenti confrontata con la Normale (Grafico 4.4) e serie storica dei rendimenti del

titolo Volkswagen dal 05/02/2008 al 04/02/2009

-0,6

-0,4

-0,2

0

0,2

0,4

0,6

0,8

1

1,2

1,4

feb mar apr mag giu lug ago set ott nov dic 2009 feb

Rendim

enti

Volkswagen

165

Come controprova della non-normalità dei rendimenti è possibile compiere un test di nor-

malità.

A tal fine si è preferito un test Jarque-Bera, il quale è molto vicino agli obiettivi di questo

lavoro, in quanto verifica la normalità di una distribuzione a partire da Asimmetria e Cur-

tosi.

In particolare:

𝑇𝐽𝐵 =𝑛

6(𝑆2 +

1

4

𝐾 − 3 2

4)

Dove:

𝑛 = Numero di osservazioni

𝑆 = Asimmetria calcolata utilizzando l‟Indice di asimmetria di Fisher in cui 𝑆 =𝑀3

𝜍3

𝐾 = Curtosi calcolata utilizzando l‟indice di Curtosi di Pearson in cui 𝐾 =𝑀4

𝜍4

Sotto l‟ipotesi nulla asimmetria e curtosi sono nulle168

e 𝑇𝐽𝐵~𝜒2(2).

Se 𝑇𝐽𝐵 è prossima allo 0 asimmetria e curtosi sono nulle e la distribuzione può ritenersi

normale.

168

È molto importante rilevare che fino ad ora la Curtosi è stata espressa utilizzando l‟Indice di Curtosi di

Fisher, per cui la distribuzione Normale ha curtosi pari a 0.

Nell‟indice di curtosi di Pearson alla Normale è attribuito un valore di curtosi pari a 3

166

Tabella 4.9: : risultati del test di Jarque-Bera per le distribuzioni dei rendimenti dei titoli italiani, tedeschi e francesi durante lo shock Lehman

Assicurazioni Generali

ENEL ENI Intesa SP Atlantia FIAT Telecom Unicredit

S4 -1M 𝑻𝑱𝑩 92,7353 1182,98 876,144 311,393 125,934 37,9628 133,03 114,804

p-value 7,29E-21 1,32E-257 5,60E-191 2,41E-68 4,51E-28 5,71E-09 1,30E-29 1,18E-25

S4 +1M 𝑻𝑱𝑩 28,2756 571,63 548,636 142,412 69,6461 466,572 81,657 61,5965

p-value 7,24E-07 7,45E-125 7,33E-120 1,19E-31 7,53E-16 4,84E-102 1,86E-18 4,21E-14

S4 +2M 𝑻𝑱𝑩 13,9708 464,599 504,153 111,912 48,2973 395,264 91,7734 51,6641

p-value 0,00092529 1,30E-101 3,35E-110 5,00E-25 3,25E-11 1,48E-86 1,18E-20 6,04E-12

Allianz BMW Bayer BASF Daimler SAP Siemens Volkswagen

S4 -1M 𝑻𝑱𝑩 420,098 156,546 98,0321 344,988 548,309 730,799 512,175 75978,2

p-value 5,98E-92 1,02E-34 5,16E-22 1,22E-75 8,63E-120 2,04E-159 6,06E-112 0

S4 +1M 𝑻𝑱𝑩 206,736 94,9038 116,267 150,039 260,286 611,308 306,794 72638

p-value 1,28E-45 2,47E-21 5,66E-26 2,63E-33 3,02E-57 1,80E-133 2,40E-67 0

S4 +2M 𝑻𝑱𝑩 192,086 82,4389 125,333 127,291 202,352 605,172 257,647 72035,1

p-value 1,95E-42 1,25E-18 6,09E-28 2,29E-28 1,15E-44 3,88E-132 1,13E-56 0

AXA BNPParibas Shneider Societè Gene-

ral L'Oreal LVMH Sanofi Total

S4 -1M 𝑻𝑱𝑩 146,75 234,144 156,92 57,4341 325,595 162,894 305,203 246,851

p-value 1,36E-32 1,43E-51 8,42E-35 3,38E-13 1,99E-71 4,25E-36 5,32E-67 2,50E-54

S4 +1M 𝑻𝑱𝑩 101,914 173,768 117,84 30,7752 352,687 131,261 228,897 171,175

p-value 7,41E-23 1,85E-38 2,58E-26 2,08E-07 2,60E-77 3,14E-29 1,98E-50 6,76E-38

S4 +2M 𝑻𝑱𝑩 71,3002 134,045 98,8216 26,51 346,129 110,776 206,255 162,232

p-value 3,29E-16 7,81E-30 3,48E-22 1,75E-06 6,90E-76 8,82E-25 1,63E-45 5,91E-36

167

Dal risultato così ottenuto, la prova di non normalità dei rendimenti è inoppugnabile169

.

Nel Capitolo 2, inoltre, si è discusso sulle differenze tra modello Delta-Normal e il modello

Asset-Normal, asserendo che il primo rappresenta una versione generica del secondo e in

ogni caso utilizzato per i vantaggi in termini di semplificazione che esso offre.

In tal senso, la prova empirica offre risultati contrastanti: il Grafico 4.6 mostra che per va-

lori di deviazione standard dell‟indice inferiori al 5%, le due si collocano sulla bisettrice

principale del grafico, dimostrando dunque che i due modelli producono stime non molto

dissimili.

Nondimeno, a valori più alti della stima, lo scostamento tra i due modelli tende a farsi più

marcato, generando come risultato finale una retta di regressione170

con pendenza più ele-

vata (1,4591) rispetto a quanto previsto nella perfetta correlazione.

Grafico 4.6: Asset-Normal e Delta-Normal, grafico di dispersione e retta di regressione

169

Volendo essere rigorosi, considerando che il test si distribuisce come una Chi-Quadro bisognerebbe fissa-

re un livello di significatività 𝛼 e verificare che p-value<𝛼.

Tuttavia l‟evidenza dei dati contro 𝐻0 è così palese che non si è ritenuto necessario. 170

I coefficienti della retta di regressione sono stati stimati utilizzando il metodo dei minimi quadrati

y = 1,4591x - 0,0161R² = 0,698

0,00%

5,00%

10,00%

15,00%

20,00%

25,00%

0,00% 5,00% 10,00% 15,00%

Ass

et-

No

rmal

Delta-Normal

Delta-Normal VS Asset-Normal

Delta-Normal VS Asset-Normal

Lineare (Delta-Normal VS Asset-Normal)

168

A fronte di questo risultato inattendibile, si fa pressante un‟analisi più approfondita del ri-

sultato.

In questo senso, può risultare utile analizzare il comportamento dei differenti modelli in re-

lazione alla volatilità dei mercati: se si ipotizzasse che gli indici di riferimento riescano a

sintetizzare la situazione dell'intero mercato, allora risulterebbe sensato analizzare il com-

portamento dei modelli al variare della volatilità degli indici stessi.

A tal proposito, considerando, a prescindere dal tipo di portafoglio, i 10 maggiori e i 10

minori valori di deviazione standard (Grafico 4.7 e 4.8) il comportamento dei due modelli

diviene più chiaro.

Grafico 4.7 e 4.8: Delta-Normal e Asset-Normal per le prime 10 minori deviazioni standard dell‟indice (Grafico 4.8) e

per le 10 maggiori(Grafico 4.9)

y = 1,4216x - 0,0165R² = 0,2244

0,0%

5,0%

10,0%

15,0%

20,0%

25,0%

0,0% 2,0% 4,0% 6,0% 8,0% 10,0% 12,0%

Ass

et-

No

rmal

Delta-Normal

Delta-Normal VS Asset-Normal:volatilità maggiore

Delta-Normal VS Asset-Normal

Lineare (Delta-Normal VS Asset-Normal)

169

Dalla scomposizione è immediato constatare che la volatilità del mercato gioca un ruolo

molto importante nella stima misurata con gli approcci Delta-Normal e Asset-Normal.

In particolare quando l‟indice manifesta maggiore volatilità la retta di regressione presenta

pendenza maggiore (1,4216) ma soprattutto un valore di 𝑅2 basso171

, a dimostrazione che

il modello Asset-Normal può generare stime maggiori rispetto al modello Delta-Normal.

Al contrario, quando la volatilità dell‟indice rimane bassa, i due modelli presentano stime

prossime, com‟è possibile verificare dalla retta di regressione172

.

Se ricordiamo che il modello Delta-Normal è misurato con riferimento alla deviazione

standard dell'indice, mentre il modello Asset-Normal determina la stima partendo dalla vo-

latilità dei titoli, l‟analisi fin qui svolta induce ad un altro risultato: se in momenti di eleva-

ta volatilità le stime Delta-Normal possono differire dalle stime Asset-Normal, allora si

può concludere che durante turbolenze nei corsi azionari i titoli potrebbero seguire anda-

menti differenti rispetto all‟indice di riferimento, come evidenziato nei grafici 4.9-4.11.

171

𝑅2, cioè l‟indice di determinazione individua la proporzione della volatilità di y (stime del modello Asset-

Normal) è spiegata dalla variabile x (stime del modello Delta-Normal).

In parole più semplici se l‟indice presenta valori prossimi ad uno vi è forte dipendenza tra i valori e i punti

sono concentrati sulla retta di regressione, se al contrario presenta valori vicini allo 0 il valore degli errori è

rilevante e i punti sono dispersi attorno alla retta 172

Se la retta di regressione si avvicina alla bisettrice principale 𝑦 = 𝑥 i valori stimati dai due modelli sono

perfettamente correlati e uguali.

Nel nostro caso il valore di pendenza (1,0058) e di intercetta (0,0025) si avvicinano a quelli della bisettrice

y = 1,0058x + 0,0025R² = 0,8863

0,0%

1,0%

2,0%

3,0%

4,0%

5,0%

6,0%

0,0% 1,0% 2,0% 3,0% 4,0% 5,0%

Ass

et-

No

rmal

Delta-Normal

Delta-Normal VS Asset-Normal:volatilità minore

Delta-Normal VS Asset-Normal

Lineare (Delta-Normal VS Asset-Normal)

170

Grafici 4.9-4.11: deviazione standard dell‟indice in relazione alla deviazione standard dei titoli componenti il portafoglio

171

172

4.2.2 Il VaR e la volatilità: i modelli EWMA e GARCH

Il principale vantaggio dei modelli a volatilità aggiornata, sia essa calcolata utilizzando un

modello a volatilità esponenziale EWMA o un modello GARCH, consiste nella capacità di

generare stime di massima perdita probabile che riflettano al meglio la volatilità dell'indice

(per modelli Delta-Normal) o dei titoli (per i modelli Asset-Normal).

Tali modelli diventano ancor più importanti se si considera che il test di White (Tabella

4.10) mostri che titoli selezionati violino l‟ipotesi nulla di omoschedasticità.

Di conseguenza, il fallimento del test di White porta alla conclusione che i rendimenti pre-

sentano un comportamento eteroschedastico (la volatilità dei titoli varia nel tempo), il che

rende ancor più determinante l‟utilizzo di modelli che assimilino tale mutamento, come

appunto i modelli EWMA e GARCH173

.

Tabella 4.10: test di White sulla serie storica totale per tutti I titoli del campione

ASSICURA-ZIONI GENE-

RALI ENEL ENI INTESA SP

AT-LANTIA

FIAT TELE-COM

UNICRE-DIT

Test White 243,67 217,19 297,37 107,95 159,98 63,51 44,10 121,88

p-value 1,23E-53 6,88E-48 0,00E+

00 0,00E+00

0,00E+00

0,00E+00

0,00E+00

0,00E+00

ALLIANZ BMW BAYER BASF

DAIM-LER

SAP SIE-

MENS VOL-

KSWAGEN

Test White 198,07 223,99 18,05 68,43 177,39 60,27 61,28 80,43

p-value 0 0 0,0001

2 0 0 0 0 0

AXA

BNPPA-RIBAS

SHNEI-DER

SOCIETÉ GÉNÉRALE

L’ORÉAL

LVMH SANO-

FI TOTAL

Test White 166,83 183,49 40,25 505,63 111,23 95,40 45,80 103,34

p-value 0 0 0 0 0 0 0 0

173

La presenza di eteroschedasticità ci porta ad un‟altra importante conclusione: gli stimatori OLS non sono

più adatti per definire una corretta retta di regressione, dovendo preferire altri stimatori, come ad esempio gli

OLS pesati.

Questo particolare, anche se di non poco conto, va oltre le competenze richieste per questo lavoro e pertanto

si continuerà ad usare gli stimatori OLS

173

Infatti, coerentemente con quanto previsto, in quest‟analisi i modelli a volatilità aggiornata

stimano valori di perdita tanto maggiori quanto maggiore è la volatilità di mercato (anche

questa volta espressa dalla volatilità dell'indice di riferimento).

La dimostrazione, come per quanto visto in precedenza, è osservabile nell‟elevata penden-

za delle rette di regressione.

y = 4,6615x - 0,0242R² = 0,9246

y = 4,4814x - 0,0141R² = 0,8399

y = 4,7616x - 0,0171R² = 0,8744

y = 4,7157x - 0,0161R² = 0,8761

y = 4,085x - 0,0144R² = 0,8829

0,00%

2,00%

4,00%

6,00%

8,00%

10,00%

12,00%

0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%

VaR

sti

mat

o

σ_FTSE MIB

VaR Delta_Normal EWMA(0,99) IT VaR Delta_Normal EWMA(0,97) IT

VaR Asset_Normal EWMA(0,99) IT VaR Asset_Normal EWMA(0,97) IT

VaR Delta_Normal GARCH IT Lineare (VaR Delta_Normal EWMA(0,99) IT)

Lineare (VaR Delta_Normal EWMA(0,97) IT) Lineare (VaR Asset_Normal EWMA(0,99) IT)

Lineare (VaR Asset_Normal EWMA(0,97) IT) Lineare (VaR Delta_Normal GARCH IT)

Grafici 4.12-4.14: grafico di dispersione e retta di regressione della relazione tra volatilità dell‟indice e valore di perdita stimato da

differenti modelli.I grafici concernono il portafoglio italiano (Grafico 4.10) il portafoglio Tedesco (Grafico 4.11) e il portafoglio

Francese (grafico 4.12)

174

y = 4,141x - 0,016R² = 0,871

y = 3,813x - 0,003R² = 0,797

y = 10,14x - 0,091R² = 0,514

y = 10,18x - 0,091R² = 0,515

y = 4,013x - 0,014R² = 0,856

0,00%

5,00%

10,00%

15,00%

20,00%

25,00%

30,00%

0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%

VaR

mo

de

llo

σ_DAX30

VaR Delta Normal EWMA(0,99) DE VaR Delta Normal EWMA(0,97) DEVaR Asset-Normal EWMA(0,99) DE VaR Asset-Normal EWMA(0,97) DEVaR Delta-Normal GARCH DE Lineare (VaR Delta Normal EWMA(0,99) DE)Lineare (VaR Delta Normal EWMA(0,97) DE) Lineare (VaR Asset-Normal EWMA(0,99) DE)Lineare (VaR Asset-Normal EWMA(0,97) DE) Lineare (VaR Delta-Normal GARCH DE)

y = 4,363x - 0,017R² = 0,843

y = 3,496x + 0,004R² = 0,672

y = 4,953x - 0,016R² = 0,860

y = 4,937x - 0,015R² = 0,865

y = 3,568x - 0,002R² = 0,683

0,0%

5,0%

10,0%

15,0%

0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%

VaR

re

lati

vo

σ_CAC40

VaR Delta Normal EWMA(0,99) FR VaR Delta Normal EWMA(0,97) FRVaR Asset-Normal EWMA(0,99) FR VaR Asset-Normal EWMA(0,97) FRVaR Delta-Normal GARCH FR Lineare (VaR Delta Normal EWMA(0,99) FR)Lineare (VaR Delta Normal EWMA(0,97) FR) Lineare (VaR Asset-Normal EWMA(0,99) FR)Lineare (VaR Asset-Normal EWMA(0,97) FR) Lineare (VaR Delta-Normal GARCH FR)

175

Focalizzando l‟attenzione su questo particolare, è possibile compiere alcune osservazioni.

Innanzitutto è importante verificare il comportamento di un modello che utilizza la volatili-

tà stimata con modelli GARCH.

Infatti, l‟utilizzo del GARCH dovrebbe portare a stime che meglio riflettono l‟aumento di

volatilità rispetto ad approcci che stimano la volatilità in maniera più approssimativa, come

i modelli EWMA.

Tuttavia, come precedenti prove empiriche hanno già dimostrato, è possibile osservare che

la stima non porta vantaggi significativi rispetto alla volatilità esponenziale, anzi, in alcuni

casi, la perdita stimata per mezzo del GARCH risulta inferiore alla corrispettiva misurata

con modelli EWMA.

Al contrario, focalizzando l‟attenzione sui modelli Asset-Normal, è evidente che essi pre-

sentino generalmente valori più alti di perdita all‟aumentare della volatilità dell‟indice,

come dimostra la maggiore pendenza della retta di regressione.

La spiegazione, come visto a titolo di esempio nei Grafici 4.9-4.11, sta nell‟elevata volati-

lità dei titoli del portafoglio, che in periodi di shock manifestano comportamenti che non

sempre si avvicinano al comportamento dell‟indice.

In questo senso, un caso emblematico, ma anche eccezionale174

è rappresentato dai diversi

portafogli durante lo shock Lehman Brothers.

Nei tre intervalli di analisi, il modello Asset-Normal EWMA calcola valori di perdita di-

scordanti per i portafogli, nonostante i tre mercati175

si muovano pressoché sempre

all‟unisono.

Più precisamente, i grafici 4.15-4.17 mostrano come il modello Asset-Normal EWMA pre-

senti stime incredibilmente elevate, nell‟ordine del 25%, e fortemente disuguali rispetto al-

le stime calcolate con altri approcci.

174

Il caso si presenta eccezionale in quanto i titoli raggiungono livelli di deviazione standard importanti, dal

4% fino all‟11% per tutti i portafogli 175

Ancora una volta si è assunto che l‟andamento del mercato sia ben approssimato dall‟andamento

dell‟indice

176

0,00%

10,00%

20,00%

30,00%VaR Delta-Normal EWMA(0,99)

VaR Delta-Normal EWMA(0,97)

VaR Asset-Normal EWMA(0,99) VaR Asset-Normal EWMA(0,97)

VaR Delta-Normal GARCH

S4 06/03/2009 -1M

Portafoglio Italiano

Portafoglio Tedesco

Portafoglio Francese

0,00%

5,00%

10,00%

15,00%

20,00%

VaR Delta-Normal EWMA(0,99)

VaR Delta-Normal EWMA(0,97)

VaR Asset-Normal EWMA(0,99)

VaR Asset-Normal EWMA(0,97)

VaR Delta-Normal GARCH

S4 06/03/2009 +2M

Portafoglio Italiano

Portafoglio Tedesco

Portafoglio Francese

Grafici 4.15-4.17: stima della perdita per i modelli “a volatilità aggiornata” e per i tre portafogli durante lo Shock Lehman .

177

La spiegazione, come accennato precedentemente, è da attribuirsi al comportamento dei

titoli durante le turbolenza di mercato.

Come dimostra il grafico 4.18, e più in dettaglio il grafico 4.19, l‟indice riesce a esprimere

la volatilità del mercato solo in parte, posto che i titoli in portafoglio presentano volatilità

molto maggiori dell‟indice stesso.

0,00%

5,00%

10,00%

15,00%

20,00%

25,00%

VaR Delta-Normal EWMA(0,99)

VaR Delta-Normal EWMA(0,97)

VaR Asset-Normal EWMA(0,99)

VaR Asset-Normal EWMA(0,97)

VaR Delta-Normal GARCH

S4 06/03/2009 +1M

Portafoglio Italiano

Portafoglio Tedesco

Portafoglio Francese

178

Grafico 4.18: serie storica annuale dei rendimenti dei titoli tedeschi dal maggio ‟08 al maggio ‟09 (shock Lehman)

Grafico 4.17: dettaglio dello shock Lehman, come si può notare la volatilità dell‟indice spiega solo in parte la volatilità

dei titoli

179

In questi casi, il modello Delta-Normal EWMA può fornire stime che sottovalutino il ri-

schio effettivo del portafogli.

Si consideri ora il modello Delta-Normal EWMA nelle sue due versioni: il modello E-

WMA con velocità di decadimento pari a 0,01 e il modello con velocità di decadimento pa-

ri a 0,03.

In virtù di quanto visto, il fattore di decadimento pesa in misura più o meno maggiore i

rendimenti più recenti a fronte di quelli meno recenti.

In sostanza, il modello EWMA (0,97) dovrebbe offrire stime superiori se i rendimenti si

dimostrano particolarmente volatili nel breve periodo, mentre al contrario il modello E-

WMA (0,99) restituisce stime maggiori se la volatilità si è manifestata in misura maggiore

in periodi meno recenti.

La prova di questa teoria è fornita dall‟interessante caso fornito dal portafogli francese, du-

rante lo shock dei mutui subprime.

Nel periodo tra il 17 gennaio 2008 e i primi di febbraio dello stesso anno, l‟indice CAC40

manifesta livelli di volatilità rilevanti, che non si verificheranno nei periodi successivi.

Considerare la stima in periodi prossimi allo shock (un mese prima, un mese dopo e due

mesi dopo) consente di osservare questo shock di volatilità su un holding period annuale,

ma in intervalli di tempo differenti e di conseguenza la stima attribuirà maggiore o minore

peso a tale shock.

Come‟è possibile notare nella prima stima lo shock si manifesta recentemente, e questo fa

si che il modello EWMA (0,97) presenti un risultato maggiore rispetto all‟EWMA(0,99).

Nondimeno, l‟analisi delle stime successive comporta lo spostamento di questo shock ver-

so periodi più lontani.

Il modello EWMA(0,99) pone maggior peso a queste osservazioni rispetto al modello

EWMA (0,97) non a caso la forbice tra i due modelli si assottiglia nella seconda stima,

mentre nell‟ultima il primo genera risultati maggiori del secondo (Grafici 4.18- 4.21).

180

Grafici 4.18-4.20: volatilità dei rendimenti del CAC40 misurata su orizzonte annuale un mese prima dello shock (Grafi-

co 4.13) un mese dopo (Grafico 4.14) e due mesi dopo (Grafico 4.15)

-8,00%

-6,00%

-4,00%

-2,00%

0,00%

2,00%

4,00%

6,00%

8,00%

Rendimenti CAC40febbraio '07-febbraio '08

Rendimenti CAC40EWMA (0,99): 5,34%EWMA (0,97): 6,69%

-8,00%

-6,00%

-4,00%

-2,00%

0,00%

2,00%

4,00%

6,00%

8,00%

Rendimenti CAC40aprile '07-aprile'08 Rendimenti CAC40

EWMA (0,99): 5,28%EWMA (0,97): 5,56%

181

La tabella 4.11 e il grafico 4.21 consentono di approfondire l‟analisi, mostrando il peso

fornito alle osservazioni shock per i tre periodi e i due modelli.

-8,00%

-6,00%

-4,00%

-2,00%

0,00%

2,00%

4,00%

6,00%

8,00%

Rendimenti CAC40maggio '07-maggio'08

Rendimenti CAC40EWMA (0,99): 4,86%EWMA (0,97): 4,51%

182

A conferma di quanto detto, è possibile notare come il peso fornito alle osservazioni shock

decade molto più velocemente nel modello EWMA (0,97) rispetto al modello EWMA

(0.99), fornendoci stime via via sempre minori.

Tabella 4.11: peso assegnato alle osservazioni shock da parte dei due modelli

S3) -1M S3) +1M S3) +2M

EWMA(0,99) EWMA(0,97) EWMA(0,99) EWMA(0,97) EWMA(0,99) EWMA(0,97)

21/01/2008 81,0% 52,7% 52,0% 13,8% 43,0% 7,7%

22/01/2008 81,8% 54,4% 52,6% 14,2% 43,4% 8,0%

23/01/2008 82,6% 56,1% 53,1% 14,7% 43,9% 8,2%

24/01/2008 83,5% 57,8% 53,6% 15,1% 44,3% 8,5%

25/01/2008 84,3% 59,6% 54,2% 15,6% 44,8% 8,7%

28/01/2008 85,1% 61,4% 54,7% 16,1% 45,2% 9,0%

29/01/2008 86,0% 63,3% 55,3% 16,6% 45,7% 9,3%

30/01/2008 86,9% 65,3% 55,8% 17,1% 46,1% 9,6%

31/01/2008 87,8% 67,3% 56,4% 17,6% 46,6% 9,9%

01/02/2008 88,6% 69,4% 57,0% 18,2% 47,1% 10,2%

04/02/2008 89,5% 71,5% 57,5% 18,7% 47,5% 10,5%

05/02/2008 90,4% 73,7% 58,1% 19,3% 48,0% 10,8%

06/02/2008 91,4% 76,0% 58,7% 19,9% 48,5% 11,2%

07/02/2008 92,3% 78,4% 59,3% 20,5% 49,0% 11,5%

08/02/2008 93,2% 80,8% 59,9% 21,2% 49,5% 11,9%

11/02/2008 94,1% 83,3% 60,5% 21,8% 50,0% 12,2%

12/02/2008 95,1% 85,9% 61,1% 22,5% 50,5% 12,6%

183

Grafico 4.21: peso assegnato alle osservazioni shock nei diversi modelli e durante i diversi periodi

Ai fini del nostro studio e da quanto visto finora, sarebbe immediato pensare che i due mo-

delli presentano sempre una relazione inversamente proporzionale al trascorrere del tempo,

in cui il modello EWMA(0,97) è maggiore quando stimato in un momento immediatamen-

te successivo allo shock, scemando nel tempo e divenendo minore all‟EWMA(0,99) quan-

do la stima “scorre” nel tempo.

Questo assunto è in parte vero: teoricamente è credibile l‟ipotesi di “debolezza” di modelli

con maggior fattore di decadimento quanto più ci si allontana dalle osservazioni critiche,

ma nella pratica l‟ipotesi richiede un‟analisi caso per caso.

Infatti il Grafico 4.3 mostra come periodi ad alta volatilità si manifestano per lassi di tempo

prolungati, a differenza di quanto osservato in questo caso, e quindi generalmente il model-

lo EWMA(0,97) potrebbe prestarsi meglio a catturare ampi fenomeni di volatilità all'epi-

centro del fenomeno di shock.

In conclusione, la scelta del decay factor impone l‟analisi preventiva del periodo in cui si

realizza la valutazione, ma in termini generali è possibile affermare che il caso di studio di

cui sopra, in cui lo shock dei rendimenti è rilevante e breve allo stesso tempo, rappresenti

un caso particolare e che dunque la stima della perdita in periodi prossimi ad uno shock

dovrebbero essere misurati adoperando un modello a minor decay factor.

0,00%

10,00%

20,00%

30,00%

40,00%

50,00%

60,00%

70,00%

80,00%

90,00%

100,00%

21

/01

/20

08

22

/01

/20

08

23

/01

/20

08

24

/01

/20

08

25

/01

/20

08

26

/01

/20

08

27

/01

/20

08

28

/01

/20

08

29

/01

/20

08

30

/01

/20

08

31

/01

/20

08

01

/02

/20

08

02

/02

/20

08

03

/02

/20

08

04

/02

/20

08

05

/02

/20

08

06

/02

/20

08

07

/02

/20

08

08

/02

/20

08

09

/02

/20

08

10

/02

/20

08

11

/02

/20

08

12

/02

/20

08

EWMA(0,99) -1M EWMA(0,97) -1M EWMA(0,99) +1M

EWMA(0,97) +1M EWMA(0,99) +2M EWMA(0,97) +2M

184

4.2.3 Simulazioni Storiche

I due approcci di Simulazioni Storiche sono stati costruiti su due fattori di rischio, il mo-

dello “risk factor” stima il valore di perdita a partire dalla serie storica dell‟indice, analo-

gamente a quanto svolto per i modelli Delta-Normal, il modello “per titoli” misura la stima

partendo direttamente dalla distribuzione dei rendimenti dei titoli, costruendo una serie sto-

rica dei rendimenti del portafoglio definita in proporzione al peso dei titoli sul valore di

mercato totale del portafoglio.

L‟analisi svolta in questo lavoro mostra come i modelli di simulazione storica si mostrino

inadeguati a misurare un livello di perdita che rappresenti una proxy del vero livello di ri-

schio di mercato.

Se ai fini di questa analisi ci si limita a considerare corretto un modello che presenta un va-

lore della stima elevato, è possibile notare come entrambi i modelli falliscano la prova,

manifestando stime in generale più basse rispetto ai modelli Varianze-Covarianze.

Coerentemente ad una comparazione basata sul fattore di rischio, il modello di Simulazioni

Storiche “per indice” viene confrontato con modelli Delta-Normal, mentre il modello di

Simulazioni Storiche “per titoli” viene confrontato con modelli Asset-Normal.

La tabella 4.12 mostra un confronto tra i modelli a Simulazioni Storiche e Varianze-

Covarianze

Tabella 4.12: approccio delle e Varianze-Covarianze, percentuale di casi in cui la stima calcolata con l‟ausilio delle Si-

mulazioni Storiche è maggiore di quella calcolata utilizzando il modello Varianze-Covarianze

Portafoglio IT Portagolio DE Portafoglio FR

Simulazione Storica "titoli"

Asset-Normal 33,3% 20% 20,0%

AssetNormal EWMA(0,99) 0,0% 0% 0,0%

AssetNormal EWMA(0,97) 0,0% 0% 0,0%

Simulazione Storica "risk factor"

DeltaNormal 53,3% 20% 20,0%

DeltaNormal EWMA(0,99) 6,7% 7% 6,7%

DeltaNormal EWMA(0,97) 13,3% 13% 6,7%

DeltaNormal GARCH 13,3% 20% 6,7%

185

Per di più, i modelli a Simulazione Storica presentano una reazione all‟aumento di volatili-

tà più bassa rispetto ai corrispettivi modelli EWMA o GARCH, come dimostrato nei grafi-

ci 4.18-4.20, in cui la retta di regressione presenta valori di pendenza inferiori rispetto agli

altri modelli discussi (Grafici 4.22,4.23 e 4.24).

Grafico 4.22-4.24: VaR stimato con l‟approccio delle Simulazioni storiche in relazione alla deviazione standard

dell‟indice di riferimento

y = 1,538x + 0,020R² = 0,609

y = 2,157x + 0,007R² = 0,804

0,00%

1,00%

2,00%

3,00%

4,00%

5,00%

6,00%

7,00%

0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%

VaR

σ_DAX30

SS"titoli"

SS"RiskFactor"

Lineare (SS"titoli")

Lineare (SS"RiskFactor")

y = 2,402x + 0,004R² = 0,761

y = 2,3767x + 0,0044R² = 0,9205

0,0%

1,0%

2,0%

3,0%

4,0%

5,0%

6,0%

7,0%

8,0%

0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00%

VaR

σ_FTSE

SS"titoli"

SS"RiskFactor"

Lineare (SS"titoli")Lineare (SS"RiskFactor")

186

Il modello ibrido rappresenta un caso a sé.

Se la sua creazione aveva l‟obiettivo di definire un modello che combinasse i vantaggi di

Varianze-Covarianze e Simulazioni Storiche, il risultato in questa analisi è la creazione di

un approccio che fornisce stime incorrelate agli altri approcci e al generale andamento di

mercato.

La tabella 4.13 mostra come il confronto con altri modelli presenta fluttuazioni anche no-

tevoli a seconda dello shock osservato, ma ancora più rilevante è notare come le fluttua-

zioni più marcate si osservano nei confronti di modelli che compiono stime della volatilità

più attendibili, come i modelli EWMA.

Se quindi, l‟intento dell‟approccio ibrido è di creare un modello di Simulazioni Storiche

che incorpori la volatilità del periodo di stima, questo studio dimostra che tale approccio

non segue l‟andamento di altri approcci analoghi, come appunto gli EWMA.

y = 2,314x + 0,008R² = 0,862

y = 2,426x + 0,001R² = 0,904

0,00%

1,00%

2,00%

3,00%

4,00%

5,00%

6,00%

7,00%

8,00%

0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%

VaR

σ_CAC40

SS"titoli"

SS"RiskFactor"

Lineare (SS"titoli")

Lineare (SS"RiskFactor")

187

Grafico 4.25-4.27: stime realizzate con differenti approcci per il portafogli italiano, durante lo shock dell‟attentato al

WTC, durante lo scoppio della bolla di Internet e durante la crisi dei subprime

0,00%

2,00%

4,00%

6,00%

8,00%

10,00%

21/09/2001 -1M 21/09/2001 +1M 21/09/2001 +2M

0,00%1,00%2,00%3,00%4,00%5,00%6,00%7,00%

09/10/2002 -1M 09/10/2002 +1M 09/10/2002 +2M

0,0%

1,0%

2,0%

3,0%

4,0%

5,0%

6,0%

20/03/2008 -1M 20/03/2008 +1M 20/03/2008 +2M

188

Tabella 4.13: differenze di stima tra il modello ibrido e gli altri approcci. Le celle seguono la seguente formattazione:

giallo se la differenza è maggiore del 2%, verde se compresa tra 1% e 2%, bianca se compresa tra 1% e -1%, blu se com-

presa tra -1% e- 2%, rossa se maggiore di -2%

VaR HA (0,99) IT VaR HA (0,99) DE VaR HA (0,99) FR

Shock 1 -1M +1M +2M -1M +1M +2M -1M +1M +2M

VaR Delta-Normal 0,11% 2,83% 2,55% 0,59% 3,11% 2,55% 0,38% 2,00% 1,49%

VaR Asset-Normal -0,23% 2,43% 2,17% 0,03% 2,61% 2,08% -0,20% 1,54% 1,09%

VaR Delta-Normal EWMA(0,99) 0,31% 1,85% 1,76% 0,82% 2,57% 2,07% 0,57% 1,62% 1,13%

VaR Delta-Normal EWMA(0,97) 0,51% 0,06% 0,67% 0,92% 1,42% 1,27% 0,61% 0,68% 0,44%

VaR Asset-Normal EWMA(0,99) -1,01% 0,19% 0,24% -0,66% 0,94% 0,60% -0,89% 0,16% -0,20%

VaR Asset-Normal EWMA(0,97) -0,93% 0,09% 0,14% -0,63% 0,84% 0,47% -0,93% 0,09% -0,26%

VaR SS (261 gg) "titoli" 0,03% 2,17% 1,72% 0,55% 2,64% 2,27% 0,17% 0,79% 0,42%

VaR SS (261 gg) "risk factor" -0,13% 2,81% 2,69% 0,60% 3,77% 3,39% 0,15% 1,90% 1,61%

VaR Delta-Normal GARCH 0,35% 1,63% 2,01% 0,94% 2,42% 2,38% 0,57% 1,63% 1,33%

Shock 2 -1M +1M +2M -1M +1M +2M -1M +1M +2M

VaR Delta-Normal -0,82% -0,04% -0,12% 0,52% -0,12% -0,19% 0,46% -0,17% -0,25%

VaR Asset-Normal -1,00% -0,22% -0,29% 0,05% -0,61% -0,68% 0,23% -0,39% -0,47%

VaR Delta-Normal EWMA(0,99) -0,56% -0,70% -0,59% -0,01% -1,34% -1,05% -0,18% -1,26% -0,97%

VaR Delta-Normal EWMA(0,97) -1,43% -1,66% -0,97% -1,50% -2,83% -1,59% -1,64% -2,43% -1,19%

VaR Asset-Normal EWMA(0,99) -0,98% -1,59% -1,51% -0,65% -2,56% -2,21% -0,91% -2,06% -1,71%

VaR Asset-Normal EWMA(0,97) -1,09% -1,65% -1,50% -0,74% -2,56% -2,22% -0,99% -2,14% -1,73%

VaR SS (261 gg) "titoli" -0,08% 0,93% 0,79% 0,03% 1,08% 0,96% 0,28% 0,48% 0,46%

VaR SS (261 gg) "risk factor" -0,28% 0,80% 0,65% 0,71% 1,22% 1,13% 0,94% 1,07% 1,07%

VaR Delta-Normal GARCH -0,77% -0,92% -0,40% -0,43% -1,82% -0,70% -0,53% -1,48% -0,62%

Shock 3 -1M +1M +2M -1M +1M +2M -1M +1M +2M

VaR Delta-Normal 2,5% 1,4% 1,1% 3,2% 1,7% 1,1% 2,9% 0,75% 0,1%

VaR Asset-Normal 2,4% 1,3% 1,0% 2,7% 1,2% 0,6% 2,7% 0,54% -0,1%

VaR Delta-Normal EWMA(0,99) 2,2% 1,1% 1,0% 2,7% 1,4% 1,0% 2,2% 0,39% 0,1%

VaR Delta-Normal EWMA(0,97) 1,5% 0,7% 1,1% 1,5% 1,0% 1,2% 0,8% 0,12% 0,4%

VaR Asset-Normal EWMA(0,99) 1,5% 0,4% 0,3% 1,6% 0,3% 0,0% 1,3% -0,63% -0,9%

VaR Asset-Normal EWMA(0,97) 1,4% 0,4% 0,3% 1,5% 0,3% 0,0% 1,3% -0,63% -0,8%

VaR SS (261 gg) "titoli" 2,4% 1,6% 1,3% 3,2% 1,9% 1,3% 4,1% 1,28% 0,6%

VaR SS (261 gg) "risk factor" 2,3% 1,4% 1,0% 3,8% 1,9% 1,2% 4,3% 2,17% 1,4%

VaR Delta-Normal GARCH 2,2% 0,7% 1,2% 2,4% 0,7% 1,3% 1,9% -0,11% 0,5%

189

Il risultato è visibile anche studiando il grafico di dispersione per i tre portafogli (Grafico

4.28-4.30), in relazione alla deviazione standard della distribuzione di rendimenti del por-

tafoglio.

Il portafoglio tedesco testimonia l‟inefficienza del modello ibrido in quest‟analisi, da un

lato il coefficiente di determinazione risulta molto basso, segno che in teoria è possibile ot-

tenere stime diverse, anche con la medesima volatilità; dall‟altro, la retta presenta penden-

za negativa (anche se di poco), dimostrando come l‟aumento della volatilità comporti per-

fino la riduzione della stima.

Grafico 2.8-4.30: grafico di dispersione tra la deviazione standard della distribuzione aggregata dei rendimenti e il VaR

stimato con approccio ibrido

y = 1,506x + 0,032R² = 0,280

0,0%1,0%2,0%3,0%4,0%5,0%6,0%7,0%8,0%9,0%

0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00%

VaR

σ_Distr.Rend (ITA)

HA

Lineare (HA)

y = -0,037x + 0,065R² = 0,000

0,0%

2,0%

4,0%

6,0%

8,0%

10,0%

0,00% 1,00% 2,00% 3,00% 4,00% 5,00%

VaR

σ_Distr.Rend (GER)

HA

Lineare (HA)

190

y = 1,009x + 0,041R² = 0,299

0,0%

2,0%

4,0%

6,0%

8,0%

10,0%

0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00% 3,50%

VaR

σ_Distr.Rend (FRA)

HA

Lineare (HA)

191

4.3 Lo studio dei risultati ottenuti: le anomalie dei modelli Value at Risk

Nel Capitolo 1 è stata fornita una delucidazione sui principali difetti derivanti dai modelli

VaR.

Lo studio empirico svolto, consente di studiare più approfonditamente quanto discusso

dapprima, potendo confermare o confutare attraverso un riscontro reale quanto specificato.

- I modelli VaR forniscono risultati inesatti

La critica svolta da numerosi autori, come Beder176

o Jordan e Mackay, specifica che

spesso tali approcci forniscono output fortemente divergenti a seconda del modello

optato.

È ovvio che , se la critica fosse veritiera, le stime fornite dall‟approccio VaR sareb-

bero inaffidabili, posto che nella realtà una misura di rischio parsimoniosa dovrebbe

fornire lo stesso valore di perdita (o quantomeno valori di perdita prossimi) a pre-

scindere dalla misura utilizzata.

La tabella 4.14 mostra come, limitatamente alla ricerca svolta, gli output forniti dai

differenti approcci esibiscono uno scostamento rilevante tra la stima maggiore e

quella minore, che nel 64% dei casi è compreso tra il 2% e il 5% (in giallo), mentre

nel 13% dei casi è addirittura superiore al 5% (in rosso).

In accordo con Beder (1995), è possibile affermare che questo risultato è figlio delle

differenti assunzioni che stanno dietro gli approcci utilizzati.

In particolare, è stato possibile constatare che le principali differenze scaturiscono tra

modelli EWMA e GARCH, più reattivi alla deviazione standard del risk-factor, e

modelli si simulazione, che invece hanno fornito risultati distorti, perlopiù a causa

dell‟ipotesi di base, e cioè che il valori passati siano buoni predittori dei valori futuri,

ipotesi che, in momenti shock come quelli studiati, è difficilmente accettabile.

176

T.Beder, VaR: seductive but dangerous; Association of investment management and Research; 1995

192

Tabella 4.14: valore minimo e Massimo di stima per tutti i periodi e i portafogli. La stima è marcata verde se minore del

2%, gialla se compresa tra il 2% e il 5% e rossa se maggiore del 5%

S1

-1M +1M +2M

Max Min Diff Max Min Diff Max Min Diff

Portafoglio ITA 3,6% 2,1% 1,5% 7,8% 4,9% 2,8% 7,7% 5,0% 2,7%

Portafoglio GER 4,7% 3,1% 1,6% 7,9% 4,2% 3,8% 7,6% 4,2% 3,4%

Portafoglio FRA 4,1% 2,6% 1,5% 5,9% 3,9% 2,0% 5,8% 4,0% 1,9%

S2

-1M +1M +2M

Max Min Diff Max Min Diff Max Min Diff

Portafoglio ITA 6,1% 4,7% 1,4% 6,6% 4,0% 2,6% 6,3% 4,0% 2,3%

Portafoglio GER 7,9% 5,7% 2,2% 9,3% 5,3% 4,1% 8,6% 5,3% 3,3%

Portafoglio FRA 7,8% 5,2% 2,6% 8,7% 5,2% 3,5% 8,0% 5,2% 2,8%

S3

-1M +1M +2M

Max Min Diff Max Min Diff Max Min Diff

Portafoglio ITA 5,5% 3,0% 2,5% 4,7% 3,1% 1,6% 4,4% 3,1% 1,3%

Portafoglio GER 6,8% 3,0% 3,8% 5,2% 3,3% 1,9% 4,6% 3,2% 1,4%

Portafoglio FRA 7,5% 3,3% 4,3% 6,3% 3,5% 2,8% 5,8% 3,5% 2,3%

S4

-1M +1M +2M

Max Min Diff Max Min Diff Max Min Diff

Portafoglio ITA 10,8% 6,3% 4,6% 11,2% 6,4% 4,8% 10,5% 6,5% 4,0%

Portafoglio GER 27,0% 5,5% 21,4% 22,5% 5,4% 17,1% 19,9% 5,3% 14,6%

Portafoglio FRA 12,6% 6,4% 6,2% 11,9% 6,4% 5,5% 11,3% 6,4% 5,0%

193

S5

-1M +1M +2M

Max Min Diff Max Min Diff Max Min Diff

Portafoglio ITA 7,6% 3,6% 4,0% 7,4% 4,9% 2,5% 7,4% 5,0% 2,4%

Portafoglio GER 8,5% 3,1% 5,4% 7,5% 4,1% 3,4% 6,9% 4,4% 2,6%

Portafoglio FRA 6,6% 2,7% 3,9% 7,7% 4,7% 2,9% 7,2% 4,6% 2,5%

- Mancata sub additività

Tra i principali difetti del VaR, che teoricamente ne farebbero una misura non utiliz-

zabile nel contesto di risk management e che hanno spinto alla definizione di altre

misure quali l‟Expected Shortfall, si ricorda la mancata sub additività.

Ricordando quanto descritto sopra177

, il VaR potrebbe considerarsi una misura su-

badditiva se:

𝑉𝑎𝑅 𝑥 + 𝑉𝑎𝑅 𝑦 < 𝑉𝑎𝑅(𝑥 + 𝑦)

Dove 𝑥 e 𝑦 sono due generiche posizioni di rischio.

Nella realtà, la mancata sub-additività del VaR è un‟ipotesi remota, e che all‟interno

dello stesso modello è possibile verificare solo per i modelli di simulazioni storiche,

considerando che nei modelli Delta-Normal il VaR di portafoglio è sempre uguale al-

la somma del VaR dei titoli, mentre nei modelli Asset-Normal la correlazione è sem-

pre minore di 1, il che rende il VaR del portafogli sempre minore del VaR “somma”.

La Tabella 4.15 mostra il confronto tra la somma dei VaR e il VaR di portafoglio,

per un campione di portafogli random.

A dimostrazione di quanto descritto poc‟anzi, cioè che la violazione della subadditi-

vità è un‟ipotesi remota, come è possibile constatare, nessuna stima viola tale assunto

177

Si veda Capitolo 1 e Capitolo 3

194

Tabella 4.15: confronto tra il VaR di portafoglio e la somma dei VaR dei singoli titoli per un campione random

ITA S1) -1M ITA S3)+1M ITA S5)+2M GER S2) +1M GER S5) +2M FRA S4) -1M FRA S3) +2M

SS

𝑉𝑎𝑅𝑖8

𝑖=1 € 115.046,13 € 109.264,01 € 76.977,19 € 59.934,97 € 85.423,60 € 105.035,21 € 90.633,04

𝑉𝑎𝑅𝑝𝑜𝑟𝑡𝑎𝑓 . € 71.702,48 € 81.272,32 € 65.331,56 € 47.946,61 € 75.679,00 € 81.422,20 € 86.561,55

HA

𝑉𝑎𝑅𝑖8

𝑖=1 € 180.927,20 € 136.124,61 € 94.749,59 € 71.030,26 € 114.147,81 € 129.618,90 € 127.571,58

𝑉𝑎𝑅𝑝𝑜𝑟𝑡𝑎𝑓 . € 72.490,06 € 123.345,15 € 87.649,32 € 57.474,14 € 109.248,07 € 96.494,36 € 98.517,13

197

- “Il VaR viene sempre in ritardo quando il danno è già fatto”

In un‟ottica superficiale, in precedenza si è affermato come l‟approccio VaR possa

trovare difficile implicazioni pratiche, in quanto esso è passibile di fornire una mi-

sura di perdita alta, che rifletta uno shock in corso, solo quando il fenomeno è pas-

sato, rivelandosi quindi inutile per un‟azione preventiva di allocazione del capitale.

La risposta a questa critica è stata ampliamente discussa nel Paragrafo 4.2, potendo

constatare che tale critica è solo in parte vera.

Infatti, se da un lato gli approcci di simulazione storica e gli approcci Delta-Normal

e Asset-Normal si sono dimostrati meno reattivi all‟aumento di volatilità del merca-

to, dall‟altro gli approcci “eteroschedastici” EWMA e GARCH hanno ampliamente

dimostrato la loro efficienza proprio in periodi di turbolenza.

198

4.4 Risultato dello studio

L‟obiettivo del presente lavoro è quello di individuare un modello che possa svolgere in

modo ottimale il compito di stima della massima perdita possibile durante periodi di cri-

si.

Al fine di compiere uno studio il più possibile esaustivo, l‟analisi si è focalizzata su più

periodi di crisi e su più portafogli.

Nondimeno, e come probabilmente ci si aspettava, la scelta del modello ottimo non può

dirsi definitiva e certa, ma senza alcun dubbio si possono individuare modelli che più di

altri hanno prodotto una stima alta, ma soprattutto sensibile all‟andamento del mercato.

Innanzitutto in questo studio è stato possibile constatare come alcuni “bug”

dell‟approccio Value at Risk sono in parte giustificabili, potendo verificare e in alcuni

casi motivare tali fenomeni

Focalizzando l‟attenzione sui modelli, si è appurato che i modelli Varianze-Covarianze

hanno avuto un ruolo fondamentale nell‟analisi, grazie anche alla semplice ma impor-

tante introduzione del percentile “modificato” che attenua il principale difetto di tali ap-

procci: l‟imposizione della distribuzione gaussiana dei rendimenti.

Tra gli approcci Varianze-Covarianze è stato possibile constatare che sia per i modelli a

volatilità storica che per i modelli EWMA/GARCH in periodi di forti turbolenze

l‟indice segue un andamento meno volatile dei titoli di mercato, e di conseguenza in

questi casi la stima di perdita basata sul risk factor appare avventata.

In linea con quanto esplicitato nel Capitolo 2, se i modelli EWMA si sono presentati più

precisi dei corrispettivi con volatilità “storica”, perlopiù a causa dell‟elevata eterosche-

dasticità presente nei dati, rimane ancora aperto il problema della scelta del decay fac-

tor.

Da quanto visto, è possibile azzardare che la scelta di decay factor più bassi risulti mag-

giore in momenti di shock, in cui la turbolenza nel breve periodo risulta maggiore della

turbolenza a lungo.

199

Procedendo con lo studio, i risultati delle Simulazioni Storiche sono apparsi mediocri,

mantenendo la stima pressoché invariata al variare della deviazione standard, probabil-

mente a causa dell‟approccio troppo semplicistico nella stima dei risultati.

Sulla stessa linea, la stima dell‟approccio ibrido, in cui il tentativo di creare un modello

che valuti la deviazione standard, naufraga in stime influenzate dal ranking di singole

osservazioni, e che quindi non tengono conto del generale andamento del mercato, pro-

ducendo misure eccessivamente prudenziali, o eccessivamente basse.

200

CONCLUSIONI

Dall‟analisi svolta in questo lavoro, in cui si è cercato di offrire una panoramica più am-

pia possibile dell‟approccio VaR, si desume un‟importante considerazione: la metodo-

logia Value at Risk ha avuto un impatto importante all‟interno degli intermediari finan-

ziari, divenendo de facto lo standard per la misurazione del rischio di mercato e trovan-

do vasta diffusione della letteratura accademica.

A questo punto, preso quindi atto del boom conosciuto dal VaR negli ultimi decenni,

occorre mettere in guardia sulle conseguenze dannose dello stesso e di qualunque gene-

rico modello di misurazione del rischio.

Come più volte specificato, il VaR rappresenta sostanzialmente un numero, che incor-

pora l‟esposizione a una o più posizioni di rischio. Da questo, è possibile trarre due con-

clusioni: innanzitutto, essendo racchiuso in una semplice formula, il VaR non é garanzia

di congruenza e correttezza.

In secondo luogo, come più volte specificato, il VaR non serve a combattere né ad an-

nullare i rischi, ma al limite è in grado di indicare la massima esposizione ad essi.

Da quanto detto sinora, si desume quindi che i modelli non riescono da soli a catturare

una pluralità di elementi, che invece insistono sull‟operatività dell‟intermediario, come

ad esempio il contesto in cui il Value at Risk è stimato o le variabili esogene che influi-

scono.

L‟intervento dell‟uomo appare, quindi, condizione necessaria per l‟utilizzo del VaR.

In questo senso, la valutazione dello specialista, come visto nel secondo capitolo, divie-

ne fondamentale già nella fase iniziale, per quanto concerne i fattori riguardanti le ipote-

si alla base dei modelli, come la normalità storica dei dati, la scelta del decay factor o la

lunghezza della base storica.

201

Ancora, la scelta del modello non esaurisce i compiti dell‟analista: come si è implicita-

mente specificato nel quarto capitolo, il fattore umano diventa importante nella capacità

di interpretare il risultato e in alcuni casi, anche di rivederlo.

Non a caso, sempre più spesso, le stime VaR sono accompagnate da simulazioni e ana-

lisi di scenario e analisi di stress, nelle quali le variabili di mercato non sono evinte dai

parametri statistici, ma definite in base ad aspettative soggettive.

La conclusione di questo lavoro e di quanto detto sopra, è lasciata a Philippe Jorion, uno

dei massimi esperti al mondo di risk management, il quale in poche righe è riuscito a ri-

assumere la vera essenza dell‟approccio VaR:

“il più grande vantaggio del VaR risiede nell‟imposizione di una metodologia impostata

per riflettere criticamente sul rischio. Le Istituzioni che passano attraverso il processo di

stima del VaR sono costrette a confrontarsi con la loro esposizione ai rischi finanziari e

a definire una vera e propria funzione di risk management.

Così, il processo di stima del VaR può divenire importante quanto il numero stesso”.

202

Appendice A

Il calcolo del VaR di portafoglio nell‟approccio

Varianze-Covarianze

È stato visto come il calcolo del VaR di un titolo parta dalla volatilità dello stesso, mol-

tiplicata per il percentile associato al livello di confidenza scelto e al valore di mercato,

dalla (2.3):

𝑉𝑎𝑅 = 𝑊0|𝑧𝛼 |𝜍

ma come calcolare il VaR di un portafoglio di titoli?

Si indica con wi la variazione percentuale del rendimento178

di un i-esimo generico tito-

lo:

𝑊1 −𝑊0

𝑊0=∆𝑊

𝑊= ∆𝑤𝑖

Similmente a quanto visto per il singolo titolo, anche il VaR di portafoglio sarà calcola-

to come

(A.1) 𝑉𝑎𝑅𝑁 = 𝑧𝛼 × 𝜍𝑊𝑁

Come calcolare la deviazione standard della distribuzione del rendimento?

Il modello Varianze-Covarianze assume che i rendimenti ∆wi si distribuiscono normal-

mente, quindi il rendimento di portafoglio, essendo combinazione di variabili casuali

normali, si distribuirà anch‟esso come una normale.

178

Per la precisione piuttosto che parlare di rendimento, bisognerebbe parlare di “variazione di valore”.

Tuttavia parlare di rendimento non è errato, potendo pensare al rendimento come una variazione di valore

in quanto un rendimento “negativo” altro non è che una perdita.

203

La variazione ex post di un portafoglio composto da N titoli sarà data dalla somma dei

rendimenti dei titoli, pesata per il valore di mercato

∆𝑊𝑁 = 𝑊𝑖 × ∆𝑤𝑖

𝑁

𝑖=1

Dove:

∆𝑤𝑖= rendimento osservato degli i-esimi titoli in portafoglio

𝑊𝑖=peso di ogni singolo titolo (valore di mercato)

Mentre ex ante, analogamente a quanto accade nei modelli basati sulla teoria Marko-

witz179

, il rendimento di un portafoglio è una variabile casuale con media:

𝐸 𝑊𝑁 = 𝑊𝑖 × 𝐸(∆𝑤𝑖)

𝑁

𝑖=1

E varianza:

𝜍∆𝑊𝑁

2 = 𝑊𝑖 × 𝑊𝑗 × 𝜍∆𝑤 𝑖∆𝑤𝑗2

𝑁

𝑗=1

𝑁

𝑖=1

Da cui la deviazione standard è data da:

(A.2) 𝜍∆𝑊𝑁= 𝑊𝑖 × 𝑊𝑗 × 𝜍∆𝑤 𝑖∆𝑤𝑗

2𝑁𝑗=1

𝑁𝑖=1

Dove:

𝜍∆𝑤𝑖 ,∆𝑤𝑗2 = Covarianza tra i due titoli

179

Vedi anche: “La teoria della selezione di portafoglio di Markowitz”, << www.unibg.it>>

204

Inoltre considerando la correlazione tra ∆𝑤𝑖 e ∆𝑤𝑗 :

(A.3) 𝜌∆𝑤 𝑖 ,∆𝑤𝑗 =𝜍∆𝑤𝑖 ,∆𝑤𝑗

2

𝜍∆𝑤𝑖×𝜍∆𝑤𝑗→ 𝜍∆𝑤 𝑖 ,∆𝑤𝑗

2 = 𝜌𝑖 ,𝑗 × 𝜍∆𝑤 𝑖 × 𝜍∆𝑤𝑗

Utilizzando la (A.1) e la (A.2) si ottiene:

𝑉𝑎𝑅𝑁 = 𝑧𝛼 × 𝜍∆𝑊𝑁= 𝑧𝛼2 ×𝑊𝑖 ×𝑊𝑗 × 𝜍∆𝑤 𝑖∆𝑤𝑗

2

𝑁

𝑗=1

𝑁

𝑖=1

E considerando la (A.3)

𝑉𝑎𝑅𝑁 = 𝑧𝛼2 × 𝑊𝑖 × 𝑊𝑗 × 𝜌∆𝑤 𝑖 ,∆𝑤𝑗 × 𝜍∆𝑤 𝑖 × 𝜍∆𝑤𝑗

𝑁

𝑗=1

𝑁

𝑖=1

= (𝑧𝛼 × 𝑊𝑖 × 𝜍∆𝑤 𝑖) × (𝑧𝛼 ×𝑊𝑗 × 𝜍∆𝑤𝑗 ) × 𝜌∆𝑤 𝑖 ,∆𝑤𝑗

𝑁

𝑗=1

𝑁

𝑖=1

= 𝑉𝑎𝑅𝑖 × 𝑉𝑎𝑅𝑗 × 𝜌∆𝑤 𝑖 ,∆𝑤𝑗

𝑁

𝑗=1

𝑁

𝑖=1

Ottenendo il Valore a rischio del portafoglio.

205

Appendice B

Il modello Capital Asset Pricing Model e l‟applicazione nel

modello Delta-Normal

Il modello CAPM di Sharpe (1964) si basa sulla teoria di scelta di portafoglio di Mar-

kowitz, secondo il quale nella scelta dei titoli da inserire in portafoglio, un investitore

considera solamente due variabili: il rendimento atteso e il rischio intrinseco.

Se il rendimento atteso è rappresentato dalla media, mentre il rischio intrinseco è rap-

presentato dalla varianza, l‟investitore sceglierà il portafoglio che a parità di rendimento

minimizza la varianza, o che, analogamente, a parità di varianza massimizza il rendi-

mento atteso.

Dunque, il modello di Markowitz si basa sulle seguenti ipotesi:

gli investitori sono avversi al rischio e massimizzano la propria utilità attesa

gli investitori selezionano i portafogli adottando il criterio della media – varian-

za: queste due variabili sono le sole che influenzano il portafoglio

tutti gli investitori decidono sulla base di un orizzonte temporale uni periodale,

cioè da t a t+1

Quindi, nel mercato ci saranno titoli che a parità di rischio presentano un rendimento

maggiore e viceversa a parità di rendimento presentano rischio differente: l‟insieme dei

titoli scelti all'investitore formerà la frontiera efficiente.

Considerati gli studi di Markowitz, Sharpe assume la linearità tra rischio e rendimento

considerando la presenza di un tasso risk free al quale è possibile indebitarsi o investire

(acquistando titoli risk-free).

Consideriamo un portafogli, aggregato di due titoli: un titolo a basso rischio e basso

rendimento e un titolo a elevato rischio e elevato rendimento.

𝐸(𝑟)𝑝 = 𝑤1𝐸(𝑟)1 + 𝑤2𝐸(𝑟2)

206

Come specificato in Figura B.1:

Figura B.1: relazione rischio-rendimento tra due titoli

Fonte: Laura Magazzini; Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione Lineare; Uni-

versità di Verona, 2008-09

Per effetto della diversificazione, la correlazione tra i due titoli sarà 𝜌12 < 1, quindi il

rischio totale di portafoglio sarà inferiore alla media pesata del rischio dei due titoli.

Il livello di rischio e rendimento (atteso) che caratterizza diverse combinazioni dei titoli

1 e 2 è definito frontiera efficiente e Figura B.2, mentre la Figura B.3 definisce la fron-

tiera equivalente per n titoli.

207

Figura B.2: Frontiera efficiente per i due titoli.

Fonte: Laura Magazzini; Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione Lineare; Uni-

versità di Verona, 2008-09

Figura B.3: Frontiera efficiente e Capital Market Line per n titoli

Fonte: Laura Magazzini, Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione Lineare, Uni-

versità di Verona, 2008-09

208

Sulla retta tangente tra il titolo risk free e il portafoglio di mercato gli investitori investi-

ranno quote diverse di titolo risk free e di titolo rischioso in base alla loro avversione al

rischio.

Questa retta è la capital market line, definita dall'‟equazione:

(B.1) 𝐸(𝑟𝑝) = 𝑟𝑓 +(𝐸(𝑟𝑥 )−𝑟𝑓)

𝜍𝑥× 𝜍𝑝

Dove:

𝐸(𝑟𝑓) = rendimento atteso dei titoli risk-free

𝐸(𝑟𝑥) = rendimento atteso del portafoglio (nel nostro caso a, b, c o d)

𝜍𝑥 = volatilità del portafoglio

𝜍𝑝 = volatilità del portafoglio complessivo (portafoglio titoli + titoli risk-free)

Infatti, fissato livello di rischio al portafoglio a, otterremmo un rendimento atteso 𝐸(𝑟𝑎)

e rischio 𝜍∗, mentre il compenso per il rischio sostenuto è la pendenza della retta che

unisce il portafoglio a al portafoglio privo di rischio con rendimento atteso 𝐸(𝑟𝑓).

Tuttavia tale strategia non è ottima: a parità di rischio l‟investitore potrebbe ottenere un

rendimento maggiore dando in prestito una proporzione dei suoi fondi, (1− 𝑤𝑝) al tas-

so 𝑟𝑓 (tasso risk-free) e investendo la quota rimanente 𝑤𝑝 in altri titoli.

Similmente, si può evidenziare la relazione rischio-rendimento e l‟investimento in titoli

privi di rischio considerando il portafoglio d. In questo caso l‟intercetta resta pari a 𝑟𝑓 ,

mentre la pendenza aumenta il suo valore (cioè (𝑟𝑑−𝑟𝑓)

𝜍𝑑).

I punti sulla retta che unisce 𝑟𝑓 a d, indicano i diversi livelli di rendimento 𝑟𝑝 che è pos-

sibile ottenere per un dato livello di rischio.

Inoltre la retta 𝑟𝑓 − 𝑑 è tangente alla frontiera di rischio-rendimento: non esistono porta-

fogli superiori a d (ogni altra retta con intercetta rf e pendenza superiore non avrebbe

punti di intersezione con la frontiera di rischio-rendimento e non sarebbe dunque realiz-

zabile all‟interno del mercato). Il portafoglio d è detto efficiente180

.

180

La teoria microeconomica insegna che se la capital market line è tangente alla frontiera efficiente si

raggiunge l‟ottimo paretiano.

209

Lo studio può essere generalizzato a n titoli: quindi l‟obiettivo è detenere gli n titoli in

proporzione ottimale sulla frontiera di rischio-rendimento e poi modificare il proprio li-

vello di rischio finanziandosi/investendo al tasso risk-free.

In questo modo, ogni investitore allocherà il portafoglio scegliendo tra titoli rischiosi e l

titoli privi di rischio in funzione delle sue preferenze in rischio/rendimento.

Il CAPM e il modello Delta-Normal

Quando si definisce il rendimento di un titolo, si fa riferimento a due componenti: la

componente mercato, e la componente specifica dell'impresa, entrambe esplicitate dalla

formula:

𝑟𝑗 = 𝛽𝑗𝑟𝑚 ,𝑡 + r 𝑗 + 휀𝑗

Dove:

𝛽𝑗 = Beta del titolo

𝑟𝑚 ,𝑡 = Rendimento del mercato di riferimento

r 𝑗 = Rendimento Atteso

휀𝑗~𝑖𝑖𝑑 𝑁(0,𝜍2) = elemento random specifico dell'‟impresa.

Analogamente il rischio totale del titolo può essere spiegato dal rischio di mercato (o ri-

schio sistematico) e il rischio specifico, che interessa solamente il titolo.

Se indichiamo il rischio di un titolo con la varianza, si avrà:

𝜍𝑗2 = 𝛽 × 𝜍𝑚

2 + 𝜍휀2

Dove

𝜍𝑗2 = Varianza del titolo

𝛽 = indicatore che individua la reattività del rendimento del titolo a variazioni del ren-

dimento del portafoglio, ed è definito come 𝛽 = 𝜍𝑘𝑝 𝜍𝑝2 , dove il numeratore è la cova-

rianza tra il titolo k e il suo portafoglio, mentre il denominatore è la varianza del porta-

foglio.

Sostanzialmente, il Beta rappresenta la sensibilità del titolo alle variazioni di mercato.

210

𝜍휀2 = rischio specifico del titolo

Una delle implicazioni del CAPM, riguardante il modello Delta-Normal, è che il rischio

di un portafoglio ben diversificato è associato al solo rischio di mercato, in quanto teori-

camente la diversificazione comporta la compensazione tra i rischi specifici dei singoli

titoli, e di conseguenza

𝜍𝑗2 = 𝛽𝜍𝑚

2

Da cui

𝜍𝑗 = 𝛽𝜍𝑚

E sostituendo nella (2.6) si ottiene:

𝑉𝑎𝑟 = 𝑊0𝑧𝛼𝛽𝜍𝑚

Quindi la diversificazione non può eliminare il rischio nella sua totalità: la componente

indiversificabile è il rischio di mercato (o rischio sistematico), legato alle oscillazioni a

livello macroeconomico, che hanno effetto su tutte le industrie e quindi su tutto il mer-

cato.

Partendo da questa ipotesi, è possibile spiegare perché, nel calcolo del VaR con

l‟approccio Delta-Normal, il rischio del titolo venga approssimato come prodotto tra il

rischio di mercato e un fattore correttivo, a condizione che il portafoglio sia composto

da più titoli eterogenei, in quanto solo così l‟eliminazione del rischio specifico risulta

ragionevole.

Infine, dalla (B.1), è possibile ricavare la formula finale del CAPM, che definisce il ren-

dimento atteso di un titolo, dato il rendimento di titoli risk-free e il rendimento di mer-

cato

(B.2) 𝐸 𝑟𝑗 = 𝑟𝑓 + (𝐸(𝑟𝑚) − 𝑟𝑓)𝛽𝑗

211

In questo caso, il calcolo del Beta viene effettuato considerando non più la reattività del

rendimento del titolo a variazioni del rendimento di un generico portafoglio, bensì pen-

sando a quest‟ultimo in termini del mercato nel suo complesso

𝛽𝑗 =𝜍𝑗𝑚

𝜍𝑚2=𝐶𝑜𝑣(𝑗,𝑚𝑒𝑟𝑐𝑎𝑡𝑜)

𝑉𝑎𝑟(𝑚𝑒𝑟𝑐𝑎𝑡𝑜)

Se 𝛽𝑗>1 il titolo amplifica la volatilità di mercato, e per questo si dice “aggressivo”, in-

vece se 𝛽𝑗<1 il titolo riduce la volatilità di mercato, e si dice “difensivo”, se𝛽𝑗= 1il titolo

si muove in perfetta sintonia con il mercato, è “neutrale”.

Dalla (B.2) è immediato notare che il rendimento atteso del titolo è dunque uguale al

rendimento sulle attività prive di rischio, più il prodotto tra il grado di sensitività del ti-

tolo al mercato, misurato con il Beta, e il premio a rischio (𝐸(𝑟𝑚)− 𝑟𝑓) che il mercato

paga agli investitori.

212

Appendice C

La scomposizione di Cholesky

La scomposizione di Cholesky permette di creare due matrici triangolari positive, origi-

nate da una matrice definita positiva Σ in formule:

(C.1) Σ = 𝐴𝐴′

Dove

Σ = Matrice di Varianze-Covarianze

𝐴 = Matrice triangolare inferiore

𝐴′ = Matrice trasposta di 𝐴

Ad esempio, consideriamo una generica matrice Σ 3x3:

Σ =

𝜖11 𝜖21 𝜖31

𝜖21 𝜖22 𝜖32

𝜖31 𝜖23 𝜖33

Secondo la scomposizione di Cholesky, questa matrice è scomponibile in due matrici

triangolari, di cui una è la trasposta dell'altra, da cui

𝐴 =

𝑎11 𝑎21 𝑎31

0 𝑎22 𝑎32

0 0 𝑎33

𝐴′ = 𝑎11 0 0𝑎21 𝑎22 0𝑎31 𝑎32 𝑎33

Dunque per la (C.1):

𝜖11 𝜖21 𝜖31

𝜖21 𝜖22 𝜖32

𝜖31 𝜖23 𝜖33

=

𝑎11 𝑎21 𝑎31

0 𝑎22 𝑎32

0 0 𝑎33

𝑎11 0 0𝑎21 𝑎22 0𝑎31 𝑎32 𝑎33

213

Da cui è possibile calcolare il valore di ogni elemento della matrice:

𝜖11 = 𝑎112 ⟹ 𝑎11 = 𝜖11

𝜖21 = 𝑎21𝑎11 ⟹ 𝑎21 =𝜖21

𝑎11

𝜖22 = 𝑎212 + 𝑎22

2 ⟹ 𝑎22 = 𝜖22 + 𝑎212

𝜖31 = 𝑎31𝑎11 ⟹ 𝑎31 =𝜖31

𝑎11

In generale, è possibile identificare gli elementi delle matrici triangolari attraverso le

formule:

𝑎𝑖𝑖 = 𝑠𝑖𝑖 − 𝑎𝑖𝑘2

𝑖−1

𝑘=1

𝑎𝑖𝑗 =1

𝑎𝑖𝑖 𝑠𝑖𝑗 + 𝑎𝑖𝑘𝑎𝑗𝑘

𝑖−1

𝑘=1

𝐽 = 𝑖 + 1…𝑁

Di conseguenza, data una matrice Varianze-Covarianze per i generici titoli i,q e r

Σ =

𝜍𝑝2 𝜍𝑞𝑝

2 𝜍𝑟𝑝2

𝜍𝑝𝑞2 𝜍𝑞

2 𝜍𝑟𝑞2

𝜍𝑝𝑟2 𝜍𝑞𝑟

2 𝜍𝑟2

Otterremo le matrici triangolari trasposte:

𝐴 =

𝜍𝑝 𝜍𝑝𝑞2 𝜍𝑝 𝜍𝑝𝑟

2 𝜍𝑝

0 𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2 𝜍𝑞𝑟

2 − 𝜍𝑝𝑞2 𝜍𝑝𝑟

2 − 𝜍𝑝𝑟2 𝜍𝑝𝑟

2

𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2

0 0 𝜍𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝2 2−

𝜍𝑞𝑟2 − 𝜍𝑝𝑞2 𝜍𝑝𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝𝑟2

𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2

2

214

𝐴′

=

𝜍𝑝 0 0

𝜍𝑝𝑞2 𝜍𝑝 𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝

20

𝜍𝑝𝑟2 𝜍𝑝

𝜍𝑞𝑟2 − 𝜍𝑝𝑞

2 𝜍𝑝𝑟2 − 𝜍𝑝𝑟

2 𝜍𝑝𝑟2

𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2

𝜍𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝2 2−

𝜍𝑞𝑟2 − 𝜍𝑝𝑞2 𝜍𝑝𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝𝑟2

𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2

2

Da cui 𝐴′ verrà moltiplicata per il vettore di valori della funzione di densità normale v,

ottenendo il vettore dei rendimenti per ogni scenario generato.

215

Appendice D

La regolamentazione antecedente al Market Risk Amen-

dment: l‟Accordo di Basilea e il documento di consultazione

Il primo Accordo di Basilea

Lo stimolo alla regolamentazione internazionale, al rafforzamento del sistema bancario

e alla prevenzione di ulteriori fallimenti dopo la Herstatt Bankhaus, il Banco Ambrosia-

no e la Franklin National Bank181

spinsero il Comitato di Basilea182

ad emanare nel

1988 l‟Accordo di Basilea183

, detto anche Basilea I, con l‟intento di “rafforzare la soli-

dità e stabilità del sistema bancario internazionale; (e) essere equo e possedere un ele-

vato grado di coerenza nella sua applicazione alle banche di differenti paesi, al fine di

ridurre un fattore di disuguaglianza concorrenziale presente tra le banche internazio-

nali”184

.

In questo modo l‟obiettivo esplicito di definire un level playing field, ciò un accordo che

consentisse a tutti gli intermediari di “giocare alla pari”, evitando che regolamentazioni

più favorevoli di alcuni Stati potessero dar luogo a concorrenza sleale si congiungeva

con il secondo obiettivo, implicito, di ridurre il moral hazard, in quanto l‟assicurazione

dei depositi sottoscritta dalle banche spingeva i manager all‟assunzione di rischi ecces-

sivi, che ricadevano poi sull' inconsapevole assicuratore.

181

Nel 1974 fallirono la Bankhaus Herstatt (un istituto di medie dimensioni molto attivo sui mercati valu-

tari) a causa del mancato regolamento di transazioni valutarie che ebbe forti ripercussioni su sistema fi-

nanziario internazionale; e la Franklin National Bank, (a quel tempo la ventesima banca per volume d'af-

fari negli USA) per bancarotta fraudolenta.Nel 1982 fallì invece il Banco Ambrosiano a causa di un crack

finanziario. 182

Il Comitato di Basilea per la vigilanza bancaria è stato costituito nel dicembre 1974 daiGovernatori

delle banche centrali dei paesi del G-10 (Belgio, Canada, Francia, Germania,Giappone, Gran Bretagna,

Italia, Paesi Bassi,Svezia, Svizzera e Stati Uniti) con lo scopo di incrementare la collaborazione interna-

zionale per arrivare ad una vigilanza sovranazionale sul sistema bancario. la sede è stata stabilita presso la

Banca dei Regolamenti Internazionali (BRI), a Basilea in Svizzera.Nondimeno, è importante sottolineare

che il Comitato di Basilea è un organo consultivo, e come tale le sue delibere non hanno valenza di legge,

ma devono essere recepite dai singoli Stati. 183

L‟Unione Europea ha recepito l‟Accordo con la direttiva 89/299 e 89/647, mentre in Italia è stato ac-

colto con i dls 301-302/91 184

Comitato per la Regolazione Bancaria e le Procedure di Vigilanza; Convergenza internazionale della

misurazione del capitale e dei coefficienti patrimoniali minimi; 1988

216

Le finalità appena descritte sono state raggiunte proprio con Basilea I che, imponendo il

requisito patrimoniale a fronte dei rischi finanziari solo alle banche che operavano a li-

vello internazionale185

, indicò cosa era ammesso nella composizione del capitale, la

ponderazione dei crediti che tenesse conto del “fattore rischio” e il conseguente rapporto

minimo tra capitale e crediti ponderati.

In particolare, l‟Accordo di Basilea definì tre elementi su cui comporre il requisito di

capitale a fronte del solo rischio di credito:

1. Patrimonio di Vigilanza: capitale la cui composizione era definito da Basilea I.

Nella fattispecie, visto l‟orizzonte di medio termine legato al rischio di credito, le

componenti utilizzabili come patrimonio di vigilanza sono state individuate

anch‟esse in un‟ottica di medio periodo. Senza entrare nel dettaglio186

si distingue:

Patrimonio di base o Primario (Tier 1 capital)

Il Tier 1 è la componente migliore del capitale, creata con elementi maggiormen-

te liquidi e finanziariamente più solidi.

Essa è composta di capitale azionario e riserve palesi (riserve generali e legali).

Patrimonio di secondo livello o Supplementare (Tier 2 capital)

È costituito da riserve occulte, riserve da rivalutazione, strumenti ibridi di capi-

tale (strumenti con caratteristiche degli strumenti di capitale e degli strumenti di

debito, accettati in quanto strumenti analoghi alle azioni e atti a coprire perdite

nell‟ambito della gestione corrente), accantonamenti, debiti subordinati187

(stru-

menti di capitale che in sede di liquidazione prevedono il soddisfacimento del

possessore in seguito ai creditori, ma prima degli azionisti).

Il patrimonio supplementare contribuisce al Patrimonio di Vigilanza per un am-

montare pari al massimo al patrimonio di base188

.

185

Tuttavia molte Autorità di Vigilanza ampliarono l‟obbligo a tutte le banche 186

L‟esplicitazione dettagliata degli elementi del Patrimonio di Vigilanza ha natura più contabile che fi-

nanziaria, e quindi esula dalle competenze di questo lavoro. 187

Sono accettati solamente i debiti subordinati con scadenza originaria minima superiore ai 5 anni e non

oltre il 50% del capitale di base. 188

In parole più semplici, il Patrimonio di Vigilanza può comporsi al limite di un 50% di Patrimonio di

Base e 50% di Patrimonio Supplementare.

217

2. La ponderazione per il rischio

L‟elemento peculiare di Basilea I era l‟introduzione degli attivi ponderati per il

rischio (RWA, Risk Weighted Assets): i crediti vengono raggruppati in quattro

classi, (a loro volta basate su tre variabili: natura del debitore, rischio paese, ga-

ranzie ricevute), e successivamente ogni credito era sottoposto a ponderazione

sulla base del valore di ponderazione della classe di appartenenza.

In particolare si distingueva:

- Ponderazione dello 0% per valori particolarmente liquidi e/o sicuri, come ad

esempio valori per cassa, titoli del debito sovrano e obbligazioni emesse ban-

che centrali (denominate in moneta del paese debitore), altre attività emesse

dalle amministrazioni centrali o dai paesi dell'area OCSE, attività garantite da

garanzie reali e attività delle amministrazioni pubbliche interne (in questo ca-

so i singoli stati possono optare per una diversa ponderazione);

- Ponderazione del 20% per attività verso banche dell'area OCSE, attività verso

enti del settore pubblico di Paesi esteri compresi nell‟area OCSE, prestiti ga-

rantiti da banche dell'area OCSE, attività verso banche di sviluppo o attività

da queste garantite;

- Ponderazione del 50% per prestiti garantiti da ipoteca su immobili

- Ponderazione del 100% per tutte le attività del settore privato, tutte le proprie-

tà immobiliari, attività verso imprese commerciali a capitale pubblico, attività

di amministrazioni centrali di paesi esterni all‟OCSE.

3. Coefficiente di solvibilità minimo

La regolamentazione patrimoniale imposta da Basilea terminava con la defini-

zione del requisito di solvibilità (da raggiungere entro il 1992) pari all‟8% del

rapporto tra il Patrimonio di Vigilanza e gli attivi ponderati per il rischio

𝑃𝑎𝑡𝑟𝑖𝑚𝑜𝑛𝑖𝑜 𝑑𝑖 𝑉𝑖𝑔𝑖𝑙𝑎𝑛𝑧𝑎

𝑅𝑊𝐴𝑟 .𝑐𝑟𝑒𝑑𝑖𝑡𝑜≥ 8%189

189

In cui il Patrimonio di Base doveva pesare almeno per il 4%.

218

Dove 𝑅𝑊𝐴 = 𝑝𝑖𝐴𝑖𝑖 e 𝑝𝑖 è la ponderazione per l‟i-esima attività 𝐴𝑖

L‟introduzione dell'Accordo di Basilea costituì l‟epilogo di una rivoluzione del sistema

di Vigilanza bancaria iniziata negli anni „70, segnando passaggio definitivo da vincoli di

tipo strutturale orientati alla verifica del grado di concentrazione e di articolazione dei

circuiti finanziari, a vincoli di tipo prudenziali, indirizzati alla verifica della stabilità e

della rischiosità.

Invero, dagli anni Trenta190

(nei quali gli Stati realizzarono che il crack di un interme-

diario è capace di produrre effetti su tutto il sistema finanziario) fino agli anni „70, la

Vigilanza dei principali Paesi industrializzati afferiva alla dimensione e alla conforma-

zione del mercato, imponendo obblighi di separazione tra aziende di credito e altri in-

termediari191

, vincoli e proibizioni in tema di nuove filiali o sportelli o la determinazio-

ne ex ante di prezzi e condizioni.

Tale regolamentazione rigida frenò l‟operatività bancaria, permettendo da un lato di ar-

ginare fenomeni di crisi, e dall'altro di causare un rallentamento dell'operatività banca-

ria.

Dagli anni ‟70 e con la successiva introduzione di Basilea I la Vigilanza si spostò su

vincoli prudenziali: diminuiscono le regole di specializzazione e le restrizioni sull'ope-

ratività e sulla dimensione, a favore di una maggiore autonomia.

Da quel momento la Vigilanza si orienta perlopiù sulla gestione dell‟impresa bancaria,

“misurata” in termini di coefficienti di capitale, sulla maggiore trasparenza e informa-

zione per i mercati.

Non a caso, è con Basilea I che viene introdotto il concetto di “adeguatezza patrimonia-

le”: le autorità creditizie cessano di influire su importo e composizione del Patrimonio

bancario, ma al contrario stabiliscono un livello minimo di operatività sotto il quale la

banca non agisce nel rispetto del vincolo di sana e prudente gestione limitandosi a veri-

ficare la coerenza delle scelte degli intermediari con le variabili economico-gestionali.

190

Si ricorda che nel 1929 avvenne il crollo di Wall Street che portò alla grande crisi degli anni „30 191

Basti ricordare che dal 1933 vigeva negli Stati Uniti il Glass Steagall Act che imponeva la separazione

tra banche commerciali e banche d‟investimento; abrogato poi nel 1999.

219

Nondimeno, il primo Accordo di Basilea non trovò forte accoglimento, innanzitutto

l'approccio troppo semplicistico nel calcolo delle ponderazioni ebbe l‟effetto di amplifi-

care l‟assunzione di rischio invece di mitigarla.

In questo senso, limitare a quattro l‟universo di controparti economiche consentì alle

banche di produrre distorsioni del sistema finanziario al fine di ridurre l‟onere della re-

golamentazione: con Basilea I, infatti, le banche si orientarono verso controparti più ri-

schiose all‟interno della medesima categoria, o all‟assunzione di maggiori rischi di cre-

dito liberati poi con la diversificazione.

In secondo luogo, l‟Accordo considerava solo in parte le operazioni di mitigazioni del

rischio messe in atto dalla banca: Basilea I non computava l‟effetto diversificazione,

l‟utilizzo di derivati creditizi e considerava superficialmente l‟utilizzo di garanzie con-

nesse al credito; ma tuttavia, la critica più rilevante rimane l‟omissione dei rischi

d‟interesse e di mercato.

Quest‟ultima anomalia portò alla definizione del documento di consultazione del ‟93 e

successivamente al Market Risk Amendment del ‟95-‟96.

Il documento di consultazione del „93

La crescente evoluzione dei mercati finanziari, lo sviluppo dei derivati e la “mobilizza-

zione” dei crediti rese sempre più sentita la mancanza di un requisito a fronte del rischio

di mercato.

In tal senso lo stesso Comitato di Basilea nel 1993 scriveva: “la deregolamentazione dei

tassi d‟interesse e dei movimenti di capitali, la liberalizzazione della sfera operativa

delle banche e il rapido sviluppo dei mercati finanziari hanno accresciuto per le banche

le opportunità di assumere rischi di mercato”192

.

A tal proposito, il Comitato di Basilea fu stimolato al raggiungimento di un nuovo o-

biettivo: stabilire i requisiti patrimoniali per il rischio di mercato e le modalità cui as-

solvervi e di creare “standard” patrimoniali-economici che evitassero concorrenza sleale

tra intermediari.

192

Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basilea per la Vigilanza banca-

ria; 1993.

220

In questo senso il Comitato propose sempre nel 1993 un metodo “standard” per il calco-

lo del rischio di mercato193

generato dalle posizioni facenti parte del trading book, cioè

di quel portafoglio titoli detenuti a breve termine e al fine di ottenere un capital gain

dalla compravendita o per fini di negoziazione con la clientela194

.

Tale metodologia consentiva di definire il requisito di capitale con riferimento ad un

holding period di 2 settimane, per un portafoglio rappresentativo degli ultimi cinque an-

ni con un intervallo di confidenza elevato e per tre tipi di rischio di mercato: rischio di

tasso d‟interesse, rischio azionario e rischio cambio.

Oltre a tale obbligo il documento di consultazione prevedeva, per quanto riguarda posi-

zioni azionarie e obbligazionarie, l‟utilizzo di un “approccio a blocchi” calcolando sia il

rischio specifico, che insiste sul singolo titolo, che il rischio generico, causato da varia-

zioni sfavorevoli del mercato nella sua interezza.

Nella fattispecie,195

si distingueva un differente metodo di calcolo per ognuno dei tre ti-

pi di rischio:

Rischio di Tasso: si calcolava per titoli di debito a tasso fisso, variabile nonché per

“valori aventi comportamento analogo” come obbligazioni convertibili, derivati cre-

ditizi e derivati su tasso di interesse (FRA, Swap, cap, collar). Il requisito per il ri-

schio specifico è definito da ponderazioni sul valore netto dell'emissione obbligazio-

193

Nel 1993 anche l‟UE emanò una direttiva, la 93/6/CEE detta anche CAD I (Capital Adequacy Directi-

ve) che differisce in minima parte dal quanto proposto da Basilea. 194

Come noto, al trading book si oppone il banking book, costituito da posizioni detenute a medio-lungo

termine con obiettivi diversi dal puro trading. In questo senso, lo stesso Comitato invitava le autorità di

Vigilanza a costituire regole contabili o procedure oggettive per disciplinare il trasferimento delle posi-

zioni dal trading book al banking book al fine di evitare l‟elusione del requisito.

Se questa distinzione può apparire ovvia, meno ovvie sono le sue ripercussioni: per quanto riguarda i titoli

azionari e obbligazionari, il loro computo nel trading book comporta la loro “fuoriuscita” dal banking

book, mentre per posizioni in commodities e in cambi il requisito può riguardare sia il banking book che

il trading book.

In poche parole, le obbligazioni facenti parte del banking book sono considerate nel computo del rischio

di credito, se invece sono computate nel trading book vengono utilizzate per misurare il rischio di tasso.

Le azioni invece vengono computate solo se facenti parte del trading book. 195

Per motivi di brevità non verranno trattati nel dettaglio e i requisiti e le ponderazioni applicate alle sin-

gole tipologie di titoli, volendo fornire un quadro generale del documento di consultazione.

Per maggiori dettagli, si veda Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basi-

lea per la Vigilanza bancaria; 1993.

221

naria196

e dipendeva dal tipo e dal rating dell'emittente, e dalla maturity obbligazione

(Tabella D.1).

196

È possibile la compensazione tra posizioni lunghe e corte della stessa emissione ma non per lo stesso

emittente.

222

Tabella D.1: ponderazioni per il rischio specifico di tasso d‟interesse

Tipologia di titolo Ponderazione

Vita residua

≤ 6 mesi

Vita residua tra

6 e 24 mesi

Vita residua ≥

24 mesi

Governo centrale:

-Titoli di Stato 0%

Qualificati:

-Titoli del settore pubblico e di banche di

sviluppo

-Titoli giudicati investment grade per al-

meno due agenzie di rating

-Titoli giudicati investment grade per

un‟agenzia e qualità adeguata per un‟altra.

-Titoli di banche di Paesi che aderiscono

all‟accordo di Basilea197

0,25% 1% 1,60%

Altri 8%

Fonte: Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basilea per la Vigilanza bancaria; 1993

Il requisito per il rischio generico era definito suddividendo i titoli in 15 Zero cou-

pon, definiti in base alla duration.

Successivamente alla compensazione tra posizioni lunghe e corte in ogni fascia, si

definivano tre macro-fasce a cui seguiva la compensazione tra i titoli della stessa ma-

cro-fascia. Le posizioni nette delle tre zone vengono compensate, generando il requi-

sito netto totale per il rischio generico di tasso d‟interesse198

.

Nondimeno, il Comitato consentiva agli intermediari di utilizzare un metodo alterna-

tivo, in cui si misura la duration di ogni titolo, anziché la duration media per ogni fa-

scia.

197

Solo se autorizzato dalle autorità di Vigilanza. 198

Per l‟esattezza, ogni compensazione era sottoposta a una disallowance che tenesse conto della non per-

fetta compensazione che si manifesta durante la misurazione.

In particolare nella compensazione all‟interno delle fase si aggiungeva al valore netto la vertical disallo-

wance (pari al 10% della minore tra la posizione netta positiva e la posizione netta negativa), nella com-

pensazione tra le tre macrofasce si applica la horizontal disallowance (moltiplicando il coefficiente del

40% per la prima fascia e del 30% per seconda e terza; alla minore tra la posizione netta positiva e la po-

sizione netta negativa) e la vertical disallowance nella compensazione tra macrofasce (del 40% per posi-

zioni adiacenti e del 100% altrimenti, moltiplicata per la posizione più bassa).

223

Rischio azionario: in tale tipologia di rischio si annoveravano azioni ordinarie con o

senza diritto di voto, obbligazioni convertibili, warrant, e derivati aventi come sotto-

stante indici o azioni.

Il requisito per il rischio specifico veniva calcolato sommando le posizioni lunghe e

corte (è possibile compensazione solo per lo stesso titolo), calcolando così la posi-

zione generale lorda. Il requisito è calcolato come l‟8% della posizione generale lor-

da.

Nondimeno il Comitato ammette che la ponderazione deve poter cogliere la diversi-

ficazione e la liquidità del portafoglio azionario ma al contempo riconosce come sia

difficile definire dei requisiti che indichino se e in che misura un portafoglio sia ben

diversificato.

Di conseguenza, il Comitato lascia questa competenza alle autorità di Vigilanza dei

singoli Paesi, consentendo alle stesse di ridurre la ponderazione per portafogli liquidi

e ben diversificati non al disotto del 4%.

Per quanto riguarda il rischio generico, esso è formulato come l‟8% della posizione

generale netta, misurata dalla compensazione all‟interno dello stesso mercato tra po-

sizioni corte e lunghe, di conseguenza la posizione generale netta totale è data dalla

somma algebrica delle posizioni generali nette dei mercati.

Rischio di cambio199

Come per le altre posizioni, è necessario calcolare la posizione netta per ogni valuta,

formata dalla somma algebrica tra posizioni a pronti e a termine, le garanzie di certa

escussione e qualsiasi altra voce rappresentativa di profitti/perdite su valute.

Una volta calcolata la posizione netta per ogni valuta, si effettuava la somma tra tutte

le posizioni positive e negative e il requisito è calcolato come l‟8% del maggiore tra

la posizione netta positiva e la posizione netta negativa200

.

Ai fini dell'‟assolvimento degli ulteriori requisiti patrimoniali derivanti dai rischi di

mercato, il Comitato propose, se consentito dalle autorità di Vigilanza nazionali, di dare

199

Le posizioni in oro vengono incluse nel computo dei requisiti patrimoniali per le posizioni in valuta 200

Il Comitato consentiva anche l‟utilizzo di un metodo di simulazione, mediante il quale, sulla base

dell'andamento passato del rischio tasso, venivano determinati i profitti/perdite simulate. Il coefficiente

veniva fissato in rapporto alla perdita maggiore.

224

vita ad una nuova componente del Patrimonio di Vigilanza, chiamata Tier 3201

, costitui-

ta interamente per assolvere al rischio azionario e di tasso (il rischio di cambio doveva

essere coperto dal Patrimonio di classe 1 e 2) e limitato al 250% del Patrimonio di base

destinato alla copertura dei rischi di mercato.

Esso era composto da prestiti subordinati differenti rispetto a quelli componenti il Tier

2, in quanto dovevano possedere alcuni requisiti quali:

Essere garantiti;

Avere una scadenza iniziale di almeno due anni;

Essere assoggettati alla clausola d‟immobilizzo secondo cui non possono essere

pagati interessi agli obbligazionisti se tali pagamenti comportano la riduzione

del capitale a rischio assegnato al portafoglio di negoziazione fino alla soglia del

requisito patrimoniale, aumentato del 20%;

Non essere redimibili prima della scadenza pattuita.

201

Il Comitato specifica che alcune autorità non acconsentono alla creazione del Tier 3 e quindi il Comi-

tato stesso propone di mantenere il principio secondo cui il Tier 1 sia almeno pari alla somma tra Tier 2 e

Tier 3.

Nel successivo emendamento del 1996, il Comitato deciderà di lasciare l‟applicazione di tale regola a di-

screzione delle autorità nazionali.

225

Appendice E:

Analisi empirica: stime prodotte dai modelli utilizzati

Di seguo si specificano tutte le stime di Value at Risk prodotte durante lo studio empiri-

co, per ognuno dei modelli utilizzati, dei portafogli e degli shock scelti.

226

S1) 21/09/2001

PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE

S1) -1M S1) +1M S1) +2M S1) -1M S1) +1M S1) +2M S1) -1M S1) +1M S1) +2M

VM TOT 2.777.954 2.329.725 2.429.406 1.584.526 1.373.231 1.519.175 1.924.450 1.709.361 1.774.911

VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)

VaR Delta-Normal 69.333 2,50 115.305 4,95 124.102 5,11 54.402 3,43 66.166 4,82 76.069 5,01 54.170 2,81 66.041 3,86 72.454 4,08

VaR Asset-Normal 79.010 2,84 124.623 5,35 133.518 5,50 63.270 3,99 73.087 5,32 83.146 5,47 65.356 3,40 73.805 4,32 79.493 4,48

VaR Delta-Normal EWMA(0,99)

63.968 2,30 138.077 5,93 143.465 5,91 50.747 3,20 73.534 5,35 83.303 5,48 50.591 2,63 72.551 4,24 78.804 4,44

VaR Delta-Normal EWMA(0,97)

58.359 2,10 179.947 7,72 169.803 6,99 49.132 3,10 89.416 6,51 95.444 6,28 49.763 2,59 88.592 5,18 91.130 5,13

VaR Asset-Normal EWMA(0,99)

100.575 3,62 176.859 7,59 180.307 7,42 74.194 4,68 96.017 6,99 105.735 6,96 78.643 4,09 97.427 5,70 102.378 5,77

VaR Asset-Normal EWMA(0,97)

98.365 3,54 179.281 7,70 182.741 7,52 73.677 4,65 97.309 7,09 107.618 7,08 79.360 4,12 98.644 5,77 103.496 5,83

VaR SS (261gg) "titoli"

71.702 2,58 130.704 5,61 144.391 5,94 55.049 3,47 72.601 5,29 80.258 5,28 58.296 3,03 86.722 5,07 91.429 5,15

VaR SS (261 gg) "risk factor"

76.070 2,74 115.752 4,97 120.704 4,97 54.269 3,42 57.173 4,16 63.249 4,16 58.636 3,05 67.690 3,96 70.286 3,96

VaR Delta-Normal GARCH

62.677 2,26 143.241 6,15 137.348 5,65 48.866 3,08 75.713 5,51 78.681 5,18 50.541 2,63 72.262 4,23 75.312 4,24

VaR HA (0,99) 72.490 2,61 181.276 7,78 186.149 7,66 63.714 4,02 108.889 7,93 114.806 7,56 61.504 3,20 100.157 5,86 98.862 5,57

227

S2) 09/10/2002

PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE

S2) -1M S2) +1M S2) +2M S2) -1M S2) +1M S2) +2M S2) -1M S2) +1M S2) +2M

VM TOT 1.886.196 1.765.628 1.911.082 968.232 883.761 929.356 1.396.063 1.341.069 1.353.885

VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)

VaR Delta-Normal 103.937 5,51 87.950 4,98 94.027 4,92 57.431 5,93 58.543 6,62 61.371 6,60 79.952 5,73 86.923 6,48 88.911 6,57

VaR Asset-Normal 107.292 5,69 91.143 5,16 97.220 5,09 61.981 6,40 62.876 7,11 65.845 7,09 83.185 5,96 89.888 6,70 91.927 6,79

VaR Delta-Normal EWMA(0,99)

98.996 5,25 99.669 5,64 103.097 5,39 62.535 6,46 69.349 7,85 69.286 7,46 88.906 6,37 101.545 7,57 98.597 7,28

VaR Delta-Normal EWMA(0,97)

115.412 6,12 116.611 6,60 110.269 5,77 76.942 7,95 82.511 9,34 74.342 8,00 109.326 7,83 117.197 8,74 101.581 7,50

VaR Asset-Normal EWMA(0,99)

106.916 5,67 115.388 6,54 120.542 6,31 68.720 7,10 80.081 9,06 80.084 8,62 99.060 7,10 112.211 8,37 108.635 8,02

VaR Asset-Normal EWMA(0,97)

108.973 5,78 116.457 6,60 120.338 6,30 69.641 7,19 80.066 9,06 80.183 8,63 100.236 7,18 113.304 8,45 108.956 8,05

VaR SS (261gg) "titoli"

90.000 4,77 70.944 4,02 76.616 4,01 62.139 6,42 47.947 5,43 50.616 5,45 82.526 5,91 78.156 5,83 79.279 5,86

VaR SS (261 gg) "risk factor"

93.715 4,97 73.254 4,15 79.288 4,15 55.608 5,74 46.702 5,28 49.111 5,28 73.225 5,25 70.341 5,25 71.013 5,25

VaR Delta-Normal GARCH

102.994 5,46 103.536 5,86 99.433 5,20 66.633 6,88 73.572 8,32 66.101 7,11 93.851 6,72 104.437 7,79 93.890 6,93

VaR HA (0,99) 88.417 4,69 87.304 4,94 91.745 4,80 62.462 6,45 57.474 6,50 59.567 6,41 86.402 6,19 84.649 6,31 85.516 6,32

228

S3) 20/03/2008

PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE

S3) -1M S3) +1M S3) +2M S3) -1M S3) +1M S3) +2M S3) -1M S3) +1M S3) +2M

VM TOT 2.714.208 2.609.185 2.639.379 1.738.995 1.745.765 1.798.956 1.906.733 1.966.384 1.989.125

VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)

VaR Delta-Normal 81.833 3,0 86.412 3,3 87.991 3,3 62.410 3,6 61.320 3,5 62.389 3,5 88.589 4,6 96.906 4,93 96.982 4,9

VaR Asset-Normal 83.970 3,1 88.132 3,4 89.869 3,4 71.073 4,1 70.349 4,0 71.531 4,0 92.143 4,8 101.006 5,14 101.058 5,1

VaR Delta-Normal EWMA(0,99)

89.842 3,3 94.119 3,6 89.350 3,4 71.260 4,1 67.290 3,9 63.534 3,5 101.766 5,34 103.850 5,28 96.658 4,86

VaR Delta-Normal EWMA(0,97)

109.178 4,0 104.431 4,0 87.197 3,3 91.667 5,3 73.631 4,2 60.207 3,3 127.620 6,69 109.307 5,56 89.722 4,51

VaR Asset-Normal EWMA(0,99)

107.846 4,0 112.103 4,3 107.756 4,1 89.469 5,1 85.734 4,9 82.688 4,6 118.183 6,2 123.954 6,30 116.172 5,8

VaR Asset-Normal EWMA(0,97)

109.743 4,0 112.275 4,3 107.427 4,1 91.506 5,3 86.344 4,9 82.181 4,6 118.708 6,2 124.071 6,31 114.707 5,8

VaR SS (261gg) "titoli"

82.881 3,1 81.272 3,1 82.846 3,1 62.446 3,6 57.485 3,3 59.483 3,3 65.776 3,4 86.384 4,39 86.562 4,4

VaR SS (261 gg) "risk factor"

85.253 3,1 88.105 3,4 89.125 3,4 51.455 3,0 58.664 3,4 60.451 3,4 62.096 3,3 68.988 3,51 69.786 3,5

VaR Delta-Normal GARCH

89.428 3,3 104.782 4,0 84.152 3,2 76.537 4,4 78.637 4,5 58.281 3,2 107.032 5,6 113.803 5,79 89.172 4,5

VaR HA (0,99) 148.954 5,5 123.345 4,7 115.882 4,4 117.623 6,8 91.005 5,2 82.076 4,6 143.156 7,5 111.595 5,68 98.517 5,0

229

S4) 06/03/2009

PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE

S4) -1M S4) +1M S4) +2M S4) -1M S4) +1M S4) +2M S4) -1M S4) +1M S4) +2M

VM TOT 1.382.176 1.266.779 1.493.384 1.350.015 1.291.499 1.376.539 1.201.086 1.145.374 1.318.367

VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)

VaR Delta-Normal 123.479 8,93 121.000 9,55 141.928 9,50 118.056 8,74 121.082 9,38 128.883 9,36 118.395 9,86 112.595 9,83 131.057 9,94

VaR Asset-Normal 125.601 9,09 122.673 9,68 143.780 9,63 260.357 19,29 248.336 19,23 248.644 18,06 122.034 10,16 116.767 10,19 136.689 10,37

VaR Delta-Normal EWMA(0,99)

135.117 9,78 128.477 10,14 141.687 9,49 131.424 9,73 125.182 9,69 125.680 9,13 130.079 10,83 112.677 9,84 123.059 9,33

VaR Delta-Normal EWMA(0,97)

130.728 9,46 137.376 10,84 138.597 9,28 132.945 9,85 124.453 9,64 116.689 8,48 127.841 10,64 106.759 9,32 108.520 8,23

VaR Asset-Normal EWMA(0,99)

149.956 10,85 142.447 11,24 157.202 10,53 363.856 26,95 288.329 22,33 270.270 19,63 151.525 12,62 135.435 11,82 149.517 11,34

VaR Asset-Normal EWMA(0,97)

147.661 10,68 142.027 11,21 156.813 10,50 363.065 26,89 291.028 22,53 274.055 19,91 151.305 12,60 135.958 11,87 148.785 11,29

VaR SS (261gg) "titoli"

86.556 6,26 81.584 6,44 97.196 6,51 74.431 5,51 69.836 5,41 73.412 5,33 81.422 6,78 74.810 6,53 89.981 6,83

VaR SS (261 gg) "risk factor"

86.530 6,26 83.267 6,57 98.162 6,57 87.650 6,49 83.851 6,49 89.372 6,49 76.637 6,38 73.083 6,38 84.121 6,38

VaR Delta-Normal GARCH

127.780 9,24 121.459 9,59 130.787 8,76 130.742 9,68 118.253 9,16 117.477 8,53 125.662 10,46 107.007 9,34 115.572 8,77

VaR HA (0,99) 90.318 6,53 92.030 7,26 104.995 7,03 93.923 6,96 75.745 5,86 76.552 5,56 96.494 8,03 78.382 6,84 92.281 7,00

230

S5) 12/09/2011

PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE

S5) -1M S5) +1M S5) +2M S5) -1M S5) +1M S5) +2M S5) -1M S5) +1M S5) +2M

VM TOT 1.173.955 1.279.044 1.188.398 1.522.928 1.521.911 1.577.235 1.370.206 1.447.550 1.378.294

VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)

VaR Delta-Normal 42.279 3,6 62.135 4,9 59.145 5,0 48.491 3,2 63.026 4,1 68.999 4,4 45.641 3,3 70.627 4,9 63.496 4,6

VaR Asset-Normal 43.169 3,7 63.141 4,9 60.033 5,1 53.640 3,5 67.531 4,4 73.905 4,7 46.721 3,4 72.352 5,0 66.811 4,8

VaR Delta-Normal EW-MA(0,99)

50.701 4,3 75.475 5,9 71.038 6,0 57.646 3,8 79.430 5,2 84.487 5,4 51.851 3,8 86.616 6,0 76.505 5,6

VaR Delta-Normal EW-MA(0,97)

69.900 6,0 94.412 7,4 86.910 7,3 80.039 5,3 103.872 6,8 103.950 6,6 70.414 5,1 111.112 7,7 94.168 6,8

VaR Asset-Normal EW-MA(0,99)

56.488 4,8 82.288 6,4 75.902 6,4 68.141 4,5 87.680 5,8 92.177 5,8 55.846 4,1 95.369 6,6 97.798 7,1

VaR Asset-Normal EW-MA(0,97)

57.352 4,9 82.691 6,5 76.611 6,4 70.157 4,6 88.823 5,8 93.265 5,9 56.657 4,1 96.297 6,7 98.600 7,2

VaR SS (261gg) "titoli" 47.534 4,0 69.590 5,4 65.332 5,5 49.608 3,3 72.999 4,8 75.679 4,8 45.140 3,3 76.496 5,3 64.180 4,7

VaR SS (261 gg) "risk factor"

45.423 3,9 63.088 4,9 61.352 5,2 48.565 3,2 76.360 5,0 79.135 5,0 37.127 2,7 68.499 4,7 72.365 5,3

VaR Delta-Normal GARCH 66.388 5,7% 72.717 5,7% 69.794 5,9% 46.772 3,1% 88.610 5,8% 79.237 5,0% 90.685 6,6% 77.485 5,4% 73.036 5,3%

VaR HA (0,99) 89.018 7,6% 84.295 6,6% 87.649 7,4% 129.078 8,5% 114.211 7,5% 109.248 6,9% 90.725 6,6% 92.020 6,4% 84.084 6,1%

231

BIBLIOGRAFIA

Adrian T., Brunnermeier M.; CoVaR; Federal Reserve Bank of New York, Staff Reports; 2009

Acerbi C., Nordio C., Sirtori C.; Expected Shortfall as a Tool for Financial Risk Manage-

ment; Abaxbank; 2008.

Albergo F., Strumenti di controllo e analisi del rischio; 2011.

Ambrozewicz M.; A critical note on ΔCoVaR; HTW University of Applied Science

Berlin; 2013.

Artzner P., Delbaen F., Eber J., Carnegie D.; Coherent Measures Of Risk; Mathematical Finance; 1998.

Barone-Adesi G., Giannopoulos K., Vosper L.; Filtering HiStorical Simulation. Backtest Analysis; 2000.

Barone-Adesi G., Giannopoulos, K. Vosper; Non-parametric VaR techniques. Myths and

Realities; 2000.

Bazzana F.; I modelli interni per la valutazione del rischio di mercato secondo l‟approccio

del Value at Risk; ALEA Tech Reports; 2001.

232

Beder T., VaR: seductive but dangerous; Association of investment management ad

Research; 1995.

Bee M.; Elementi di Risk Management Quantitativo; 2006.

Bollerslev T.; Glossary to ARCH (GARCH); Duke University; 2008.

Boudoukh J., Richardson M., Whitelaw R.; A Hybrid Approach to Calculating Value at Risk; Stern School

of Business, NYU; 1998.

Campbell S.; A Review of Backtesting and Backtesting Procedure; Federal Reserve Board;

2005.

Candelon B., Colletaz G., Hurlin C., Tokpavi S.; Backtesting Value-at-Risk: A GMM Du-

ration-Based Test; University of Orléans; 2008.

Chen S.; Nonparametric Estimation of Expected Shortfall; Iowa State University.

Cheung Y., Powell R.; Anybody can do Value at Risk: A Nonparametric Teaching Study;

Australasian Accounting Business and Finance Journal, 2012

233

Cheung Y., Powell R.; Anybody can do Value at Risk: A Teaching Study using Parametric

Computation and Monte Carlo Simulation; Australasian Accounting Business and Finance;

2012.

Christoffersen P., Pelletier D.; Backtesting Portfolio Risk Measures; 2002.

Christoffersen P.; Evaluating Interval Forecasts; International Economic Review; 1998.

Comitato di Basilea; Convergenza internazionale della misurazione del capitale e dei coef-

ficienti patrimoniali; 2004.

Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basilea per la Vigi-

lanza bancaria; 1993.

Comitato di Basilea; Supervisory framework for the use of "backtesting" in conjunction

with the internal models approach to market risk capital requirements; 1996.

Comitato di Basilea; Un approccio basato su modelli interni per l‟applicazione dei requisi-

ti patrimoniali a fronte dei rischi di mercato; 1995.

Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali per incorpo-

rarvi i rischi di mercato; 1996.

234

Comitato per la Regolamentazione Bancaria e le procedure di Vigilanza; Convergenza in-

ternazionale della misurazione del capitale e dei coefficienti patrimoniali minimi; 1988.

Danielsson J., de Vries G.; Value–at–Risk and Extreme Returns; 2000.

Diebold F.,Hickman A., Inoue A., Schuermann T.; Converting 1-Day Volatility to h-Day

Volatility: Scaling by 𝑕 is Worse than You Think; University of Pennsylvania; 1997.

Drost F., Nijman T.; Temporal Aggregation of GARCH processes, Econometrica; 1993.

Duffie D.; Pan J.; An Overview of Value at Risk; 1997

Engle R.; Manganelli S.; CAViaR: Conditional Autoregressive Value at Risk by Regres-

sion Quantiles; 2002.

Flood M.; A brief history of financial risk and information; 2012.

Frye J.; Principals of Risk: Finding Value-at-Risk Through Factor-Based Interest Rate Scenarios; Nations-

Banc; 1997.

Girardi G., Ergün A.; Systemic Risk Measurement: Multivariate GARCH Estimation of

CoVaR; 2012.

235

Goodhart C.; The Basel Committee on Banking Supervision: A History of the Early Years,

1974–1997; Cambridge University Press; 2011.

Haas M.; New Methods in Backtesting; Research center Caesar; 2001.

Hull J., White A.; Incorporating volatility updating into the historical simulation method for value-at-risk;

Journal of Risk; 1998.

Inui K., Kijima M.; On the significance of expected shortfall as a coherent risk measure;

Journal of Banking & Finance; 2004.

Jamshidian F., Zhu Y.; Scenario Simulation: Theory and methodology; 1997.

JP Morgan, RiskMetrics™,Technical Document; 1996.

Jorion P.; Value at Risk; McGraw-Hill; 2007.

Karabey U.; Risk Measures and Risk Capital Allocation; Hacettepe University, Department

of Actuarial Sciences.

Khindanova I.; Value at Risk; University of California, Santa Barbara; 1998

236

KPMG; Financial Risk Management Backtesting Value at Risk Models; 2011.

Koenker R.; Bassett G.; Regression Quantiles; Econometrica; 1978.

Kupiec P.; Techniques for verifying the accuracy of risk measurement models; 1995.

Lanci G.; I sistemi di controllo nelle banche; Aracne editore; 2006.

Li L.; A Realistic Approach to Calculate VaR; International Journal of Economics and

Finance; 2009.

Löfler G., Raupach P.; Robustness and informativeness of systemic risk measures;

Deutsche Bundesbank; 2013.

Lopez J.; Methods for EvaluatingValue-at-Risk Estimates; 1999.

Lopez J.; Regulatory Evaluation of Value-at-Risk Models; Federal Reserve Bank of New

York; 1997.

Lucchetti R.; Appunti di analisi delle Serie Storiche; 2011.

237

MacKenzie D., Millo Y.; The usefulness of inaccurate models: financial risk management

“in the wild”; Department of Accounting, London School of Economics and Political

Science; 2009.

Magarelli S., Engle R., Value at risk models in Finance; 2001.

Magazzini L.; Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione

Lineare; Università di Verona; 2008.

Marshall C.; Siegel M.; Value at Risk:Implementing a Risk Measurement Standard; Finan-

cial Institutions Center

Mishkin F., Eakins S.; Financial Markets and Institutions; Pearson/Prentice Hall; 2012.

NYU Stern School of Business; VAR; <www.stern.nyu.edu>.

Pederzoli C.; Torricelli C.; Una rassegna sui metodi di stima del value at risk (VaR);

Dipartimento di Economia Politica, Università degli Studi di Modena e Reggio Emilia.

Pelessoni R.; Misure di rischio e coerenza; Dipartimento di Matematica Applicata,

Università di Trieste.

238

Pritsker M.; The Hidden Dangers of HiStorical Simulation; 2001.

Resti A., Sironi A.; “Rischio e valore nelle banche”; Egea, 2008

Sarcinelli V.; La vigilanza sul sistema finanziario: obiettivi, assetti e approcci; Moneta e

Credito; 2004.

Schachter B., An Irreverent Guide to Value at Risk; 1997.

Tasche D.; Expected Shortfall and Beyond; 2002.

Trenca I.; The use in banks of value at risk method in market risk management; Università

III Alexandru Ioan Cuza; 2009

West K., Cho D.; The predictive ability of several models of exchange rate volatility;

Jurnal of Econometrics; 1995.

Yamai Y., Yoshiba T.; On the Validity of Value-at-Risk: Comparative Analyses with Ex-

pected Shortfall; Monetary And Economic Studies; 2002.

239

SITOGRAFIA

indices.nyx.com

it.finance.yahoo.com

www.bis.org

www.bloomberg.com

www.borsaitaliana.it

www.chicagofed.org

www.deutsche-boerse.com

www.gloriamundi.org

www.icbenchmark.com

240

www.ideas.repec.org

www.londonstockexchange.com

www.msci.com

www.performancetrading.it

www.ssrn.org

www.unipd.it

241

RINGRAZIAMENTI

Dopo cinque anni di studio matto e disperatissimo, sembra difficile scrivere dei ringrazia-

menti e nondimeno lo devo a chi ha seguito da vicino questo percorso accademico.

Per prima cosa, mi dispiace dover ammettere che ringraziare ognuno di voi sarebbe im-

possibile, un po‟ perché alcuni non sono più qui, e un po‟ perché per farlo, non bastereb-

bero cinque tesi e, almeno per ora, non ho intenzione di buttarmi nuovamente in questa

impresa!

Ma torniamo ai ringraziamenti: in quel lontano autunno del 2008, in cui per la prima volta

varcai la soglia di un‟università nessuno, me compreso, avrebbe scommesso un soldo bu-

cato sulla mia capacità di superare gli studi universitari in così breve tempo e con questi

risultati.

Ed è per questo che sento di dire che la prima persona da ringraziare sono io, per la vo-

lontà titanica, l‟impegno e lo spirito di sacrificio dimostrato e che mai avrei immaginato di

possedere.

In seconda battuta vorrei ringraziare la mia famiglia, per l‟aiuto morale e finanziario of-

fertomi, senza i quali quest‟impresa si sarebbe dimostrata più impegnativa di quanto lo sia

stata.

Prima che questi ringraziamenti perdano di rigore accademico, è doveroso ringraziare il

mio relatore, Professor Pomante, i suoi chiarimenti, i suoi consigli e la sua (forse incon-

scia) capacità di infondere calma e fiducia sono stati fondamentali nel fermento intellettu-

ale e psicologico causato da una tesi di laurea.

Non posso non ringraziare i miei colleghi universitari, sia quelli “della triennale” che

quelli “della specialistica”: se questi cinque anni sono stati una guerra, loro sono stati i

migliori compagni d‟arme che potessi mai avere.

242

Ed infine, i ringraziamenti vanno ai miei amici tutti, tolleranti per le mie assenze causa-

studio e per l‟esaurimento che accompagnava ogni esame, ma sempre pronti a condividere

ogni successo con un cocktail, una torta (il riferimento non è casuale) o una festa.

È dunque la fine?

Probabilmente è la fine di quest‟avventura, ma sicuramente il viaggio continuerà;

d‟altronde, come dicono gli americani: “the best, is yet to come!”