Università degli Studi di Roma "Tor Vergata"
Facoltà di Economia
Corso di laurea in
Economia e gestione degli Intermediari Finanziari
Tesi in Modelli e Tecniche di gestione dei Rischi
Il Value at Risk: metodologie, applicazioni e un caso empirico
Anno accademico 2012/13
Il Relatore
Chiar.mo Prof. Ugo Pomante
Firma
Il laureando
Giovanni Dalla Casa
Firma
“le guerre, si combattono con le armi
ma sono gli uomini a vincerle!”
Generale George Smith Patton, il Generale d‟acciaio.
I
Indice
INTRODUZIONE .............................................................. 1
CAPITOLO 1.
Il Rischio di Mercato e il Value at Risk: definizione
1.1 Il rischio di mercato e il Value at Risk: definizione ............................ 4
1.1.1 Impiego dei modelli VaR .......................................................................... 7
1.2 I limiti del VaR ...................................................................................... 11
CAPITOLO 2.
Approcci di stima del Value at Risk
2.1 I modelli di Local valuation .................................................................. 18
2.1.1 L‟approccio Varianze e Covarianze ........................................................ 19
2.1.1.1 Il calcolo del VaR con l‟approccio Varianze-Covarianze:
I modelli Asset-Normal e i modelli Delta-Normal ............. 30
2.1.1.2 Il risk mapping ................................................................... 34
2.1.2 La stima della volatilità e della correlazione ............................................. 37
2.1.2.1 La volatilità e la correlazione semplice ed esponenziale .. 39
2.1.2.2 I modelli GARCH ............................................................... 47
II
2.2 I modelli di Full Valuation ................................................................... 54
2.2.1 L‟approccio Monte Carlo ........................................................................ 54
2.2.1.1 La stima di un titolo ........................................................... 55
2.2.1.2 La stima di portafoglio ...................................................... 56
2.2.2 Il modello delle simulazioni storiche ...................................................... 59
2.2.2.1 La stima per un portafoglio ............................................... 60
2.2.2.2 Le modifiche all‟approccio Serie Storiche ........................ 62 e l‟approccio ibrido
2.3 Confronto ............................................................................................... 68
2.4 I modelli “alternativi”: il CoVaR, l‟Expected Shortfall, il CAViaR.75
2.4.1 Il CoVaR ................................................................................................. 75
2.4.1.1 Il calcolo del CoVar: quali soluzioni? ............................... 81
2.4.2 L‟Expected Shortfall ............................................................................... 83
2.4.2.1 Le misure di rischio coerenti ............................................. 84
2.4.3 Il CAViaR ............................................................................................... 87
CAPITOLO 3.
Il Var e la sua applicazione: i requisiti patrimoniali
imposti da Basilea a fronte dei rischi di mercato
3.1 L‟impiego del VaR a fini regolamentari:
Il Market Risk Amendment ................................................................. 90
III
3.2 I modelli di backtesting ......................................................................... 96
3.2.1 Test di Unconditional Coverage: POF (Proportion of Failures) e
TUFF (Time until First Failure) ............................................................ 101
3.2.2 Test di indipendenza: il test di Markov ................................................. 103
3.2.3 Test di Conditional Coverage: il test di previsione dell'‟intervallo
e il Mixed-Kupiec test ........................................................................... 106
3.2.4 Test basati sulla funzione di perdita ...................................................... 108
3.3 Il backtesting Basilea ............................................................................ 114
3.4 Basilea II ................................................................................................. 120
CAPITOLO 4.
Il VaR e gli shock di mercato: il caso empirico
4.1 L‟analisi empirica: premessa ............................................................. 125
4.1.1 I modelli selezionati .............................................................................. 125
4.1.2 Il campione adoperato ........................................................................... 126
4.1.3 Gli indici di mercato adoperati .............................................................. 152
4.1.4 Gli shock osservati ................................................................................ 153
IV
4.2 Lo studio dei risultati ottenuti: la ricerca del modello ottimo ........ 161
4.2.1 Il modelli Varianze-Covarianze “ordinari” ........................................... 162
4.2.2 Il VaR e la volatilità: i modelli EWMA e GARCH .............................. 172
4.2.3 Simulazioni Storiche ............................................................................. 184
4.3 Lo studio dei risultati ottenuti:
le anomalie dei modelli Value at Risk ............................................... 191
4.4 Risultato dello studio........................................................................... 198
CONCLUSIONI .............................................................. 200
Appendice A .................................................................................. 202
Appendice B .................................................................................. 205
Appendice C .................................................................................. 212
Appendice D .................................................................................. 215
Appendice E .................................................................................. 225
V
BIBLIOGRAFIA .......................................................................... 231
SITOGRAFIA .............................................................................. 239
RINGRAZIAMENTI ................................................................... 241
1
INTRODUZIONE
Il rischio, nella sua accezione più generica, è inteso come la possibilità che si verifichi un
evento in un determinato luogo e in un determinato momento, e che tale evento danneggi il
soggetto su cui il rischio insiste.
La gestione del rischio, quindi, è un fenomeno che interessa qualunque soggetto, economi-
co e non, nello svolgimento delle proprie attività.
In ambito finanziario, il rischio assume diverse dimensioni e coinvolge diversi ambiti, e ciò
comporta lo svolgimento di operazioni tipicamente connesse al rischio (trasferimento del
rischio, sottrazione dallo stesso, mitigazione o accettazione) e l‟esposizione ad una molte-
plicità di fattori, che conducono a conseguenze sfavorevoli e non.
Nel proposito di identificare i rischi cui un intermediario è soggetto, non si può non consi-
derare il contributo del Comitato di Basilea, e precisamente il regolamento attualmente in
vigore, l‟Accordo di Basilea II, il quale definisce e circoscrive i rischi a cui gli intermediari
sono esposti.
In tal senso, Basilea II individua innanzitutto i rischi di Primo Pilastro, in altre parole quei
rischi misurabili, sempre annoverati nell‟attività di un intermediario finanziario, e in quan-
to tali, oggetto di disciplina peculiare circa la stima degli stessi e l‟accantonamento di capi-
tale:
- Rischio di credito: s‟intende il rischio di subire una perdita nella propria esposizione
a causa del deterioramento del merito creditizio del debitore;
- Rischio di mercato: cioè il rischio di subire una perdita a causa di fluttuazioni del va-
lore di mercato dei titoli in portafoglio o a causa della variazione di valore di variabi-
li che impattano sui titoli stessi (c.d. risk factor);
- Rischio operativo: ovvero la possibilità di subire perdite derivanti dall'inadeguatezza
o dalla disfunzione di procedure, risorse umane e sistemi, oppure da eventi esogeni.
A tali rischi si annettono i rischi di Secondo Pilastro, vale a dire una pluralità di altri rischi
oggetto di una valutazione quali-quantitativa, cui fanno parte, tra gli altri, il rischio di tasso
2
d‟interesse nel “banking book”, il rischio di liquidità, il rischio di concentrazione, il rischio
reputazionale e il rischio di compliance.
Ai fini di questo lavoro, l‟attenzione si concentrerà sul rischio di mercato, prestando parti-
colare attenzione al principale approccio di misurazione della perdita derivante da un va-
riazione del valore di mercato dei titoli: il Value at Risk.
Dagli inizi degli anni ‟70, infatti, fenomeni quali l‟aumento della volatilità delle principali
variabili di mercato, il crack di molte grandi società finanziarie e non e la sempre maggiore
diffusione dei contratti derivati imponevano la creazione di metodi di analisi e quantifica-
zione del rischio sempre più efficienti e trasparenti.
La soluzione al dilemma non tardò ad arrivare: negli anni ‟90 la banca d‟affari J.P. Morgan
implementò un metodo che in singolo valore incorporava l‟esposizione per ogni trading
desk dell‟intermediario, il VaR.
Non passò molto tempo prima che il VaR diventasse punto di riferimento per ogni società
esposta a qualsiasi rischio di mercato e per le stesse autorità di vigilanza, che con il Market
Risk Amendment del 1996 introdussero ufficialmente il metodo tra gli approcci di valuta-
zione del rischio di mercato.
Nonostante la sua realizzazione risalga a molti anni fa, il VaR continua a rappresentare il
punto di riferimento per gli operatori finanziari di tutto il mondo, i quali proseguono
l‟attività di implementazione del modello originale, al fine di definire metodi sempre più
sensibili alle variabili di mercato
Focalizzando l‟attenzione su questo lavoro, nella prima parte si descriveranno i principali
impieghi dei modelli VaR, focalizzando l‟attenzione sulle principali anomalie che accom-
pagnano tale modello.
Proseguendo lo studio, la seconda parte analizzerà i tre metodi di misurazione del rischio
di mercato secondo l‟approccio VaR: il metodo Varianze-Covarianze, il metodo delle Si-
mulazioni Storiche e il metodo Monte Carlo, specificando le varianti create per ognuno di
essi, le caratteristiche, i vantaggi e le problematiche che li accompagnano, con un successi-
vo accenno a modelli alternativi al VaR.
3
Nella terza parte ci si avvicinerà al caso più importante di applicazione di tali modelli: la
stima del rischio di mercato e il conseguente obbligo di accantonamento di capitale, secon-
do quanto definito da Basilea II.
Nella stessa sezione, si delineeranno i backtesting VaR, cioè quei metodi, previsti dal se-
condo Accordo sul capitale, utilizzati per giudicare le capacità estimative degli approcci
Value at Risk.
Nell‟ultima parte si adotterà un orientamento prettamente empirico: con l‟impiego di tre
differenti portafogli, espressione del mercato italiano, tedesco e francese, si verificheranno
le capacità di fitting di svariati modelli VaR, durante le turbolenze finanziarie dell‟ultimo
decennio.
4
CAPITOLO 1.
Il Value at Risk: definizione ed evoluzione
"VaR was developed to provide a single number which could encapsulate information
about the risk in a portfolio”1
1.1 Il rischio di mercato e il Value at Risk: definizione
Qual è la massima perdita che posso conseguire da un investimento?
Le istituzioni finanziarie e chiunque svolga un‟operazione nei mercati finanziari si pone
questa domanda.
Prima di poter dare una risposta, bisogna specificare che un‟attività finanziaria, o un porta-
foglio di attività finanziarie, è principalmente esposto ad un rischio di mercato: per rischio
di mercato si intende il rischio di variazioni del valore di mercato di uno strumento o di un
aggregato di strumenti finanziari connesse a variazioni inattese delle condizioni di merca-
to2.
Questo rischio, a sua volta, si compone di cinque varietà di rischi:
rischio azionario: il valore di mercato di un‟azione è sensibile all‟andamento (rial-
zo/ribasso) del mercato azionario di riferimento (titoli azionari, stock option etc..);
rischio di interesse: il valore degli investimenti di natura obbligazionaria è sensibile
alla variazione della curva dei tassi di interesse;
rischio di cambio: il valore di mercato delle posizioni in valuta è sensibile
all‟andamento dei tassi di cambio (titoli obbligazionari, derivati Fra, Interest Rate
Swap etc..);
rischio merci: esprime perdite sul valore delle posizioni dovute a fluttuazioni sul
corso delle commodities;
rischio di volatilità: il valore di mercato delle posizioni è sensibile alle variazioni
della volatilità delle variabili considerate sopra.
1 Barry Schachter, Chief Risk Officer at Woodbine Capital Advisors
2 I risk factor che a loro volta implicano un rischio di mercato verranno discussi in seguito.
5
L‟innovazione finanziaria in atto e i dissesti finanziari3 che hanno coinvolto l‟economia
mondiale negli anni „90 hanno portato all‟attenzione delle società finanziarie e delle istitu-
zioni sovranazionali il fenomeno del rischio e, in particolar modo, del rischio di mercato.
Tuttavia, già dagli anni ‟80 l‟interesse verso il rischio di mercato è cresciuto esponenzial-
mente, anche a causa di fenomeni quali:
1. L‟evoluzione finanziaria, che ha avuto la sua massima espressione col processo di secu-
ritization, cioè di cartolarizzazione del credito, che ha trasformato attività illiquide (i credi-
ti) in strumenti finanziari negoziabili, e quindi sensibili al rischio di mercato;
2. La nascita degli strumenti finanziari derivati, sensibili alla volatilità delle attività sotto-
stanti;
3. Il generale aumento della volatilità di variabili finanziarie fondamentali;
4. La globalizzazione dei mercati finanziari e di conseguenza l‟accentuata interdipendenza
tra gli stessi;
5. L‟imposizione di requisiti regolamentari e di standard contabili che tengano conto dei
valori di mercato. Tra i primi si annoverano i requisiti di patrimonializzazione imposti da
Basilea II, relativi all‟obbligo di computare il rischio di mercato nella determinazione del
capitale minimo, tra i secondi si considerano i principi contabili IFRS (International Finan-
cial Reporting Standards) che impongono l‟inscrizione in bilancio di alcune poste al valore
di mercato.
I modelli Value at Risk rappresentano lo standard per la quantificazione del rischio, o, più
precisamente, della perdita derivante dal manifestarsi di tale rischio.
Fondamentalmente il VaR è definito come “la massima perdita potenziale in un portafoglio
di strumenti finanziari, limitatamente ad un dato intervallo di confidenza e a un definito o-
rizzonte temporale”4.
L‟enunciato mette in luce due importanti aspetti dell'approccio VaR:
Il VaR “traduce” l‟impatto dei risk factor in perdita.
In questo modo è possibile paragonare strumenti finanziari differenti tra loro, ren-
dendo quindi confrontabili i risk factor associati ai titoli.
3 Tra i casi più eclatanti si ricorda il caso della banca inglese Barings: nel ‟92 (poco prima dell'‟introduzione
dei modelli VaR), il trader Nick Leeson cominciò a svolgere operazioni non autorizzate sull'‟indice Nikkei.
Alla fine del ‟92 le perdite avevano superato i 2 mln di sterline, e a fine ‟94 avevano toccato quota 208 mln.
Un‟ ulteriore esposizione al rialzo portò le perdite a 827 mln. 4 S.Magarelli, R.Engle Value at risk models in Finance; 2001
6
Rispetto ad altre misure di rischio (duration, convexity, beta e le “greche”) il VaR
riesce a sintetizzare in un singolo valore monetario la probabile perdita che scaturi-
sce da diverse posizioni assunte dall‟intermediario (posizioni in valuta, posizioni in
titoli obbligazionari e/o azionari) e dunque da diversi risk factor.
Quindi oltre all'essere un indice immediato del rischio di un portafoglio, il VaR cat-
tura l'esposizione globale di un soggetto a varie fonti di rischio presenti nel portafo-
glio stesso, e ovviamente introduce nel computo la correlazione tra tali fattori.
In ogni modello VaR, la definizione della perdita inattesa si estende su tre step5:
1) Individuare/definire i fattori di rischio che influenzano il portafoglio;
a) ipotizzarne l‟andamento futuro costruendo una distribuzione di probabilità.
2) Definire la relazione tra il valore assunto dal singolo strumento finanziario e il valore
assunto dal relativo fattore di rischio
a) Costruire una distribuzione di probabilità dei rendimenti futuri del portafoglio.
3) Esprimere la distribuzione di probabilità dei rendimenti futuri del portafoglio una misu-
ra di rischio, il VaR, che individua la perdita potenziale realizzabile con una probabilità
del c%, dove c è il livello di confidenza (vedi figura 1.1).
5 Vedi anche C. Pederzoli; C. Torricelli Una rassegna sui metodi di stima del value at risk (VaR) Dipartimento di
Economia Politica - Università degli Studi di Modena e Reggio Emilia
7
Figura 1.1: esempio di calcolo del VaR.
Fonte: <www.chicagofed.org>
1.1.1 Impiego dei modelli VaR
All‟interno del mondo finanziario il VaR è diventato il punto di riferimento per soddisfare
qualunque bisogno inerente la valutazione e l‟analisi dell‟esposizione al rischio, ed in ge-
nerale è molto apprezzato per la sua semplicità e immediatezza.
Pertanto, i modelli VaR trovano impiego per:
Confronto fra rischi diversi.
Come già accennato, i modelli VaR rendono confrontabili rischi differenti, dando la
possibilità di utilizzare un “linguaggio del rischio” omogeneo tra le diverse aree
d‟affari della banca.
Questo rende comparabili i diversi desk o, analogamente, le diverse alternative di
impiego del capitale, consentendo un‟allocazione dello stesso orientata a mercati
più redditizi e/o caratterizzati da condizioni di minore volatilità6.
L‟imposizione dei limiti all‟assunzione del rischio.
In un‟ottica “risk-based”, la banca può essere vista come un‟istituzione che assume
e gestisce una pluralità di rischi, traendone un profitto.
6 Questa seconda affermazione non è sempre valida: difatti la volontà della banca di orientarsi verso mercati
meno volatili, e quindi meno rischiosi, dipende da una serie di fattori, primo fra tutti l'avversione al rischio
della banca.
8
In quest‟ottica, il VaR misura il rischio totale assumibile dalla banca, la quale lo ri-
partisce più o meno equamente tra i differenti desk, quantificando in questo modo il
valore massimo di rischio assumibile dalle diverse aree operative
dell‟intermediario.
Di fatto, si suole distinguere tra più misure nella ripartizione del capitale di rischio.
In particolare, il Capitale a Rischio7 (o CaR) disponibile, individua l‟intero ammon-
tare di capitale che la banca utilizzerà per far fronte alle future perdite inattese; que-
sto capitale viene ripartito in Capitale Allocato tra i differenti desk, e rappresenta
dunque il massimo valore di perdita inattesa assumibile dall'area operativa.
Durante l‟esercizio, le perdite inattese genereranno un assorbimento di capitale;
questo capitale, che viene denominato CaR assorbito o utilizzato, rappresenta la
quota di capitale allocato effettivamente adoperata.
Quindi, ai fini della ripartizione del capitale a rischio appare immediata la distin-
zione tra il capitale a rischio allocato, cioè il capitale dell'‟intermediario ex ante e
il capitale a rischio assorbito/utilizzato, in altre parole il capitale ex post8.
Costruzione di risk-adjusted performance measurement (misure di performance corrette
per il rischio).
Misure di redditività risk-adjusted determinano il risultato economico della posi-
zione, del desk, di un‟area o dell'intera banca, incorporando all‟interno dell'indica-
tore stesso il “fattore rischio” che l‟area ha assunto.
È immediato constatare che generalmente l‟aumento del rischio assunto, o
l‟incremento dell‟ esposizione al rischio conduce ad una maggiore redditività.
Quindi, in sostanza, le misure di redditività corretta per il rischio sono ottenute co-
me un rapporto tra l‟utile e rischio stesso, quest‟ultimo espresso come CaR.
Su questa impronta sono nate le misure RAPM, risk adjusted performance measu-
rement (indicatori di performance aggiustati per il rischio) tra questi l‟indicatore
7 Da qui in poi si parlerà indifferentemente di CaR o Var, in quanto per definizione il CaR è la quantità di ca-
pitale allocata per far fronte a perdite inattese, ma a ben vedere la misura delle perdite inattese ci è data dal
VaR.
Lo stesso F. Albergo, afferma che “Se le perdite devono essere assorbite dal capitale proprio, il concetto di
VaR si trasforma in una misura del capitale a rischio (CaR)” Cfr. F. Albergo, Strumenti di controllo e analisi
del rischio; 2011. 8 G. Lanci; I sistemi di controllo nelle banche; Aracne editore; 2006
9
maggiormente utilizzato è il Raroc9, risk adjusted return on capital (reddito corretto
per il rischio rapportato al capitale) ottenuto come:
𝑅𝑎𝑟𝑜𝑐𝑒𝑥 𝑎𝑛𝑡𝑒 =𝑈𝑡𝑖𝑙𝑒
𝐶𝑎𝑅𝑒𝑥 𝑎𝑛𝑡𝑒
utilizzando il VaR (o Car) allocato, o come:
𝑅𝑎𝑟𝑜𝑐𝑒𝑥 𝑝𝑜𝑠𝑡 =𝑈𝑡𝑖𝑙𝑒
𝐶𝑎𝑅𝑒𝑥 𝑝𝑜𝑠𝑡
utilizzando il VaR assorbito.
In particolare, al fine di rendere omogenee le due grandezze dell'indicatore (utile e
CaR), sarebbe preferibile inserire nel calcolo il CaR assorbito, considerando che il
CaR allocato esula dalle competenza della management del desk e quindi diverreb-
be una variabile non gestibile per la direzione.
Tuttavia l‟utilizzo di tale indicatore può portare a distorsioni nel calcolo della reddi-
tività, basti pensare che il management sarebbe incentivato a ridurre il capitale as-
sorbito (riducendo quindi il rischio assunto) per ottenere un valore maggiore
dell'indicatore.
Per rimediare a questo inconveniente, la prassi suole utilizzare un indicatore basato
sul capitale allocato, ma combinazione di differenti fattori
𝑅𝑎𝑟𝑜𝑐 = 𝑈𝑡𝑖𝑙𝑒
𝐶𝑎𝑅𝑎𝑠𝑠𝑜𝑟𝑏𝑖𝑡𝑜∙𝐶𝑎𝑅𝑎𝑠𝑠𝑜𝑟𝑏𝑖𝑡𝑜𝐶𝑎𝑅𝑎𝑙𝑙𝑜𝑐𝑎𝑡𝑜
Tale indicatore evidenzia la redditività conseguita a fronte dei rischi assunti (uti-
le/CaR assorbito) e la percentuale di patrimonio effettivamente utilizzato (CaR as-
sorbito/CaR allocato).
9
Altri indicatori della “famiglia” RAPM sono il Rorac, return on risk adjusted capital (reddito su capitale
corretto per il rischio) e il Rarorac, risk adjusted return on risk adjusted capital (reddito aggiustato per il ri-
schio su capitale corretto per il rischio).
10
Quindi, un sistema di Risk Management orientato alla misurazione del rischio, si
sviluppa in tre fasi10
:
1. Misurazione del rischio: alla Risk Measurement Unit è affidato il compito di mi-
surazione del rischio, mentre la Risk Control Commitee verificano la corretta al-
locazione delle risorse.
2. Misurazione delle Risk Adjusted Performance
3. Riallocazione del capitale svolta dalla Risk Control Commitee, al fine di miglio-
rare il complessivo profilo di rischio-rendimento.
Definizione del requisito minimo patrimoniale nell‟ambito della regolamentazione ban-
caria11
.
Il Comitato di Basilea ha fatto proprie le metodologie VaR per il calcolo del rischio
di mercato: attualmente l‟organo di vigilanza ha autorizzato le banche ad adottare
propri modelli VaR per il calcolo del requisito patrimoniale a copertura dei rischi,
imponendo agli intermediari finanziari di utilizzare il VaR con un orizzonte tempo-
rale di 10 giorni ed un intervallo di confidenza almeno pari al 99%
Tuttavia, questa concessione incontra alcune limitazioni: innanzitutto i modelli in-
terni assunti dalle banche sono sottoposti ad alcuni vincoli, ed in secondo luogo tali
strumenti vengono sottoposti a stress test da parte dell'autorità di regolamentazione
al fine di verificare l‟adeguatezza del modello utilizzato.
10
Vedi anche F. Albergo, Strumenti di controllo e analisi del rischio; 2011. 11
L‟argomento sarà trattato in maniera più approfondita nel Capitolo 3.
11
1.2 I limiti dei Modelli VaR
Nonostante i modelli VaR abbiano incontrato un‟elevata diffusione in tutte le circostanze
in cui è necessario svolgere una valutazione della propria esposizione al rischio, spesso il
mondo della finanza ha posto l‟accento sulle inadeguatezze di questo approccio.
I modelli VaR trascurano gli eventi eccezionali e le perdite scaturite da tali eventi
Il VaR viene definito come la massima perdita potenziale che può scaturire da un por-
tafoglio dato un determinato intervallo temporale e un dato livello di confidenza.
Quindi la definizione stessa di VaR ammette che possano esserci perdite superiori al
VaR stesso, in un (1-𝛼)% di casi
(1.1) 𝑝𝑟 𝐿 > 𝑉𝑎𝑅 = 1− 𝛼
Dove:
L = perdita
𝛼 = livello di confidenza
Quindi i modelli VaR per definizione non tengono conto degli eventi che hanno una
probabilità di accadimento eccedente il livello di confidenza.
A tal proposito, però, bisogna considerare che attualmente il regolatore impone livelli di
confidenza (99%-99,5%) che consentono di escludere dalla metodologia VaR le perdite
che hanno una percentuale di accadimento molto remota.
Questa percentuale infinitesima espone la banca ad eventi eccezionali; in tal senso è do-
veroso sottolineare che la banca rimane comunque un‟istituzione risk taker, ed in quan-
to tale un soggetto per sua natura esposto ad un rischio che non può del tutto eliminare.
Di conseguenza, il VaR consente di modificare a piacere il livello di confidenza, doven-
do però rimanere decisamente al di sotto della copertura totale.
Inoltre dalla (1.1) è immediato constatare come i modelli VaR prevedono perdite ecce-
denti il VaR stesso, ma niente precisano sull'entità di tale perdita.
Su questa scia, la dottrina ha creato alcuni modelli per la quantificazione della perdita
eccedente, uno di questi è l‟Expected Shortfall12
, definito come il valore atteso di tutte
12
L‟ES sarà oggetto di analisi nel Cap.2
12
le perdite superiori al VaR e di conseguenza calcolato come una media semplice delle
perdite superiori al VaR stesso.
Possono fornire risultati errati
Nel 1995, Beder portava alla luce le inesattezze del VaR13
, dando vita ad un filone di
studi che svelò come il VaR non potesse essere considerata una misura oggettiva, in
quanto fornisce output differenti al variare delle componenti scelte.
In sostanza, Beder utilizza tre differenti portafogli14
e due approcci: un modello di simu-
lazioni storiche, adoperato utilizzando le ultime 100 osservazioni o le ultime 250 osser-
vazioni, e l‟approccio di simulazioni Monte Carlo, che viene adoperato due volte, con
una correlazione calcolata secondo il metodo previsto da RiskMetrics™, e un‟altra cal-
colata secondo le impostazioni di Basilea II.
I quattro approcci risultanti vengono poi utilizzati con una frequenza giornaliera e di
due settimane (Tabella 1.1)
Tabella 1.1: differenti tipi di approccio studiati da Beder
Tipo di simulazione DataBase/ Correlazione Holding Period
Storica Ultime 100 osservazioni Un giorno
Storica Ultime 250 osservazioni Un giorno
Monte Carlo Correlazione “RiskMetrics” Un giorno
Monte Carlo Correlazione “Basilea II” Un giorno
Storica Ultime 100 osservazioni Due settimane
Storica Ultime 250 osservazioni Due settimane
Monte Carlo Correlazione “RiskMetrics” Due settimane
Monte Carlo Correlazione “Basilea II” Due settimane
L‟analisi empirica ha sottolineato come i modelli forniscano differenze significative nel
valore di perdita inattesa causate principalmente dalla scelta di parametri, assunzioni e
metodologie utilizzati nel VaR, che influenzano il risultato finale e che oltretutto, non
sono validi in ogni caso.
13
T. Beder, VaR: seductive but dangerous; Association of investment management ad Research; 1995 14
Per brevità si considererà solamente il portafoglio1, formato esclusivamente titoli generati da stripping di
bond del Tesoro U.S.A.
13
0,49
0,2
0,83
1,7
0,63
1,82
0,68
2
0,670,82
1,29
2,14
0,88
2,61
0,97
2,87
0
0,5
1
1,5
2
2,5
3
3,5Ti
tolo
ass
e
LivConf 95%
LivConf 99%
Fonte: T. Beder, VaR: seductive but dangerous; Association of investment management ad Research; 1995
Ad esempio, basti considerare spesso i modelli di calcolo postulino una distribuzione
normale dei rendimenti, mentre empiricamente è stato dimostrato come alcuni eventi si
manifestino con distribuzioni dissimili rispetto alla normale stessa15
, esponendo
l‟intermediario a perdite elevate.
Ancora, ogni VaR è funzione delle osservazioni passate sulle quali viene svolta una sti-
ma della perdita attesa, assumendo in questo modo che i requisiti che hanno interessato
la distribuzione dei rendimenti fino a quel momento possano proiettarsi anche in futuro,
cosa che non sempre accade.
Infatti, questo approccio comporta una distorsione nella determinazione della grandez-
za: se il periodo di riferimento è stabile, ciò potrebbe comportare una sottostima del ri-
schio, viceversa un lasso di tempo con elevata volatilità impatterà sul calcolo producen-
do una stima eccessivamente elevata.
Le differenze nell‟output fornito sono visibili nelle differenti distribuzioni dei rendimen-
ti di un portafoglio analizzato dalla Beder.
15
Per un‟analisi più approfondita, si veda il Capitolo 2
Grafico 1.1 VaR(%) di un portafoglio calcolato con diversi metodi
14
Figura 1.2: differente distribuzione dei rendimenti di un portafoglio, desunta con differenti metodi
Fonte: T.Beder, VaR: seductive but dangerous; Association of investment management ad Research; 1995
A causa di questa variabilità del risultato, la stessa Beder definisce il VaR una misura
meramente indicativa del rischio, a cui deve essere associata un‟analisi qualitativa da
parte del management, volta a definire l‟effettivo livello di rischio e a considerare fattori
che non possono essere esaminati dagli approcci quantitativi, come il rischio politico e il
rischio personale.
La possibilità di fornire la stima errata ha diffuso anche il concetto che “il VaR viene
sempre in ritardo quando il danno è già fatto”.
Nondimeno, è possibile affermare che questa concezione, più che da un difetto del VaR,
deriva dal fatto che generalmente gli scenari futuri vengano calibrati su dati passati.
Al di là degli errori scaturiti da un campione inadatto alla stima, è fuor di dubbio che
il VaR di portafogli complessi può essere difficoltoso da stimare.
15
Anticipiamo che tra i fattori che rendono la stima particolarmente difficile ci sono:
- La complessità degli strumenti finanziari;
- La dimensione del portafoglio;
- Le approssimazioni introdotte per velocizzare il calcolo;
- L'errore statistico sulla stima del VaR.
L'insieme d‟ipotesi, approssimazioni ed errori statistici introdotti nel calcolo può essere
così rilevante che il risultato finale è superfluo a causa del livello di confidenza ampio
(ad esempio, dietro un VaR= 200 può nascondersi un livello di confidenza che compor-
ta un VaR= 200 ± 10000 euro).
Amplificano instabilità mercati
L‟utilizzo della volatilità come tool per la stima del VaR, può comportare fenomeni di
propagazione delle crisi finanziarie.
Analiticamente se consideriamo che anche un lieve e temporaneo ribasso comporta un
aumento della volatilità, è immediato che tale variazione vada ad impattare sul VaR,
aumentatone il valore.
Successivamente, l‟aumento della perdita giornaliera oltre il limite definito dal capitale
allocato impone al singolo desk di assumere posizioni corte, al fine di ridurre il valore di
mercato del portafoglio e rientrare nella soglia di rischio.
Ricevendo lo stesso segnale operativo, questa operazione viene compiuta da tutti gli o-
peratori finanziari, generando una “corsa alla vendita” e un‟ulteriore aumento espo-
nenziale della volatilità, dalla quale scaturirà un circolo vizioso che provoca fenomeni
di amplificazione esponenziale delle crisi.
Se da una parte è indiscutibile che in presenza di crisi i trader sono spinti a compiere le
stesse operazioni, questo effetto non è da imputarsi all‟utilizzo di modelli VaR, quanto
piuttosto ai meccanismi economico-finanziari, all‟interno dei quali si generano spesso
fenomeni di panico finanziario che amplificano le situazioni di crisi.
16
Mancata subadditività
Matematicamente, dato α, spazio lineare di tutti i numeri aleatori, ρ, un‟applicazione di
α in R e due rischi X e Y una misura di rischio si definisce subadditiva se16
:
∀ 𝑋,𝑌 ∈ 𝛼,𝜌 𝑋 + 𝑌 < 𝜌 𝑋 + 𝜌(𝑌)
Da cui, nel caso del VaR:
𝑉𝑎𝑅 𝑥 + 𝑦 < 𝑉𝑎𝑅 𝑥 + 𝑉𝑎𝑅(𝑦)
Dal punto di vista pratico, è facile constatare come la subadditività rappresenti un requi-
sito indispensabile nel mondo finanziario: se l‟assunzione congiunta di due rischi è me-
no conveniente dell'assunzione degli stessi rischi presi singolarmente, la diversificazio-
ne non esisterebbe e non vi sarebbe convenienza a creare portafogli di titoli più o meno
eterogenei.
Tornando al nostro caso, sebbene nella stragrande maggioranza dei casi il VaR si dimo-
stri una misura subadditiva, alcune evidenze empiriche hanno dimostrato che talvolta il
VaR di portafoglio supera la somma dei VaR dei singoli titoli; e ciò è dovuto perlopiù
all‟incongruenza tra le ipotesi alla base dei modelli e mondo reale (ad esempio quando
si postula una distribuzione normale dei rendimenti, mentre in realtà la distribuzione è
differente).
Questo fenomeno, anche se insolito, rende il VaR una misura di rischio non coerente17
.
16
R. Pelessoni; Misure di rischio e coerenza; Dipartimento di Matematica Applicata, Università di Trieste 17
Secondo gli studi di P. Artzner, F. Delbaen, S.Eber e D. Heath, una misura di rischio viene detta coerente
se presenta le seguenti caratteristiche:
- Invarianza alle traslazioni: l‟aggiunta al portafoglio di una componente risk free (somma di danaro) ri-
duce il rischio dello stesso ammontare
- Omogeneità positiva di grado uno: aumentando la dimensione del portafoglio, aumenta il rischio e di
conseguenza aumenta l‟indice di rischio
- Monotonicità (se in ogni scenario le perdite del portafoglio A sono maggiori delle perdite del portafo-
glio B, allora il rischio di A è maggiore del rischio di B)
- Subadditività
17
Concludendo, anche se i limiti intrinseci e le analisi empiriche possono indurre allo scetti-
cismo circa l‟uso del VaR come strumento per l‟analisi del rischio, due considerazioni de-
vono essere svolte:
1) Il VaR è una misura indicativa della perdita inattesa, e come tale non offre il valore
esatto e puntuale della perdita stessa, bensì una misura “orientativa”.
2) Il VaR deve essere associato con altre misure di calcolo che “purifichino” la misura
di perdita inattesa (come ad esempio l‟Expected Shortfall).
A tal proposito, lo stesso Schachter18
scrive: “No theory exists to show that VaR is the ap-
propriate measure upon which to build optimal decision rules.
VaR does not measure "event" (e.g., market crash) risk. That is why portfolio stress tests
are recommended to supplement VaR. VaR does not readily capture liquidity differences
among instruments.
VaR doesn't readily capture model risks, which is why model reserves are also necessary.
Because VaR does not capture all relevant information about market risk, its best use is as
a tool in the hands of a good risk manager. Nevertheless, VaR is a very promising tool;
one that will continue to evolve rapidly because of the intense interest in it by practition-
ers, regulators and academics”19
.
18
B. Schachter, An Irreverent Guide to Value at Risk; 1997 19
Non esiste nessuna teoria che dimostri che il VaR è la misura appropriata su cui costruire regole decisionali
ottimali. VaR non misura il rischio [di accadimento] di un evento (ad esempio, il crollo del mercato).
Questo è il motivo per cui portfolio stress tests sono consigliati per integrare VaR.
Il VaR non è in grado catturare le differenze di liquidità tra gli strumenti. Il VaR non è in grado di catturare i
rischi di modello, ed è per questo che sono necessarie delle riserve sul modello.
Siccome il VaR non cattura tutte le informazioni pertinenti relative al rischio di mercato, il suo uso migliore è
come uno strumento nelle mani di un buon risk manager. Tuttavia, il VaR è uno strumento molto prometten-
te, che continuerà a evolversi rapidamente a causa del forte interesse da parte degli utilizzatorii, delle autorità
di regolamentazione e degli accademici
18
CAPITOLO 2.
Approcci di stima del Value at Risk
Fondamentalmente, la dottrina individua due differenti famiglie di modelli per la stima del
value at risk: i modelli parametrici, i quali utilizzano parametri statistici (perlopiù la volati-
lità) per la stima della perdita inattesa e i modelli non parametrici, i quali non utilizzano
parametri, bensì simulano, partendo da dati passati, l‟andamento futuro della distribuzione
dei rendimenti.
Inoltre le due famiglie si differenziano per il metodo di valutazione, rispettivamente i mo-
delli parametrici vengono detti di local valuation, in quanto analizzano le variazioni dei fat-
tori di rischio e stimano la variazione del valore del portafogli in modo proporzionale a
quest‟ultime (difatti, il modello parametrico approssima la relazione lineare tra variazione
dei fattori di rischio e variazioni del portafoglio).
Viceversa nella full valuation è necessario costruire una serie di valori del fattore di ri-
schio20
, che possono essere generati casualmente, come nel metodo Monte Carlo, o deri-
vanti dal loro andamento passato, come per le Simulazioni Storiche.
Tali valori vengono poi “convertiti” in valori del portafoglio che, aggregati con le relative
frequenze, formano la distribuzione di probabilità dei rendimenti del portafoglio: sulla di-
stribuzione ottenuta il VaR viene “letto” utilizzando la logica del percentile, “tagliando”
cioè la distribuzione costruita in corrispondenza del percentile scelto; invece di definirlo
come multiplo della deviazione standard come avviene nei metodi di Local Valuation.
Quindi, la differenza tra i due metodi sta proprio nel calcolo delle variazioni di valore del
portafoglio: se nella local valuation è risultato della variazione di alcuni parametri che im-
pattano sul calcolo finale, nella full valuation si esaminano i valori dei fattori di rischio, e il
valore del portafoglio viene completamente rivalutato in relazione ai nuovi valori dei fatto-
ri di rischio; in questo modo viene abbandonata l‟ipotesi di linearità che caratterizza il me-
todo parametrico.
20
Si anticipa che nei metodi Full Valuation è possibile simulare i valori del risk factor, per poi derivare i va-
lori dei tioli attraverso formule di pricing, oppure operare direttamente sui valori dei titoli stessi.
19
2.1 I modelli di Local valuation
2.1.1 L‟approccio Varianze-Covarianze
Tra gli strumenti utilizzati nella stima del VaR, indubbiamente l‟approccio Varianze-
Covarianze rappresenta uno dei modelli più importanti, non solo perché esso rappresenta il
modello utilizzato da J.P. Morgan (e quindi vanta un vasto database e una molteplicità di
software allegati) ma soprattutto perché, essendo un modello local valuation, non richiede
quotidianamente una stima ex novo di tutti i parametri, bensì aggiorna il dato già esistente
per giungere alla stima giornaliera.
L‟immediatezza dell‟approccio Varianze-Covarianze, incontra però alcuni limiti, in parti-
colare esso si basa su alcune ipotesi iniziali:
1. Le variabili aleatorie si distribuiscono normalmente
L‟approccio Varianze-Covarianze presuppone che le variabili aleatorie (cioè i rendi-
menti dei titoli nel modello Asset-normal o le variazioni dei fattori di mercato nel mo-
dello Delta-normal21
) distribuiscano come una funzione normale.
Teoricamente questa ipotesi risulta plausibile, infatti secondo il teorema del Limite
Centrale, anche se i rendimenti dei titoli non risultassero distribuiti come una normale,
il rendimento di portafoglio (essendo un aggregato di titoli e di fattori di rischio indi-
pendenti tra loro) risulterebbe comunque distribuito come una normale22
.
Empiricamente, invece, la distribuzione normale non coglie due importanti fenomeni
spesso presenti nella distribuzione dei rendimenti di portafogli: la leptocurtosi e
l‟asimmetria negativa.
Infatti, studi empirici23
hanno dimostrato che spesso le distribuzioni presentano il fe-
nomeno delle fat tail (code spesse), secondo cui la funzione effettiva presenta valori
estremi con maggiore frequenza rispetto a quanto proposto da una funzione gaussiana;
e questo comporta che l‟approssimazione a una normale tende a sottostimare la proba-
bilità dei valori di coda, che sono quelli rilevanti ai fini della stima del VaR.
21
La differenza tra modelli Asset-normal e modelli Delta-normal verrà discussa nel paragrafo 2.3.2 22
La definizione formale del teorema del limite centrale (Lindemberg e Lévy) sostiene che la somma di una
successione di variabili casuali indipendenti e identicamente distribuite (iid) Xn con valore medio μ e varian-
za finita σ2 converge alla distribuzione Normale, cioè:
𝑍𝑛 ⟶𝑑 𝑍
23 Vedi anche D. Duffie, J. Pan; An Overview of Value at Risk; 1997
20
Ci sono una pluralità di fattori che riconducono alle fat tails, tuttavia esse sono causate
sostanzialmente da due fenomeni: i salti, cioè significativi, discontinui e inattesi cambi
di prezzo e la volatilità stocastica, cioè la volatilità che cambia nel tempo e spesso con
persistenza.
Inoltre, la distribuzione dei rendimenti è spesso più alta e sottile rispetto a quanto pre-
visto dalla normale; questo fenomeno, chiamato thin waist, insieme al quello delle fat
tails rende l‟effettiva distribuzione dei rendimenti leptocurtica24
(Figura 2.1).
Figura 2.1: distribuzione dei rendimenti (leptocurtica) del tasso di cambio dollaro/marco tedesco e confronto con la di-
stribuzione normale
Fonte: JP Morgan, RiskMetrics™,Technical Document; 1996
In secondo luogo, la distribuzione dei rendimenti è interessata anche dal fenomeno
dell'asimmetria negativa o skewness. Infatti ancora una volta i risultati empirici si di-
vergono dai risultati reali, mostrando come spesso il numero di valori inferiori alla
24
La curtosi è un indice statistico relativo alla forma della distribuzione, che individua l‟appiattimento della
funzione di densità, ed è misurata dall‟indice β2 di Pearson.
In particolare se β2>0 la funzione è leptocurtica, cioè più “appuntita” della normale, se β2<0 la funzione è pla-
ticurtica, cioè più “appiattita” rispetto alla normale.
21
media sia maggiore del numero di valori superiore alla media; sostanzialmente, quindi,
la distribuzione reale risulta “fuori asse” rispetto a quanto ci si aspetta nella distribu-
zione Normale.
Come catturare il fenomeno delle fat tails e della skewness all‟interno del modello?
Sostanzialmente, esistono due tipi di approcci: un primo metodo impone di modificare
la distribuzione di probabilità di partenza, ad esempio la distribuzione t di Student25
consente di catturare meglio le distorsioni insite nelle fat tails, essendo caratterizzata
da code più spesse rispetto alla normale.
Un‟ulteriore alternativa alla t di Student è la cosiddetta “mistura di normali”, cioè
l‟aggregazione di più distribuzioni Normali aventi stessa media ma differente varian-
za.
Infatti, se si considerano due normali, una con varianza modesta e un‟altra con varian-
za elevata, attribuendo a quest‟ultima una minore probabilità, si otterrebbe una norma-
le in grado di catturare gli eventi estremi e quindi la leptocurtosi, formalmente:
𝑟𝑡 = 𝑝 ∙ 𝑁 𝜇,𝜍12 + (1− 𝑝) ∙ 𝑁(𝜇,𝜍2
2)
Dove:
N(μ,σ) = Normale
𝜍12=Varianza minore
𝜍22=Varianza maggiore
Un secondo approccio prevede che le modifiche vengano apportate non sulla forma
della distribuzione, bensì sui parametri del modello, incorporando la curtosi e
l‟asimmetria negativa nel calcolo del percentile zα, in particolare:
𝑧𝑎∗ = 𝑧𝛼 +
1
6 𝑧𝛼
2 − 1 ∙ 𝑆 +1
24 𝑧𝛼
3 − 3𝑧𝛼 ∙ 𝐾 −1
36(2𝑧𝛼
3 − 5𝑧𝛼) ∙ 𝑆2
Dove:
zα = percentile scelto
S = skewness (asimmetria negativa)
K = curtosi
25
La funzione t di Student è simmetrica, con media nulla, varianza unitaria ed è definita da un solo parame-
tro, detto “gradi di libertà”: minore è questo parametro, più spesse sono le code della distribuzione.
22
Per approssimare al meglio la distribuzione del titolo, Liangxin Li ha proposto26
una
funzione normale, “modificata” con polinomi di Legendre27
, dunque definita come
𝑓 𝑥 = 𝑎0𝑃0 𝑥 + 𝑎1𝑃1 𝑥 +⋯ 𝜙(𝑥)
Dove:
𝑃𝑠= Polinomi di Legendre
𝜙(𝑥)= Funzione Normale
Mente il VaR è calcolato in maniera “standard”.
Come dimostrato in Figura 2.2, utilizzando polinomi fino al quinto ordine, Li ha svolto
un‟analisi VaR sullo Shanghai stock Exchange, ottenendo una distribuzione significa-
tivamente difforme rispetto alla distribuzione Normale standard28
.
26
Vedi L. Li, A Realistic Approach to Calculate VaR; International Journal of Economics and Finance, 2009 27
I polinomi di Legendre sono polinomi ortogonali nell'intervallo [-1;1], definiti come:
𝑃0 = 1
𝑃1 = 𝑥
𝑃2 = 3𝑥2 − 1 2
𝑃3 = 5𝑥3 − 3𝑥 2
𝑃4 = 35𝑥4 − 30𝑥2 + 3 8
𝑃𝑖(𝑥) = 2𝑖 − 1 𝑃𝑖−1 𝑥 − 𝑖 − 1 𝑃𝑖−2(𝑥) 𝑖 i=2,3 28
Le funzioni utilizzate e i calcoli svolti esulano dalle competenze di questo lavoro, ci limiteremo ad esporre
i risultati.
23
Figura 2.2: Differenti distribuzioni calcolate con differenti polinomi di Legendre: il tratteggio rappresenta la distribuzio-
ne reale, la cura più bassa la funzione normale, la seconda è una funzione con polinomio di Legendre di 1° ordine, la ter-
za con polinomio di 2°ordine mentre l‟ultima con polinomio di 5° ordine
Fonte: L. Li, A Realistic Approach to Calculate VaR; International Journal of Economics and Finance; 2009
2. I rendimenti dei fattori di mercato non sono indipendenti.
Nel punto precedente, si è assunto che il portafogli possa distribuirsi come una norma-
le, partendo dall'ipotesi che i rendimenti dei fattori di mercato siano indipendenti e i-
denticamente distribuiti come una v.c. Normale (iid).
In definitiva un modello plain vanilla assume che il rendimento giornaliero di un titolo
al tempo t+1 sia espresso da:
(2.1) 𝑟𝑡+1 = 𝜇𝑡 + 𝜍𝑡휀𝑡+1
Dove:
𝜇𝑡 = Valore atteso del rendimento in 𝑟𝑡+1, generalmente assunto pari a zero.
𝜍𝑡 = Deviazione standard di 𝑟𝑡+1
In un modello plain vanilla queste due componenti sono costanti.
휀𝑡+1~(0; 1) = shock, rappresentati da un “white noise”29
, indipendenti ed identica-
mente distribuiti (iid), con distribuzione normale standard.
29
Il white noise è un processo stocastico che possiede momenti fino al secondo ordine, costanti nel tempo.
24
Il medesimo risultato si può derivare considerando il valore del titolo, che a sua volta è
funzione del rendimento, il valore giornaliero del titolo è definito da
𝑣𝑡+1 = 𝑣𝑡 + 휀𝑡+1
In cui:
𝑣𝑡+1 = valore del titolo al tempo t+1, (in un modello a rendimenti giornalieri corri-
sponde al valore domani)
𝑣𝑡 = valore del titolo al tempo t (cioè oggi)
휀𝑡~(0,𝜍2) = variazione di valore, cioè il rendimento, distribuito come variabili casuali
normali iid, con media nulla e varianza σ2; analogamente a quanto spiegato nella (2.1).
Di conseguenza, il rendimento ad un giorno sarà definito da
𝑣𝑡+1 − 𝑣𝑡 = 휀𝑡+1
Mentre il rendimento in T-giorni sarà:
𝑣𝑡+𝑇 − 𝑣𝑡 = 휀𝑡+𝑖
𝑇−1
𝑖=0
Che essendo una combinazione di v.c Normali indipendenti e identicamente distribuite
avrà media30
:
𝜇𝑇 = 𝑇 𝜇
Quindi all‟interno di un processo, il white noise è costituito da una serie di variabili casuali a media zero e
varianza costante e tutte incorrelate.
Nel nostro caso si parla di white noise gaussiano, di conseguenza avremo media zero e varianza unitaria. 30
Questo risultato è definito proprietà riproduttiva della variabile casuale Normale, formalmente se
𝑋𝑖 ~ 𝑁(𝜇𝑖 ,𝜍𝑖2) è una sequenza di v.c. indipendenti, allora la v.c. combinazione lineare sarà:
𝑎𝑖𝑋𝑖
𝑛
𝑖=1
~ 𝑁( 𝑎𝑖𝜇𝑖
𝑛
𝑖=1
; 𝑎𝑖
𝑛
𝑖=1
𝜍𝑖2)
25
E varianza
𝜍𝑇2 = 𝑇 ∙ 𝜍2
Quindi la deviazione standard di una realizzazione dei rendimenti di ampiezza T risul-
terà uguale a
(2.2) 𝜍𝑇 = 𝑇 ∙ 𝜍
Quindi il rendimento su un lasso di tempo T (𝑟𝑡+1 + 𝑟𝑡+2 +⋯+ 𝑟𝑡+𝑇) è calcolato de-
rivandolo dal rendimento ad un giorno, attraverso questa approssimazione.
Empiricamente, è stato dimostrato che per molti titoli raramente esiste indipendenza
seriale dei rendimenti, ma che al contrario le variazioni dei fattori di mercato sono ca-
ratterizzate da fenomeni di autocorrelazione; e ciò è tanto più vero quanto più T è pic-
colo (ad esempio nella volatilità ad un giorno o ad una settimana).
Dagli studi svolti da Diebold, Hickman, Inoue, Schuermann31
è stato possibile affer-
mare che in un ambiente non iid, la stima ottima è ottenuta in maniera relativamente
semplice utilizzando un modello GARCH32
, e in particolare un temporal aggregation
of GARCH processes (aggregazione temporale di processi GARCH “deboli”) definito
da Drost e Nijiman33
.
Il confronto produce risultati interessanti: la Figura 2.3 mostra che all‟aumento di T la
formula di Drost e Nijiman riduce le fluttuazioni di volatilità, mentre la formula scala-
re tende ad amplificarle.
Fondamentalmente questo esito dimostra che per T contenuti (come quelli general-
mente utilizzati per il VaR, il quale spesso è applicato su orizzonti brevi, di un giorno,
una settimana, un mese o tre mesi) la formula scalare rappresenta una buona appros-
simazione della realtà, ma su holding period più lunghi tale formula tende a sovrasti-
mare il rischio.
31
Vedi F. Diebold, A. Hickman, A. Inoue, T. Schuermann, Converting 1-Day Volatility to h-Day Volatility:
Scaling by is Worse than You Think; University of Pennsylvania, 1997 32
I modelli GARCH (generalized auto regressive conditional heteroskedasticity), sono modelli che permet-
tono di prevedere la volatilità futura, utilizzando quella passata e considerando che tale volatilità autoregres-
siva, cioè i valori futuri sono influenzati dai valori passati.
Il GARCH verrà visto più approfonditamente. 33
F. Drost, T. Nijman, Temporal Aggregation of GARCH processes, Econometrica;1993
26
Dunque, ipotesi di varianza costante in T giorni assunta dalla tecnica “scalare” può ri-
sultare tanto irragionevole quanto più i titoli tendono ad essere volatili.
Infatti, alcuni strumenti sono interessati ad una fluttuazione cosi persistente che anche
il trading day potrebbe essere un orizzonte temporale troppo lungo: in questi casi, con-
siderare la volatilità per orizzonti più lunghi non solo vieta l‟utilizzo della più banale
volatilità scalata, ma impone la creazione di robusti modelli statistici per la volatilità e
Figura 2.3: la volatilità per T = 10 e T = 90 calcolata scalando la volatilità (immagini superiori) e con il GARCH di Drost e
Nijiman (sulle ordinate si individua la deviazione standard)
Fonte: F. Diebold, A. Hickman, A. Inoue, T. Schuermann, Converting 1-Day Volatility to h-Day Volatility: Scaling by
𝒉 is Worse than You Think; University of Pennsylvania, 1997
27
di modelli che studino i fattori che influiscono sulle variazioni di valore delle posizio-
ni.
3. Ipotesi di linearità dei payoff.
Cosa significa assumere la linearità dei payoff?
Significa ipotizzare che ad una variazione del fattore di rischio faccia seguito una va-
riazione proporzionale del valore di mercato della posizione.
Figura 2.4: relazione tra il valore della posizione e il fattore di rischio, le linee rette rappresentano una relazione propor-
zionale (la linea nera una relazione uno-ad-uno), mentre la linea curva una relazione di non diretta proporzionalità
Fonte: J.P.Morgan/Reuters, RiskMetrics™, Technical Document, 1996
Quindi payoff proporzionali sono caratterizzati da una retta a pendenza costante, indi-
viduata dal Delta, (che varia da -1 a +1).
In tal senso si parla di approccio Delta-Normal, cioè di un metodo mediante il quale,
sfruttando la relazione di linearità della relazione “fattore di mercato-valore del titolo”,
il VaR è calcolato non sulla base della deviazione standard del titolo, bensì sfruttando
la volatilità del fattore di mercato che impatta sul titolo stesso34
.
34
Degli approcci Asset-normal e Delta-normal si parlerà in seguito
28
Formalmente:
∆𝑋𝑖 =𝑑𝑋𝑖𝑑𝑓𝑖
∆𝑓𝑖
Dove:
𝑋𝑖= Valore di mercato della posizione
∆𝑋𝑖=Variazione del valore di mercato della posizione (rendimento)
∆𝑓𝑖= Variazione del fattore di rischio
𝑑𝑋𝑖𝑑𝑓𝑖
= Derivata prima
Come si può notare, vi è una diretta proporzionalità tra la variazione del fattore di ri-
schio e la variazione di valore della posizione.
Tuttavia, se assumere la linearità dei payoff per la stima della perdita attesa di un por-
tafoglio titoli azionari o di un future su tassi di cambio è una buona approssimazione
della realtà, ciò non è lo stesso per il calcolo del VaR di altri strumenti finanziari.
Difatti, la relazione che intercorre tra la variazione di prezzo di un bond e la variazione
del tasso d‟interesse è non lineare (anche se spesso viene assunta tale) come non linea-
re è relazione tra il valore dell'opzione e la variazione del sottostante35
.
Di conseguenza, utilizzare una relazione lineare tra titolo e fattore di rischio non co-
glierebbe a pieno il nuovo valore di mercato dello strumento, comportando una distor-
sione tanto più grande quanto maggiore è la variazione del fattore di rischio e, consi-
derando che il VaR viene calcolato sulla base di quelle 1-c peggiori variazioni, una
falsificazione peserebbe notevolmente.
Per ovviare a questa distorsione si può optare per due metodi differenti: utilizzo della
Simulazione Monte Carlo, o l‟approccio delta-gamma.
La Simulazione Monte Carlo36
imponendo di creare un elevato numero di scenari e va-
lutando lo strumento per ognuno di essi permette di superare il problema della non li-
nearità.
35
Nello studio della non linearità dei payoff, le opzioni rappresentano un caso a sé.
Infatti occorre considerare che alcune opzioni presentano payoff non solo non lineari, ma anche non monotò-
ni e non derivabili
Inoltre a differenza delle azioni e delle obbligazioni in cui vi è un solo fattore di rischio, rispettivamente il
mercato di riferimento e il tasso di interesse, nelle opzioni vi sono una pluralità di fattori di rischio, le cosid-
dette “greche”
29
Invece, il metodo delta-gamma consente di fronteggiare la relazione non lineare con
l‟utilizzo del secondo grado in serie di Taylor37
della funzione, abbandonando quindi
l‟ipotesi di linearità e considerando anche la convessità38
. Formalmente
∆𝑋𝑖 =𝜕𝑋𝑖𝜕𝑓
𝑖
∆𝑓𝑖 + 0.5𝜕2𝑋𝑖
𝜕𝑓𝑖2 ∆𝑓𝑖
2
Dove Gamma misura la variazione di secondo ordine, cioè la variazione del Delta al
variare dei fattori di mercato (da qui il nome Delta-Gamma):
Γ = 0.5𝜕2𝑋𝑖
𝜕𝑓𝑖2 ∆𝑓𝑖
2
E
𝜕2𝑋𝑖
𝜕𝑓𝑖2 = Derivata seconda
Il perfezionamento apportato da tale modifica risulta tanto maggiore quanto maggiore
è il periodo considerato, quindi per periodi molto brevi risulta utile fermarsi al primo
grado della serie di Taylor.
36
La Simulazione Monte Carlo verrà analizzata più approfonditamente nel Par. 2.2.1 37
In matematica si definisce serie la somma degli infiniti termini di una successione numerica, e la serie di
Taylor è una serie di potenze. Di conseguenza una serie di Taylor di second‟ordine è una serie troncata alla
seconda potenza. 38
Si veda anche C. Pederzoli, C.Torricelli; Una rassegna sui metodi di stima del value at risk (VaR); Dipar-
timento di economia politica, Università degli studi di Modena e Reggio Emilia, 1999
30
2.1.1.1 Il calcolo del VaR con l‟approccio Varianze-Covarianze:
i modelli Asset-Normal e Delta-Normal
Come stimare la massima perdita possibile?
Con l‟approccio Varianze-Covarianze è possibile stimare il VaR sulla base del metodo ori-
ginariamente creato da J.P. Morgan & RiskMetrics™, denominato metodo Asset-Normal:
il modello prevede di calcolare il VaR partendo dalla distribuzione dei rendimenti del tito-
lo; quindi il valore a rischio risulterà il prodotto tra:
(2.3) 𝑉𝑎𝑅 = 𝑊0| R−𝑧𝛼 𝜍| V. monetario
(2.4) 𝑉𝑎𝑅 = R − 𝜍𝑧𝛼 V. percentuale
Dove
𝑊0 = Valore di mercato del titolo
R = Rendimento medio della posizione all‟interno dell'holding period
𝜍 = (𝑅𝑖−𝑅)2𝑛𝑖=1
𝑛−1 = Volatilità (misurata dalla deviazione standard) dei rendimenti del titolo
𝑧𝛼 = α-esimo percentile della distribuzione, associato al livello di confidenza scelto39
Per convenzione il VaR viene riportato come valore assoluto, in quanto essendo “la mas-
sima perdita possibile” è implicito che rappresenti un valore negativo40
.
Tuttavia nel calcolo del VaR per derivati in posizione short è intuitivo anteporre il segno
negativo, che, in questo caso, non indica la perdita prodotta ma l‟effetto di diversificazione
originato dalla posizione stessa.
In particolare, la proprietà della funzione di distribuzione normale standard, cioè con media
μ=0 e varianza σ=1 N(𝑧𝛼 ;0;1) permette di individuare una relazione biunivoca tra il livello
di confidenza prescelto 1-α e il percentile ad essa associato.
In parole più semplici, approssimare la distribuzione ad una variabile normale standardiz-
zata permette di “convertire” un valore soglia x in un percentile zα, evitando l‟utilizzo della
funzione di densità cumulata, semplificando notevolmente i calcoli41
.
39
Talvolta viene scritto come 𝑁−1(𝛼) 40
In particolare il livello di confidenza α esprime i peggiori rendimenti a partire da un livello soglia, di con-
seguenza il percentile zα sarà l‟unico valore negativo; in quanto si colloca sulla coda destra della distribuzio-
ne (che ha media 0).
31
Generalmente, la stima del VaR è compiuta assumendo un rendimento medio nullo, innan-
zitutto perché in questo modo si ottiene una distribuzione Normale e centrata sullo zero,
riproducendo una normale standardizzata che ci permette, come visto poc‟anzi, di ottenere
in maniera immediata il percentile partendo dal livello di confidenza scelto.
Inoltre, con questa approssimazione è possibile semplificare ulteriormente il calcolo del
VaR, che verrebbe misurato come multiplo della deviazione standard; ed infine è empiri-
camente dimostrabile che la media giornaliera è pressoché sempre nulla, rendendo
quest‟assunzione accettabile e non distorsiva ai fini del calcolo della perdita:
(2.5) 𝑉𝑎𝑅 = 𝑊0|𝑧𝛼 |𝜍
E la deviazione standard risulterà:
𝜍𝑖 = 𝑅𝑖
2𝑡𝑖=1
𝑛 − 1
Quindi dalla (2.5) è facile constatare che, se se la distribuzione dei rendimenti è approssi-
mabile ad una normale standardizzata N(0,1), il multiplo della deviazione standard zασ rap-
presenta una buona proxy del rischio dello strumento finanziario.
41
In sostanza, dato un valore soglia x e una distribuzione normale N(x;μ;σ), calcolare la probabilità che si
verifichi un evento più grave del nostro valore soglia (in questo caso, più grave del VaR) sarà dato dall'inte-
grale della funzione di ripartizione:
1
2𝜋𝜍× 𝑒−
𝑥−𝜇2𝜍
2
= 𝛼𝑥
−∞
Viceversa, utilizzare una normale standardizzata N(zα;0;1) permette di adoperare il percentile zα, che rappre-
senta una trasformazione del valore soglia x:
𝑧𝛼 =𝑥 − 𝜇
𝜍
Da cui N(zα) = α
32
E' opportuno sottolineare che la (2.5) vale nell'ipotesi di orizzonte temporale di un giorno
(ovvero t=1), mentre se si volesse considerare la volatilità giornaliera per holding period
più lunghi, bisognerà applicare (conservando l‟ipotesi di incorrelazione temporale dei ren-
dimenti) la (2.2);
𝜍𝑇 = 𝑇𝜍
Se la stima del valore a rischio per una posizione è multiplo della volatilità, il VaR di un
portafoglio impone di introdurre nella stima la diversificazione tra titoli.
In parole povere, la non perfetta correlazione42
fa sì che i titoli non si muovano all‟unisono
nella stessa direzione, ad esempio se all‟interno del portafoglio il valore di un titolo dimi-
nuisce, non necessariamente accadrà lo stesso per tutti gli altri.
Concretamente, la diversificazione porta ad una riduzione del rischio globale del portafo-
glio, e una misura di rischio qual è il VaR deve incorporare tale fattore; di conseguenza il
calcolo del VaR di un portafoglio è definito da43
:
𝑉𝑎𝑅𝑁 = 𝑉𝑎𝑅𝑖2
𝑁
𝑗=1
𝑉𝑎𝑅𝑗2𝜌𝑖 ,𝑗
𝑁
𝑖=1
La prova empirica dimostra che il VaR di portafoglio risulta inferiore alla somma dei VaR,
anche se, come dimostrato nel Capitolo 1, il VaR non presenta subadditività, e per questo
motivo non può essere considerato una misura di rischio coerente.
Dunque se il metodo Asset-Normal impone di definire la correlazione tra tutti i titoli in
portafoglio, è immediato appurare che in presenza di portafogli complessi il processo di-
venta eccessivamente articolato, minando il beneficio dell'immediatezza44
.
42
La correlazione 𝜌 indica la tendenza di due variabili di variare all‟unisono.
𝜌 ∈ −1; 1 , dove se ρ=-1 le due variabili sono inversamente correlate, se ρ=1 esse sono perfettamente corre-
late; nel nostro caso il VaR di un portafoglio composto da titoli perfettamente correlati è la somma dei VaR
dei titoli stessi. Essa è calcolata come:
𝜌𝑖 ,𝑗 =𝜍𝑖 ,𝑗
2
𝜍𝑖𝜍𝑗
Dove 𝜍𝑖 ,𝑗2 è la Covarianza tra il generico titolo i e il generico titolo j
43 Per la dimostrazione di questo risultato, si veda l‟Appendice A.
44 Il numero di correlazioni da calcolare per n titoli è definito dalla formula 𝑁𝜌 = 𝑛(𝑛 − 1)/2, quindi per un
portafoglio composto da soli 30 titoli, è necessario calcolare 435 correlazioni!
33
Per questo motivo in presenza di portafogli significativi il calcolo del VaR viene effettuato
con il metodo Delta-Normal45
, il quale permette di calcolare il VaR approssimando la vola-
tilità del titolo, calcolata a partire dalla volatilità del fattore di rischio che “insiste” sul tito-
lo, ponderata per un fattore di correzione.
(2.6) 𝑉𝑎𝑟 = 𝑊0𝑧𝛼𝛿𝜍𝑓46
Tuttavia, l‟approccio Delta-Normal non rappresenta un miglioramento dell'approccio gene-
rale, bensì sposta il trade off precisione-calcolo a favore del primo, consentendo quindi
maggiore rapidità nei calcoli a fronte di una stima più imprecisa.
Infatti, il metodo Delta-Normal consente di “aggregare” titoli: posto che posizioni legate
dallo stesso fattore di rischio sono dipendenti da un‟unica variabile aleatoria, il risk factor
appunto, il VaR di più titoli quotati nello stesso mercato è ottenuto dalla somma del VaR
dei singoli titoli, in formule
𝑉𝑎𝑅𝑁 = 𝑉𝑎𝑅𝑖
𝑁
𝑖=1
Questa approssimazione rappresenta il vero vantaggio del metodo Delta-Normal: nel calco-
lo del VaR di portafogli eterogenei è possibile semplificare le operazioni, in quanto il VaR
sarà calcolato considerando solo la correlazione tra diversi fattori di rischio, anziché tra
titoli.
45
Il metodo Delta-Normal rappresenta un‟applicazione particolare del modello CAPM.
Per conoscere la relazione tra i due modelli, si rimanda all‟Appendice B. 46
Nella formula è stato assunto un rendimento medio nullo.
34
Un ulteriore alleggerimento dei calcoli, sia per l‟approccio Delta-Normal che per
l‟approccio Asset-Normal è fornito utilizzando l‟algebra matriciale: in questo senso il VaR
del portafoglio è definito da:
𝑉𝑎𝑅𝑝 = 𝑉𝑎𝑅 × 𝐶 × 𝑉𝑎𝑅𝑇
Dove
𝑉𝑎𝑅𝑇 =
𝑉𝑎𝑅1
𝑉𝑎𝑅2
⋮𝑉𝑎𝑅𝑛
= Vettore colonna che ha come componenti il VaR dei titoli
𝐶47 =
1 𝜌12 ⋯ 𝜌1𝑛
𝜌21 1 ⋱ ⋮⋮ ⋱ 1 1𝜌𝑛1 𝜌𝑛2 … 1
= Matrice delle correlazioni, nell‟approccio Asset-Normal
sono misurate le correlazioni tra titoli, mentre nell‟approccio Delta-Normal interesserà i
fattori di rischio.
𝑉𝑎𝑅𝑇 = Vettore trasposto
2.1.1.2 Il risk mapping
Come è possibile stimare i fattori di rischio a cui un generico portafoglio è esposto?
Come già illustrato, l‟applicazione del metodo Delta-Normal comporta la possibilità di cal-
colare il VaR partendo dal fattore di rischio che incide sul titolo.
Ciò implica la decomposizione delle attività finanziarie presenti in portafoglio in strumenti
più semplici, esposto ognuno ad un risk factor: questa procedura è detta “risk mapping”.
Quindi mappare un portafoglio, significa “scomporre” i titoli e ridefinire il portafogli in
base ai fattori di rischio sottostanti.
L‟applicazione del risk mapping varia in base allo strumento finanziario:
- Titoli di debito: all‟interno di un portafogli è possibile trovare titoli caratterizzati da
scadenze molto differenti, sui quali di conseguenza insistono differenti risk factor.
47
Se si moltiplica qualunque elemento di C per le deviazioni standard si ottiene una matrice Varianze-
Covarianze Σ, dove nella diagonale principale troviamo le varianze, mentre negli altri elementi le Covarianze
tra la generica i-esima variabile e la generica j-esima variabile.
35
Ad esempio, un titolo con maturity 3 mesi, sarà influenzato dalla volatilità dei tassi a
tre mesi, mentre un titolo a 30 anni e 4 giorni sarà interessato dal risk factor equiva-
lente.
Si può intuire che l‟utilizzo di tutte le scadenze obbligazionarie, e quindi dei risk fac-
tor associati, genera una pluralità di operazioni nel calcolo della correlazione, e così
verrebbe meno il vantaggio di semplificazione offerto dall'approccio Delta-Normal.
La soluzione è fornita dal metodo del clumping di RiskMetrics™48
: l‟obiettivo è di
decomporre il titolo obbligazionario in due flussi di cassa fittizi, a scadenze standar-
dizzate, dette vertici di RiskMetrics™:
1m 3m 6m 12m 2yr 3yr 4yr 5yr 7yr 9yr 10yr 15yr 20 yr 30yr
In questo modo si ottengono al limite49
tredici titoli zero coupon su cui applicare il
metodo Delta-Normal.
L‟utilizzo del clumping, impone però due condizioni:
- Uguaglianza del valore di mercato: il valore del titolo generante deve essere ugua-
le alla somma dei valori dei titoli generati;
- Uguaglianza della rischiosità: la Duration modificata del titolo originario deve es-
sere uguale alla somma delle duration modificate dei titoli derivati.
48
In realtà Riskmetrics utilizza una variante del clumping, basata sulla price volatility, basata
sull‟equivalenza tra la volatilità del titolo e la somma delle volatilità dei titoli derivati. Nel complesso I meto-
di sono analoghi. 49
Ovviamente, non è detto che ci sia un flusso per ogni scadenza!
36
Come definito dalla (2.6), calcolare il VaR comporta la definizione del fattore di ri-
schio e del coefficiente di sensitività; nelle obbligazioni questi due elementi sono
rappresentati rispettivamente dalla volatilità del tasso di interesse (per ogni scadenza
dello ZC) e dalla Duration Modificata50
.
𝑉𝑎𝑅 = 𝑊0𝑧𝛼𝐷𝑀𝜍𝑡𝑎𝑠𝑠𝑜 51
- Titoli azionari: le posizioni in azioni sono sensibili unicamente al proprio mercato di
quotazione. Dunque, la volatilità del titolo sarà determinata dalla volatilità dell'indice
di quotazione e da un fattore di sensibilità, che per le azioni è rappresentato dal Be-
ta52
del titolo.
𝑉𝑎𝑅 = 𝑊0𝑧𝛼𝛽𝑗𝜍𝑚
Coerentemente all'approccio Delta-Normal, il VaR di portafoglio per titoli azionari
quotati nello stesso mercato, sarà calcolato come la somma del VaR dei titoli.
- Foward/Future53
: mappare gli strumenti finanziari più complessi significa scom-
porli negli equivalenti strumenti elementari (bond, titoli di capitale) per poi trattare
questi ultimi separatamente.
Per definizione, il VaR di strumenti derivati Foward o Future è equivalente al VaR
del titolo sottostante.
Tuttavia, come già chiarito, il tipo di posizione long o short influenza il segno del
VaR: il beneficio di diversificazione all‟interno del portafoglio, scaturita da una po-
50
La Duration Modificata è un indicatore utilizzato per calcolare la variazione percentuale del prezzo di un
titolo contestuale alla variazione dei tassi d‟interesse. Essa è definita da
𝐷𝑀 = 𝐷 (1 + 𝑟)
Dove 𝑟 è il tasso di sconto e D la duration, calcolata come
𝐷 =1
𝑊0
× 𝑡𝑐𝑡
(1 + 𝑟)𝑡
𝑇
𝑡=𝜏
51 Come precendentemente specificato (Par. 2.3.1) si assume una relazione lineare tra la variazione del fattore
di rischio e la variazione di valore del titolo, anche se per le obbligazioni questo rappresenta
un‟approssimazione forzata. 52
Vedi Appendice B 53
Come già specificato, per motivi di brevità non si analizzerà il VaR di altri strumenti derivati
37
sizione short, impone di anteporre il segno negativo quando vende il derivato, e po-
sitivo quando lo si acquista.
- Posizioni in valuta: il VaR di una posizione in valuta è calcolato utilizzando la vo-
latilità del tasso di cambio tra le due valute.
Si può affermare che per questo tipo di posizioni venga utilizzato un metodo Asset-
Normal, in quanto il VaR viene calcolato utilizzando la volatilità dell'asset stesso
(valuta nazionale a fronte di valuta estera), senza dunque inserire il fattore di sensi-
tività.
𝑉𝑎𝑅€ = 𝑉𝑀¥ × 𝑧𝛼 × 𝜍𝑡𝑎𝑠𝑠𝑜 € ¥
Nondimeno, all‟interno di un portafoglio è possibile che vi siano assets sui quali in-
sistono più fattori di rischio: quindi gli strumenti finanziari prezzati con una divisa
diversa da quella utilizzata generano una posizione anche sul cambio.
Quindi in questa circostanza l‟obiettivo sarà quello di splittare l‟asset nei differenti
fattori e calcolare il VaR per ognuno di essi.
2.1.2 La stima della volatilità e della correlazione
Quanto detto finora spinge a una conclusione essenziale: la stima della volatilità rappresen-
ta un elemento importante per il calcolo del VaR.
A tal proposito molti studi sono stati compiuti per ottimizzare la stima della volatilità,
giungendo alla conclusione che la stima di varianze e correlazioni può essere effettuata uti-
lizzando dati desunti dal mercato (option-implied data) o dati storici.
Nel primo caso i parametri si ricavano utilizzando i derivati, i quali forniscono informazio-
ni sul futuro andamento dei valori degli assets: verosimilmente le opzioni non sono che
scommesse sulla volatilità dei prezzi delle attività sottostanti, quindi i premi contrattati per
il derivato sono espressione delle aspettative (circa l‟andamento del sottostante) degli inve-
stitori che agiscono sul mercato.
38
In sostanza, la formula di Black e Scholes permette di prezzare un‟opzione call o put in as-
senza di arbitraggio, definite per t = 0 rispettivamente da:
𝑐 𝑆; 0 = 𝑆0𝑁 𝑑1 − 𝐾𝑒−𝑟𝑇𝑁(𝑑2)
𝑝 𝑆; 0 = 𝐾𝑒−𝑟𝑇𝑁 −𝑑2 − 𝑆0𝑁 −𝑑1
E
𝑑1 =ln(𝑆0 𝐾) + (𝑟 + 𝜍2 2)𝑇
𝜍 𝑇
𝑑2 =ln(𝑆0 𝐾) + (𝑟 − 𝜍2 2)𝑇
𝜍 𝑇
Dove:
𝑒−𝑟𝑇 = Fattore di sconto in cui 𝑟 è il tasso risk free
𝐾 = Strike price dell'opzione
𝑆0 = Valore del sottostante al tempo 0
Dunque, calcolare la volatilità implicita comporta l‟utilizzo inverso delle formule di Black
e Scholes: dato il valore di un‟opzione a t = 0 e conoscendo lo strike price e il valore del
sottostante.
Generalmente questo tipo di stima risulta più accurata rispetto a quella Storica, il problema
è che la volatilità implicita dell'opzione si riferisce all‟orizzonte temporale dell'opzione
stessa, e spesso quest‟ultima non coincide con l‟holding period del modello VaR.
Inoltre, gli investitori a loro volta formulano le proprie aspettative sulla base dell'andamen-
to dei prezzi passati, quindi dalla volatilità Storica.
Il secondo sistema per stimare la volatilità è appunto quello di analizzare i valori passati e,
assumendo che tali valori si riproporranno in futuro con le stesse modalità, utilizzarli per
compiere una stima della volatilità.
39
2.1.2.1 La volatilità semplice ed esponenziale
Esistono diverse tipologie di metodi per inserire i dati storici nel calcolo della stima, in
primo luogo si citano metodi „naive‟ con i quali il valore della deviazione standard 𝜍𝑡 è
stimata calcolando la volatilità nel periodo precedente, di ampiezza pari all‟holding period.
Tuttavia, in questo modo si assume implicitamente che i rendimenti siano distribuiti come
v.c. Normali iid (𝑅𝑒𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 = 휀𝑡~(0,𝜍2)) e ,conseguentemente, che la volatilità sia co-
stante nel tempo (ipotesi di distribuzione omoschedastica54
).
Nondimeno, come già accennato55
, spesso non esiste indipendenza seriale dei rendimenti,
in quanto la volatilità del titolo o dei fattori di mercato è caratterizzata da fenomeni di au-
tocorrelazione.
Al contrario gli „averaging methods‟, definiscono la stima disponendo comunque di valori
passati, ma utilizzando una media mobile, ovvero una finestra di riferimento di ampiezza
fissa, in cui il passare del tempo comporta continua fuoriuscita dal campione dei dati più
vecchi e l‟entrata dei valori più recenti, e ciò consente la continua ridefinizione del cam-
pione di riferimento.
In questo modo, si assume implicitamente che la distribuzione sia caratterizzata da volatili-
tà “mutevole” nel tempo, in accordo con l‟ipotesi di eteroschedasticità.
In formule, la stima della volatilità per il periodo t+1, data l‟informazione disponibile nel
periodo t è:
𝜍𝑖 ,𝑡+1 = 1
𝑀 𝑟𝑖 ,𝑡−𝑘 − r 𝑖
256
𝑀
𝑘=0
In cui:
𝑀 = Ampiezza del campione
𝑟𝑖 ,𝑡−𝑘 = Rendimento dell' i-esimo fattore, realizzato al tempo t-k
r 𝑖 = Rendimento medio
54
Un processo si definisce omoschedastico quando la sua varianza è costante nel tempo o, più precisamente,
quando la varianza dei suoi residui (differenza tra il valore teorico y' ricavato dal modello ed il valore reale
incognito di y) è costante. 55
Vedi Par. 2.1.1, punto 2 56
Si è ipotizzato un rendimento medio non nullo
40
Di conseguenza, la correlazione sviluppata in un ambiente a medie mobili sarà
𝜌𝑖𝑗 ,𝑡+1 =𝜍𝑖𝑗 ,𝑡+1
2
𝜍𝑖 ,𝑡+1𝜍𝑗 ,𝑡+1
Dove:
𝜍𝑖𝑗 ,𝑡+1 = Covarianza tra il titolo i e il titolo j, definita come
𝜍𝑖𝑗 ,𝑡+1 = 1
𝑀 𝑟𝑖 ,𝑡−𝑘 − r 𝑖 𝑟𝑗 ,𝑡−𝑘 − r 𝑗
𝑀
𝑘=0
𝜍𝑖 ,𝑡+1 = Deviazione standard del titolo i-esimo
𝜍𝑗 ,𝑡+1 = Deviazione standard del titolo j-esimo
Si può intuire che il metodo a medie mobili semplici (SMA, Simple Moving Average) attri-
buisce lo stesso peso a tutte le osservazioni all‟interno di un campione.
Questa caratteristica porta a due considerazioni: la scelta dell'intervallo su cui misurare la
volatilità e il ghost effect.
Per quanto riguarda la scelta dell'intervallo di riferimento, utilizzare una finestra molto
ampia offre maggiori informazioni e rende più stabile la volatilità, ma riduce il peso per le
osservazioni più recenti, in quanto, aumentando il numero di osservazioni, diminuisce il
peso di ognuna di esse nel calcolo della volatilità.
In secondo luogo, un modello a medie mobili produce il cosiddetto ghost effect: se si uti-
lizza una finestra mobile, un improvviso shock della volatilità persisterà sempre col mede-
simo peso all‟interno della finestra di stima, dunque, all‟ingresso dell'osservazione shock,
si realizzerà un aumento della volatilità, ma con la scomparsa dell‟osservazione dalla fine-
stra la volatilità subirà una brusca riduzione, motivata dalla riduzione della varianza e non
da fenomeni empirici.
Nondimeno, in un ambiente eteroschedastico, è legittimo ipotizzare che 𝜍𝑡 sia più influen-
zata da 𝜍𝑡−1 che da 𝜍𝑡−2, e che a sua volta 𝜍𝑡−2 “impatti” su 𝜍𝑡 in misura maggiore rispetto
a 𝜍𝑡−3.
41
In sostanza, si sta dicendo che le volatilità più recenti “pesano” maggiormente sulla volati-
lità attuale rispetto alle volatilità passate, e questo rende inesatta la stima compiuta col mo-
dello SMA.
Per evitare una stima distorta, nonché eliminare il ghost effect è necessario definire un mo-
dello di volatilità in cui il peso assegnato alle osservazioni vari in base ad un preciso crite-
rio.
Nel 1996 J.P. Morgan costruì il modello a medie mobili esponenziali (EWMA, Exponen-
tial Weighted Moving Average) in cui viene assegnato un peso maggiore agli scarti quadra-
tici più recenti, consentendo di stimare in maniera più attendibile la volatilità, che quindi è
maggiormente influenzata da osservazioni più vicine rispetto che ad osservazioni più lon-
tane.
Nella pratica, l‟Ewma consiste nel pesare una variabile, nel nostro caso lo scarto quadrati-
co medio, con la stessa costante ma con potenze diverse, in formule:
𝜍𝑖 ,𝑡2 =
𝑟𝑖 ,𝑡−1 − r 𝑖 2
+ 𝜆 𝑟𝑖,𝑡−2 − r 𝑖 2
+ 𝜆2 𝑟𝑖 ,𝑡−3 − r 𝑖 2
+⋯+ 𝜆𝑛−1 𝑟𝑖 ,𝑡−𝑛 − r 𝑖 2
1 + 𝜆 + 𝜆2 +⋯+ 𝜆𝑛−1
= 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖
2𝑇𝑡=1
𝜆𝑡𝑇𝑡=1
Dove:
𝑟𝑖 ,𝑡2 − r 𝑖
2
= scarto quadratico tra il rendimento i-esimo e il rendimento medio
𝜆 = fattore di ponderazione o decay factor.
In particolare 𝜆 ∈ 0; 1 , anche se nella pratica è compreso tra 0,94 e 0,97 (RiskMetrics™
fissa 𝜆 = 0,94 per i dati giornalieri e 𝜆 = 0,97 per i dati mensili). Se 𝜆 è molto vicino a 1
le osservazioni decadono lentamente, quindi viene attribuito un peso che diminuisce in mi-
sura infinitesimale col passare delle osservazioni. Invece con 𝜆 molto piccolo i pesi deca-
dono più drasticamente, attribuendo molta più importanza alle osservazioni più recenti ri-
spetto alle osservazioni passate (per questo motivo (1− 𝜆) è detto velocità di decadimen-
to). Per 𝜆 = 1 si torna ad una media mobile semplice.
42
La scelta di 𝜆 dipende sostanzialmente dalle aspettative sulla variazione della volatilità del
titolo/fattore di mercato: se la volatilità cambia lentamente, è opportuno utilizzare un 𝜆
prossimo ad uno, per dare rilevanza anche alle osservazioni passate, se invece l‟aspettativa
è di una variazione repentina della volatilità, un fattore 𝜆 basso riflette maggiormente la
volatilità recente rispetto a quella passata.
La Figura 2.5 illustra la “distribuzione” dei pesi per un periodo T=100 con differenti decay
factor:
Figura 2.5: distribuzione dei pesi per 𝝀 = 𝟏;𝟎,𝟗𝟗;𝟎,𝟗𝟕;𝟎,𝟗𝟓;𝟎,𝟗𝟑
Fonte: J.P.Morgan/Reuters, RiskMetrics™,Technical Document, 1996
È possibile semplificare la notazione moltiplicando 𝜆𝑡−1𝑇
𝑡=1 per
1−𝜆
1−𝜆 e ottenendo:
𝜆𝑡−1
𝑇
𝑡=1
= 1 + 𝜆 + 𝜆2 +⋯+ 𝜆𝑇 1 − 𝜆
1 − 𝜆=
1− 𝜆𝑇+1
1 − 𝜆
Per cui la deviazione standard risulta
𝜍𝑖 ,𝑡 = 1 − 𝜆
1 − 𝜆𝑇+1 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖
2𝑇
𝑡=1
43
Per 𝑇 elevato e/o 𝜆 molto piccolo allora 𝜆𝑇+1 → 0 e quindi
𝜍𝑖,𝑡 = (1− 𝜆) 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖 2
𝑇
𝑡=1
E la correlazione è definita in maniera “ordinaria” come
𝜌𝑖𝑗 ,𝑡 =𝜍𝑖𝑗 ,𝑡
2
𝜍𝑖 ,𝑡𝜍𝑗 ,𝑡
Dove però 𝜍𝑖𝑗 ,𝑡2 = 1 − 𝜆 𝜆𝑡−1(𝑇
𝑡=1 𝑟𝑖,𝑡 − r 𝑖)( 𝑟𝑗 ,𝑡−𝑘 − r 𝑗 )è la Covarianza tra i rendi-
menti del titolo i-esimo e i rendimenti del titolo j-esimo.
Inoltre è possibile compiere alcune constatazioni considerando la varianza:
𝜍𝑖,𝑡2 = 1− 𝜆 𝜆𝑡−1 𝑟𝑖 ,𝑡 − r 𝑖
2𝑇
𝑡=1
= 1− 𝜆 𝜆0 𝑟𝑖 ,𝑡−2 − r 𝑖 2
+ 𝜆𝑡−2 𝑟𝑖 ,𝑡 − r 𝑖 2
𝑇
𝑡=2
= 1 − 𝜆 𝑟𝑖 ,𝑡−1 − r 𝑖 2
+ 𝜆 1− 𝜆 𝜆𝑡−2 𝑟𝑖,𝑡 − r 𝑖 2
𝑇
𝑡=2
Ma 𝜆 1− 𝜆 𝜆𝑡−2 𝑟𝑖 ,𝑡 − r 𝑖 2
𝑇𝑡=2 = 𝜍𝑖 ,𝑡−1
2 e considerando rendimento medio nullo si ot-
tiene una formula semplificata della volatilità Ewma:
𝜍𝑖 ,𝑡2 = 𝜆𝜍𝑖 ,𝑡−1
2 + 1− 𝜆 𝑟𝑖,𝑡−12
Che esplica come 𝜍𝑖 ,𝑡2 sia ottenuta dalla volatilità al periodo precedente, a fronte del “fatto-
re di correzione” 𝜆, aggiustata per il rendimento al periodo precedente, a fronte del “fattore
di correzione”, cioè il fattore di decadimento 1− 𝜆 .
Un test empirico circa l‟attendibilità dei due metodi è stato fornito da un evento economico
di grande rilievo: nel 1992 le turbolenze economiche della Germania portarono squilibri
44
nel mercato dei cambi fissi, costringendo Gran Bretagna all‟uscita dal Sistema Monetario
Europeo (SME)57
nel Settembre ‟92.
L‟evento portò ad un attacco speculativo nei confronti della Sterlina e al crollo del tasso di
cambio Marco/Sterlina (quest‟ultimo rappresentato in Figura 2.6)58 E a una marcata flut-
tuazione dei rendimenti (Figura 2.7).
Figura 2.6: tasso di cambio Marco/Sterlina dal ‟92 al „94
Fonte: J.P.Morgan/Reuters, RiskMetrics™,Technical Document, 1996
57
Lo SME era un sistema di cambi fissi tra le monete degli stati Europei. 58
Lo studio è stato compiuto da J.P. Morgan, vedi anche J.P.Morgan/Reuters; RiskMetrics™,Technical Do-
cument; 1996
45
Figura 2.7: Rendimenti Logaritmici Sterlina/Marco.
Fonte: J.P.Morgan/Reuters; RiskMetrics™,Technical Document; 1996
Questa fluttuazione provocò un picco nel VaR, in misura diversa nei differenti metodi di
stima della varianza (Figura 2.8), in particolare:
Figura 2.8: stima del VaR con il metodo della media mobile semplice e della media mobile esponenziale con 𝝀 = 𝟎,𝟗𝟒
(𝒛𝜶 = 𝟏,𝟔𝟓)
Fonte: J.P.Morgan/Reuters; RiskMetrics™, Technical Document; 1996
46
L‟evidenza empirica dimostra come il metodo Ewma risulta più reattivo agli shock di vola-
tilità, e assorbe il fenomeno più repentinamente rispetto alla media semplice; fornendo una
stima più accurata della varianza.
Inoltre in Figura 2.5, è possibile constatare la presenza del ghost effect: nei primi mesi del
‟93 avviene un crollo della volatilità che non è riscontrabile in così forte misura nel metodo
Ewma.
Quest‟ultimo cancella la distorsione del ghost effect, in quanto, come è possibile osservare,
shock della volatilità impattano notevolmente nelle prime osservazioni ma con il passare
del tempo vedono ridurre il loro peso all‟interno della stima, per poi uscire dalla finestra di
osservazione con una ponderazione infinitesimale.
La scelta della dimensione della finestra rispecchia quanto detto per la media mobile sem-
plice: una serie Storica ampia riduce l‟errore ma lega la stima a osservazioni poco recenti.
Quanto detto finora è sintetizzato indirettamente nella Tabella 2.1, la quale fornisce il cal-
colo del VaR per una posizione con tasso di cambio Dollaro/Marco, in una finestra T=20 e
con 𝜆 = 0,94 con metodo a media mobile semplice e metodo Ewma.
Come si può notare la media semplice ponderi i rendimenti con un valore costante
(1/20=0,05), fornendo lo stesso peso a tutte le osservazioni, invece la media esponenziale
fornisce pesi che decadono, attribuendo peso maggiore all‟osservazione più recente (0,06)
e minore alla meno recente (0,019).
47
Tabella 2.1: stima della volatilità con media mobile semplice e media mobile esponenziale
Fonte: J.P.Morgan/Reuters ; RiskMetrics™,Technical Document ; 1996
2.1.2.2 I modelli GARCH
Quanto fino ad ora esposto può condurci ad una importante conclusione: nei mercati finan-
ziari a periodi di bassa volatilità si alternano periodi di alta volatilità, questo fenomeno,
chiamato volatility clustering, suggerisce un certo grado di persistenza nella volatilità.
Il modello GARCH (Generalized AutoRegressive Conditional Heteroskedasticity) intro-
dotto da Bollersev nel 1986 si dimostra migliore dell'Ewma nel catturare questo tipo di fe-
nomeni, essendo un processo caratterizzato da una varianza che muta nel tempo e che,
sfruttando così la persistenza del processo, stima regredendo la varianza su se stessa.
48
In particolare un processo GARCH (p,q) la varianza condizionale dipende oltre che dai
propri valori passati, che influenzano la stima nel lungo periodo, anche dall'errore59
, il qua-
le influenza la stima nel breve periodo in formule:
𝜍𝑖 ,𝑡2 = 𝛼0 + 𝐴 𝐿 휀𝑖 ,𝑡−1
2 + 𝐵(𝐿)𝜍𝑖 ,𝑡−12
Dove A(.) e B(.) sono polinomi di ordine p-1 e q-1.
Il parametro 𝛼𝑖 definisce la rapidità con cui la volatilità si adegua agli errori, e quindi indi-
rettamente agli shock di mercato; mentre 𝛽𝑖 è definito “tasso di persistenza” ed indica
quanto il valori passati di volatilità impattino sulla stima.
Estendendo la formula si ha:
𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1휀𝑖 ,𝑡−1
2 + 𝛼2휀𝑖 ,𝑡−22 +⋯+ 𝛼𝑝휀𝑖 ,𝑡−𝑝
2 + 𝛽1𝜍𝑖 ,𝑡−12 + 𝛽2𝜍𝑖 ,𝑡−2
2 +⋯+ 𝛽𝑞𝜍𝑖,𝑡−𝑞2
Nondimeno, il GARCH viene utilizzato perlopiù nella versione GARCH(1,1)
𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1휀𝑖 ,𝑡−1
2 + 𝛽1𝜍𝑖,𝑡−12
In cui è facile intuire che la varianza al tempo t è funzione unicamente di una costante 𝛼0,
dell'errore di previsione al periodo precedente 𝛼1휀𝑖,𝑡−12 e della varianza al periodo prece-
dente 𝛽1𝜍𝑖 ,𝑡−12 .
Nel nostro caso l‟errore è costituito dalla differenza tra il rendimento ottenuto e il rendi-
mento atteso:
(2.6) 휀𝑖 ,𝑡−12 = 𝑟𝑖 ,𝑡−1
2 − r 𝑖60
Sotto l‟ipotesi di media nulla, si ottiene un errore pari esattamente al quadrato del rendi-
mento, la (2.6) diventa quindi:
(2.7) 𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1𝑟𝑖,𝑡−1
2 + 𝛽1𝜍𝑖 ,𝑡−12
59
Per un‟eplicitazione più dettagliata si veda R. Lucchetti, Appunti di analisi delle Serie Storiche, 2011 60
La (2.6) rappresenta una formulazione della distribuzione dei rendimenti alternativa alla (2.1), infatti
𝑟𝑡+1 = 𝜇𝑡 + 𝜍𝑡휀𝑡+1 con 휀𝑡+1~𝑖𝑖𝑑 𝑁(0,1)
𝑟𝑡+1 = 𝜇𝑡 + 휀𝑡+1 con 휀𝑡+1~𝑖𝑖𝑑 𝑁(0,𝜍𝑡2)
49
Generalmente nelle applicazioni finanziarie 𝛼1 assume valori molto piccoli mentre 𝛽1 va-
lori prossimi a 0,7, inoltre per evitare che il modello esploda si pone 𝛼1 + 𝛽1 < 1.
Quale metodo risulta ottimale?
Nella sua formulazione originale il GARCH presenta alcuni svantaggi che derivano innan-
zitutto ponendo al quadrato le variabili: elevare al quadrato i rendimenti nell‟ipotesi di ec-
cezionali shock degli stessi può comportare la sovrastima della volatilità; invece elevare al
quadrato l‟errore significa non tener conto del segno dello stesso, e cioè ignorare se si tratta
di un errore in eccesso o in difetto.
In questa modo si omette di considerare se la volatilità è causata da un rialzo o da un ribas-
so di mercato, ignorando che l‟evidenza empirica dimostra che volatilità è maggiore in pe-
riodi di riduzione dei prezzi e rimane pressoché stabile in momenti di aumento dei prezzi.
Inoltre, il GARCH è migliore nella versione ad un solo ritardo per variabile (1,1), mentre
risulta troppo oneroso e al contempo meno “informativo” se si inserisce un numero mag-
giore di ritardi.
È necessario ricordare che entrambi i due metodi, Ewma e GARCH, per costruzione incor-
porano la volatilità eteroschedastica consentendo una migliore stima della volatilità rispetto
al metodo a medie mobili semplici
Tuttavia questa evoluzione migliora solo in parte la stima del VaR, in quanto entrambi i
metodi sono incorporati in un modello più generale, il modello Varianze-Covarianze ap-
punto, che opera sotto ipotesi di normalità, (rendimenti distribuiti normalmente e un white
noise iid) anche se, come si illustrato precedentemente, è possibile sottrarsi in tutto o in
parte a questa ipotesi (vedi Par. 2.1.1).
La principale differenza tra i due metodi è costituita dalla maggiore flessibilità del
GARCH61
: in esso la componente di persistenza, che indica in che misura gli shock impat-
tano sulla stima, varia in base alla stima di 𝛼 e 𝛽, mentre nel modello a medie mobili espo-
nenziali, esso rimane sempre fissato a 1 qualunque sia il valore di
Inoltre nell‟Ewma il fattore di decadimento non è quantificato secondo procedure econo-
metriche, ma è definito discrezionalmente dall‟analista.
61
Per maggiori dettagli si veda anche C. Pederzoli, C. Torricelli, Una rassegna sui metodi di stima del value
at risk (VaR), Dipartimento di Economia Politica- Università degli Studi di Modena e Reggio Emilia, 1999 62
In parole povere, se nel GARCH la somma delle componenti di persistenza 𝛼 𝑒 𝛽 può essere un qualsiasi
numero minore di 1, nell‟Ewma, la somma tra 𝜆 e 1 − 𝜆 sarà sempre uguale a 1, a prescindere dal valore del
fattore di decadimento
50
Al contrario, nel modello GARCH invece la stima dei parametri avviene con il metodo dei
minimi quadrati63
, cioè stimando i parametri in modo da minimizzare l‟errore:
(𝑒𝑖)2 = 𝑦𝑖 − 𝑦𝑖 = 𝑚𝑖𝑛
𝑛
𝑖=1
𝑛
𝑖=1
Dove
𝑒𝑖 = Realizzazione dell‟errore
𝑦𝑖 = Vettore delle osservazioni
𝑦𝑖 = Vettore delle approssimazioni delle osservazioni fornito da un modello di regressione
lineare
L‟affidabilità dei due metodi è visibile in Figura 2.9, in cui è stata stimata la volatilità della
Sterlina inglese utilizzando i due metodi, in particolare:
𝜍𝑡2 = 0,94𝜍𝑡−1
2 + 0,06𝑟𝑡−12 Modello Ewma
𝜍𝑡2 = 0,0147 + 0,881𝜍𝑡−1
2 + 0,0828𝑟𝑡−12 Modello GARCH
Figura 2.9: volatilità della Sterlina stimata con il modello GARCH e con il modello Ewma
Fonte: J.P.Morgan/Reuters, RiskMetrics™, Technical Document, 1996
63
Lucchetti ha proposto di stimare i parametri secondo il metodo della massima verosimiglianza.
Per maggiori dettagli vedi R.Lucchetti, Appunti di analisi delle serie storiche; 2011
51
Le principali varianti dei modelli GARCH sono state create per fronteggiarne i difetti, in
particolare non ci si può sottrarre dal citare l‟EGARCH (Exponential GARCH), che per-
mette di considerare il segno dell'errore, utilizzando il logaritmo della varianza e senza ele-
vare al quadrato gli errori di previsione.
In formule un EGARCH(1,1) è definito come:
log 𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1
|𝑟𝑖,𝑡−1 − r 𝑖|
𝜍𝑖 ,𝑡−1− 𝐸
|𝑟𝑖 ,𝑡−1 − r 𝑖|
𝜍𝑖 ,𝑡−1 + 𝛽1 log 𝜍𝑖 ,𝑡−1
2
+ 𝛾|𝑟𝑖 ,𝑡−1 − r 𝑖 |
𝜍𝑖 ,𝑡−1
Dove assumendo media nulla, il rendimento coincide con la componente di errore, la nota-
zione può essere riscritta come
log 𝜍𝑖 ,𝑡2 = 𝛼0 + 𝛼1
휀𝑖,𝑡−1
𝜍𝑖,𝑡−1− 𝐸
휀𝑖 ,𝑡−1
𝜍𝑖 ,𝑡−1 + 𝛽1 log 𝜍𝑖 ,𝑡−1
2 + 𝛾휀𝑖 ,𝑡−1
𝜍𝑖 ,𝑡−1
Il modello IGARCH invece impone che 𝛼1 + 𝛽1 = 1, introducendo un trade off tra impatto
della varianza passata (cioè della persistenza, rappresentata come già detto, da 𝛽1) e impat-
to dello shock (rappresentato ora da 1 − 𝛽1)64
, quindi
𝜍𝑖 ,𝑡2 = 𝛼0 + (1 − 𝛽1)𝑟𝑖,𝑡−1
2 + 𝛽1𝜍𝑖,𝑡−12
In uno studio, West e Cho65
hanno riscontrato che i modelli GARCH offrono stime più si-
gnificative, rispetto ad una media mobile semplice (dove i pesi tra le osservazioni sono e-
quamente distribuiti) solo per brevi orizzonti temporali.
L‟analisi aveva a oggetto la volatilità del tasso di cambio del Dollaro USA contro, il Fran-
co Francese, la Sterlina Britannica, lo Yen Giapponese, il Marco Tedesco e il Dollaro Ca-
nadese.
64
Imponendo che i fattori di persistenza siano uguali a 1, è facile notare come l‟IGARCH si avvicini concet-
tualmente all‟Ewma 65
K.West, D.Cho, The predictive ability of several models of exchange rate volatility, Jurnal of Econome-
trics, 1995
52
In particolare sono stati utilizzati diversi modelli di stima della volatilità, tra cui un
GARCH (1,1) e un IGARCH (1,1) con una finestra di calcolo di ampiezza una settimana,
dodici settimane e ventiquattro settimane (rispettivamente Panel A, Panel B, Panel C).
La bontà della stima per ogni modello e per ogni finestra di calcolo è stata valutata attra-
verso la radice dell'Errore di Previsione Quadratico Medio (RMSPE)66
.
Il risultato, mostrato in Figura 2.10 è facilmente comprensibile, per un RMSPE che costi-
tuisce il metro di giudizio per definire il rank dei modelli di stima (dove il primo è il mi-
glior stimatore e il sesto il peggiore), per una “finestra settimanale” il GARCH (rappresen-
tato con (1,1)) e l‟IGARCH (rappresentato da ig) si dimostrano buoni stimatori (rispetti-
vamente primo e terzo posto del ranking), ma allargando progressivamente la finestra di
stima, essi perdono di validità (addirittura nel periodo a 24 settimane risultano essere i
peggiori).
Nondimeno, la media mobile semplice, cioè calcolata in ipotesi di omoschedasticità (deno-
tata da “homo”), assume un comportamento inverso.
66
L‟errore quadratico medio di uno stimatore misura l‟efficienza dello stimatore stesso, ed è definito dal va-
lore atteso della differenza tra il valore stimato e il valore vero, il tutto elevato al quadrato.
Di conseguenza la radice dell'‟errore quadratico medio è la radice di questo valore atteso ed è tanto più pic-
colo quanto più lo stimatore è efficiente.
53
Figura 2.10: confronto tra modelli di stima della volatilità
Fonte: K.West, D.Cho, The predictive ability of several models of exchange rate volatility, Jurnal of Econometrics, 1995
54
2.2 I modelli di Full Valuation
Quali sono i vantaggi di questi modelli?
Innanzitutto, adoperare Simulazioni elude l‟ostacolo della non linearità dei payoff, otte-
nendo il valore del titolo partendo dal fattore di rischio e applicando formule di pricing,
senza dover approssimare la relazione risk factor-asset.
Infatti, mentre nella local valuation si considerano le variazioni dei fattori di rischio, e le
variazioni del valore del portafoglio vengono definite di conseguenza, utilizzando un fatto-
re di approssimazione, nella full valuation si considerano i livelli dei fattori di rischio, e il
valore del portafoglio viene definito per ogni valore dei risk factor. In sostanza questo si-
gnifica che nella full valuation viene rilasciata l‟ipotesi di linearità che caratterizza il me-
todo Delta-Normal.
In secondo luogo simulare la distribuzione implica la scelta della funzione che meglio ap-
prossima l‟evidenza empirica, svincolandosi dall'assunzione della distribuzione normale,
questo vantaggio è tanto maggiore quanto più la distribuzione reale dei rendimenti si di-
scosta, per asimmetria e fat tails, dalla distribuzione normale.
2.2.1 L‟approccio Monte Carlo
Stimare il VaR utilizzando l‟approccio Monte Carlo significa simulare l‟andamento di un
fattore di mercato, e calcolare il valore della posizione in ogni simulazione, ottenendo così
la distribuzione di probabilità delle variazioni del valore di mercato della posizione in esa-
me.
La ricostruzione dell'andamento del risk factor è compiuta attraverso un generatore di nu-
meri casuali, che applicato alla distribuzione scelta, genera valori inattesi della variabile, su
cui calcolare il valore della posizione; successivamente il riordino delle osservazioni e il
taglio in corrispondenza del percentile desiderato definisce il VaR.
L‟approccio, Monte Carlo, quindi, rappresenta un approccio allo stesso tempo parametrico
e di Simulazione, in quanto da un lato richiede la stima di parametri, e in particolare di ma-
trici di varianze e Covarianze proprie dell‟approccio analitico, e dall'altro richiede lo svi-
55
luppo di una Simulazione non basata su dati passati, bensì sulla generazione di nuovi da-
ti67
.
Da questa introduzione è possibile svolgere alcune considerazioni circa i vantag-
gi/svantaggi della Simulazione Monte Carlo, in particolare:
- La Simulazione Monte Carlo rappresenta un metodo di full valuation, quindi con-
sente di stimare la distribuzione dei rendimenti direttamente per il fattore di merca-
to, eliminando il problema della non linearità tra la variazione dello stesso e la va-
riazione di valore del titolo;
- La possibilità di generare i dati ex novo offre libera scelta nella definizione della
funzione di distribuzione dei rendimenti del fattore di mercato (Normale, t di Stu-
dent o altre);
- La Simulazione stocastica supera i problemi legati alla carenza di dati storici (che
invece interessano il metodo a Simulazione Storica).
Nondimeno, la Simulazione dell'andamento dei fattori di rischio è basata su un numero
molto elevato di scenari, il che rende il modello Monte Carlo un processo molto oneroso in
termini di risorse informatiche.
Inoltre il modello Monte Carlo applicato alla stima di portafoglio esige il calcolo della ma-
trice Varianze-Covarianze dei fattori di mercato, con gli svantaggi in termini di approssi-
mazione a essa legati.
2.2.1.1 La stima per un asset
La stima del VaR di una posizione si svolge attraverso:
a) Identificazione del fattore di rischio che influenza la posizione, (analogamente al
modello Varianze-Covarianze);
b) Definizione della distribuzione di densità della probabilità f(x) che definisce al me-
glio le distribuzioni dei rendimenti del risk factor;
c) Stima dei parametri per f(x) (media, varianza, Covarianza);
d) Simulazione dell'evoluzione del fattore di rischio attraverso un generatore di nume-
67
Per questo motivo il metodo di Simulazione Monte Carlo viene spesso classificato come metodo parame-
trico (a titolo di esempio, Vedi F. Drudi, A. Generale and G. Majnoni, Sensitivity of VaR measures to diffe-
rent risk models, 1997)
56
ri casuali68
. In questa fase, data l‟inversa della funzione di ripartizione (definita sul-
la base della funzione di densità f(x)), tale che 𝑟 = 𝐹−1(𝑛), vengono estratti gli n
valori da una distribuzione uniforme69
definita tra 0; 1 , che applicati alla funzione
𝐹−1(𝑛) condurranno agli 𝑟, opportunamente modificati in base ai parametri di f(x).
Figura 2.11: Rappresentazione grafica dei valori r calcolati attraverso 𝐹−1(𝑛).
Fonte: <www.performancetrading.it>
2.2.1.2 La stima di portafoglio
Il VaR di portafoglio presenta un elevato numero di fattori di rischio e, dovendo considera-
re le correlazioni tra variabili, è evidente che le Simulazioni Monte Carlo diventano più
difficili da utilizzare in primo luogo perché si necessita di stimare le distribuzioni di proba-
bilità per centinaia di risk factor, in secondo luogo, il numero di Simulazioni esatte per ot-
tenere una ragionevole stima del Value at Risk sono nell‟ordine delle decine di migliaia.
Di conseguenza le modifiche alla Simulazione Monte Carlo sono orientate ad uno “snelli-
mento” della massa computazionale, riducendo sostanzialmente il numero di Simulazio-
ni70
.
68
In realtà si parla di numeri pseudo-casuali generati da una sequenza pseudo-casuale, la quale sembra pos-
sedere casualità statistica anche se viene generata da un processo interamente deterministico che approssima
le proprietà statistiche di una vera sequenza casuale. 69
Si ricorda che una distribuzione Uniforme (continua) 𝑋~𝑈[𝑎;𝑏]è una particolare distribuzione che assume
valori reali in un intervallo [𝑎; 𝑏], mentre la funzione di ripartizione è la funzione che fa corrispondere ai va-
lori x le probabilità comulate 𝐹 𝑥 = Pr(𝑋 ≤ 𝑥) 70
Si veda anche NYU Stern School of Business, VAR, <www.stern.nyu.edu>.
57
Simulazione di scenari: un modo per ridurre il carico di calcolo è quello di compiere
l'analisi su un numero discreto di scenari.
In quest‟ottica, Frye71
suggerisce un approccio Factor-Based è utilizzato per il calcolo
del VaR in portafogli contenenti titoli sensibili ai tassi d‟interesse.
Con questo metodo, si svolge un‟analisi delle componenti principali della curva dei
rendimenti, individuando le componenti principali: la prima componente che rappre-
senta i movimenti tipici della curva dei rendimenti (corrisponde considerazione che
l'evento più importante che influenza la curva di rendimento in un dato giorno è se i
rendimenti saliranno o scenderanno); la seconda componente considera l‟ “irripidi-
mento” della curva, mentre la terza considera la possibilità che i rendimenti di medio
termine possano salire (scendere) mentre i tassi a breve e a lungo termine scendono
(salgono).
La combinazione di questi fattori produce specifici scenari di curva dei rendimenti uti-
lizzati per la stima del portafoglio ipotetico: la più grande perdita tra questi scenari
fornisce una stima VAR intuitiva e rapida.
Simulazioni MC con metodo Varianze-Covarianze: nonostante uno degli scopi del me-
todo di Simulazione Monte Carlo sia anche quello di considerare distribuzioni diverse
da quella normale per i rendimenti dei fattori di rischio, le difficoltà legate alla scelta
di tali distribuzioni ne hanno finora scoraggiato un utilizzo operativo, imponendo in
molti casi un trade off tra precisione e semplicità di calcolo.
A fronte di questo trade off, l‟ipotesi classica sottostante al metodo MC è ancora la
normalità dei fattori di rischio che ci consente di sfruttare la matrice di Varianze-
Covarianze, snellendo la mole di calcoli.
In questo senso, le fasi precedenti si modificano come segue
a) Identificazione dei fattori di rischio che influenzano la posizione, convertendo
l‟asset in strumenti standardizzati (analogamente al modello Varianze-Covarianze);
b) Definizione della distribuzione di densità della probabilità congiunta
normale𝑓(𝑥1;𝑥2;⋯ ; 𝑥𝑚 ) che definisce al meglio le distribuzioni dei rendimenti
degli m risk factor;
71
Per un‟analisi più approfondita: J. Frye; Principals of Risk: Finding Value-at-Risk Through Factor-Based
Interest Rate Scenarios; NationsBanc; 1997
58
c) Stima dei parametri per f(x) (media, varianza, Covarianza);
d) Simulazione delle evoluzioni degli m fattori di rischio: generazione di N scenari per
gli m fattori e calcolo del rendimento dei fattori attraverso la distribuzione congiun-
ta normale.
e) Calcolo della variazione di valore delle posizioni per ogni scenario e creazione del-
la distribuzione di probabilità.
Per ogni n scenario ipotizzato si ottiene il vettore r, che esprime il rendimento del
portafoglio al variare degli m fattori di mercato, dato da:
(2.7) 𝑟 = 𝜇 + 𝐴′𝜖72
Dove:
𝜇 = vettore del rendimento atteso (medio) degli m fattori di mercato
𝐴′ = matrice triangolare di Σ ottenuta mediante la scomposizione di Cholesky73
𝜖 = vettore dei rendimenti delle m variabili (fattori di rischio) distribuite come nor-
mali standard e definite dalla trasformazione di un altro set di variabili.
In particolare:
𝜖 = 𝑇𝜑
Dove 𝜑~𝑁(0,1)
Quindi imporre che gli m fattori di mercato si distribuiscano come normali standar-
dizzate, significa che per ogni i-esimo fattore di rischio:
𝐸 휀𝑖 = 0
𝐸 휀𝑖 2 = 𝐴𝐴′
𝐶𝑜𝑣 휀𝑖 , 휀𝑗 = 𝜌𝑖𝑗
72
La 2.7 deriva dal moto geometrico Browniano, secondo cui un certo comportamento delle variazioni infini-
tesime dei fattori di mercato approssima la stima dei prezzi S. Le variazioni di prezzo percentuale relative al
prezzo iniziale (rendimenti) possono essere descritte come: ∆𝑆𝑡𝑆𝑡−1
= 𝜇∆𝑡 + 𝜍𝜖 ∆𝑡
Dove:
𝜇 e 𝜍 sono la media e la volatilità del rendimento
∆𝑡 = intervalli di tempo discreti
𝜖~𝑁(0; 1) = fattore di mercato, distribuito come una normale standard 73
Per i dettagli sulla scomposizione di Cholesky vedi Appendice C.
59
La 2.7 quindi descrive la realizzazione del rendimento di portafogli in un ambiente
correlato: la presenza della matrice di Varianze-Covarianze che moltiplica il vettore
dei valori casuali dei fattori di rendimento “inietta” correlazione nel rendimento di
portafoglio.
f) Taglio della distribuzione di probabilità per il percentile scelto.
2.2.2 Il modello delle Simulazioni Storiche
“In un modello di Simulazione Storica s‟ipotizza che le potenziali variazioni dei fattori di
mercato siano ben rappresentate dalla loro distribuzione empirica Storica, cioè dalle va-
riazioni registrate in un periodo passato”74
.
Quindi, la stima del VaR di un titolo, avviene partendo dalla distribuzione Storica dei ren-
dimenti del titolo stesso, e successivamente tagliando la distribuzione in corrispondenza
del percentile scelto.
Dalla definizione è possibile cogliere tre caratteristiche del modello:
Questo metodo è indissolubilmente legato a dati storici
Non compie assunzioni riguardanti la distribuzione, usando la distribuzione
empirica ottenuta dall‟analisi dei dati passati.
Questa caratteristica ha tratti discutibili: da una parte lascia poca discreziona-
lità all‟analista, meno dell‟approccio varianze-Covarianze nel quale vi era la
scelta del valore di decay factor, o la possibilità di apportare modifiche alla
distribuzione e dell'approccio Monte Carlo, in cui la scelta del tipo di distri-
buzione spetta al valutatore. D‟altro canto questa caratteristica permette una
migliore stima in presenza di distribuzioni anormali, leptocurtiche o asimme-
triche.
Si assumere che le variazioni passate siano una buona proxy dell'andamento
futuro della variabile.
In altri termini, anche se non sono formulate esplicite ipotesi circa il tipo di distribuzione,
considerare i rendimenti passati come unico riferimento per il calcolo dei rendimenti futuri,
74
A.Resti, A.Sironi; “Rischio e valore nelle banche”; Egea, 2008
60
significa ipotizzare implicitamente che la distribuzione rimanga costante nel tempo, il che
sottintende a sua volta la stazionarietà e la iid della distribuzione.
Se invece la distribuzione attuale non fosse indipendente dalla distribuzione passata, come
in ipotesi di eteroschedasticità, l‟utilizzo di una stessa funzione in differenti momenti di
calcolo può generare distorsioni nel calcolo stesso.
Nondimeno, il riferimento alla distribuzione empirica Storica richiede l‟esistenza e
l‟implementazione di grandi quantità di dati passati, soprattutto se il VaR viene calcolato
non su basi giornaliere, bensì settimanali o mensili, il che obbliga all‟utilizzo di serie Stori-
che rilevanti o, di converso, lo rende inutilizzabile in mancanza di un‟adeguata quantità di
dati passati.
Proprio la dimensione del periodo di riferimento rappresenta un trade off anche nel model-
lo storico: se da una parte si rende obbligatorio un ampio campione, al fine di computare
nella distribuzione shock sporadici ma significativi, d‟altro canto serie Storiche molto
“lunghe” indeboliscono l‟ipotesi di staticità della distribuzione, rendendola difatti invero-
simile.
Analogamente a quanto visto per il metodo Varianze-Covarianze, l‟utilizzo del modello di
Simulazioni Storiche implica l‟utilizzo di finestre temporali, di ampiezza pari al periodo di
riferimento, in cui tutte le osservazioni sono pesate ugualmente, e che consente a
quest‟ultime di “scalare” all‟interno del campione.
Gli svantaggi nell‟utilizzo di finestre mobili, come visto in precedenza, sono strettamente
legati al periodo di sussistenza dell'osservazione all‟interno del campione: affinché il VaR
possa modificarsi sensibilmente, il rendimento associato al percentile scelto deve venir
fuori dalla finestra, oppure un rendimento superiore a quest‟ultimo deve entrare all‟interno
del campione.
Questo rende il VaR più stabile, il che, in presenza di mercati odierni caratterizzati da ri-
schi molto volatili è una caratteristica difficile da accogliere.
2.2.2.1 La stima per un portafoglio
Un approccio più semplice, consiste nel raccogliere le osservazioni Storiche (cioè i rendi-
menti storici dei titoli in portafoglio) per creare una distribuzione dei rendimenti del porta-
foglio, in cui le osservazioni sono calcolate come media dei rendimenti dei titoli, pesata per
il valore di mercato degli stessi.
61
Sostanzialmente, ad ogni t, il rendimento storico di portafoglio sarà definito nella come:
𝑟𝑝 ,𝑡 = 𝑤𝑖𝑟𝑖 ,𝑡
𝑛
𝑖=1
Dove:
𝑤𝑖 = Peso del titolo in portafoglio, pari alla “quantità” di titolo nel portafoglio, misurata dal
valore di mercato
𝑟𝑖 ,𝑡 = Rendimento dell'i-esimo titolo in portafoglio, al tempo t
In seguito, si costruisce una distribuzione dei rendimenti ordinando quest‟ultimi in ordine
crescente, infine in VaR viene calcolato mediante la logica del percentile.
Un altro approccio alla Simulazione Storica consiste nel definire la distribuzione dei ren-
dimenti dei titoli partendo dai risk factor, in fasi:
Individuare i fattori di mercato rilevanti e definire la formula di pricing che lega i
fattori di rischio e gli strumenti finanziari
Utilizzare i valori storici dei risk factor
Creazione di valori ipotetici del risk factor, individuati sommando al valore attuale
del risk factor la variazione del rendimento tra due osservazioni passate, in formule
𝑣𝑖 ,𝜏∗ = 𝑣𝑖 ,0 + ∆𝑣𝑖 ,−𝜏
Dove:
𝑣𝑖 ,𝜏∗ = Valore ipotetico del fattore di mercato al tempo 𝜏
𝑣𝑖 ,0 = Valore del fattore di mercato al tempo 0
∆𝑣𝑖 ,𝜏 = Differenza di valore al momento storico – 𝜏
Quindi il valore ipotetico al tempo 𝜏 è ottenuto dalla somma tra il valore attuale del
fattore di rischio e la variazione tra due valori adiacenti al tempo 𝜏.
“Conversione” dei valori ipotetici del fattore di mercato in valori ipotetici degli
strumenti attraverso formule di pricing
Definizione dei rendimenti per ogni strumento e somma dei rendimenti dei titoli in
ogni periodo. Con questo espediente, si considera implicitamente la correlazione tra
62
i titoli in portafoglio, in quanto ad un generico momento t si sommano algebrica-
mente rendimenti negativi e positivi, consentendo compensazione propria di porta-
fogli diversificati
Disposizione dei rendimenti di portafoglio in ordine crescente e taglio della distri-
buzione in corrispondenza del percentile scelto
2.2.2.2 Le modifiche all‟approccio Serie Storiche e l‟approccio ibrido
Le modifiche apportate all‟approccio storico sono orientate a sopperire agli svantaggi del
metodo stesso, rappresentati dall'equa distribuzione dei pesi per le osservazioni utilizzate, o
più semplicemente a migliorare la stima.
- La volatilità aggiornata:
Hull e White75
hanno suggerito una modifica all‟approccio Storico orientata alla modifica
dei rendimenti, che tenga conto della eteroschedasticità.
Se la volatilità attuale è maggiore della volatilità Storica del campione, definito un cam-
pione storico di ampiezza N, i rendimenti del campione effettivo vengono modificati attra-
verso la formula:
𝑗𝑡∗ = 𝜍𝑗𝑁
2𝑗𝑡
𝜍𝑗𝑡2
In cui:
𝑗𝑡∗ = Nuovo valore del rendimento
𝑗𝑡 = Rendimento della generica j-esima variabile al tempo 𝑡
𝜍𝑗𝑡2 = Varianza del rendimento j-esimo, calcolata per il giorno t alla fine del giorno t-1
𝜍𝑗𝑁2 = Varianza aggiornata, calcolata al giorno N
Dunque, il metodo proposto da Hull e White consente di realizzare dati aggiornati alla
nuova volatilità, scalando la volatilità e “applicandola” al rendimento passato, per ottenere
una buona approssimazione del rendimento vero76
.
75
J. Hull, A. White ; Incorporating volatility updating into the historical simulation method for value-at-risk;
Journal of Risk; 1998 76
Sostanzialmente, con questo approccio si scala la volatilità.
Come visto precedentemente, ciò è possibile solo se si ipotizza che i rendimenti siano iid.
63
In questa applicazione, la stima della volatilità risulta fondamentale per ottenere una distri-
buzione dei rendimenti che più si avvicina a quella empirica, in questo senso gli autori
propongono metodi di calcolo accurati per la varianza, come l‟utilizzo di modelli GARCH
o Ewma.
- Il Bootstrapping:
L‟approccio delle Simulazioni Storiche ha il principale vantaggio di non compiere assun-
zioni circa la distribuzione dei rendimenti, tuttavia è risaputo che tale metodo richieda una
grossa quantità di dati (3-5 anni) per essere adoperato.
Il bootstrapping consente di superare il problema della carenza di database informativo, at-
traverso appunto la tecnica statistica del bootstrap, con la quale vengono generati campio-
ni casuali partendo dalla distribuzione dei fattori di mercato osservati, semplicemente ri-
campionando i dati osservati.
Nel metodo bootstrap i campioni sono costruiti partendo dagli stessi dati storici, per poi
creare Simulazioni in cui i tassi di variazione del(i) risk factor o della(e) posizione(i) sono
estratti casualmente con ripetizione da tale campione.
In questo modo si genera un elevato numero di Simulazioni da cui desumere la distribuzio-
ne dei rendimenti del(i) titolo(i) e calcolare il VaR con la logica del percentile.
- L‟approccio ibrido
La principale modifica, partendo dalla considerazione che osservazioni più recenti sono
migliori predittori dell'andamento attuale, considera ponderazioni maggiori per osservazio-
ni più recenti, che decadono nel tempo per osservazioni sempre più “vecchie”.
Questa modifica ha dato vita ad un nuovo approccio, l‟approccio ibrido, sviluppato da
Boudoukh, Richardson e Whitelaw77
, che sostanzialmente combina i vantaggi del metodo
storico, evitando assunzioni stringenti circa il tipo di distribuzione, e i vantaggi dell'ap-
proccio Varianze-Covarianze fornendo un peso variabile alle osservazioni sulla base della
loro influenza sul campione.
Quindi, analogamente al metodo Varianze-Covarianze, viene fornita una ponderazione
𝑝𝑖−1 ad ogni osservazione, tale che
77
J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern
School of Business, NYU; 1998
64
𝑝𝑖−1 =𝜆𝑖
𝜆𝑖𝑛𝑖=1
Dove:
𝜆 = Fattore di decadimento, compreso tra ]0; 1[, ma nella pratica utilizzato per valori com-
presi tra ∈ [0,95; 0,99]
Analogamente al metodo classico, la fase successiva impone di ordinare i rendimenti in or-
dine crescente, e successivamente creare una ponderazione cumulata di tutte le osservazio-
ni.
Il VaR sarà ancora una volta determinato utilizzando la logica del percentile, che questa
volta viene applicata non più sulla distribuzione Storica dei rendimenti, bensì sulla funzio-
ne cumulata78
.
Il confronto tra stime realizzate con Simulazioni Storiche equiponderate, Simulazioni Sto-
riche a volatilità aggiornata e approccio ibrido è stato sviluppato da Hull e White79
, i quali
hanno stimato il requisito di capitale per un investimento di 1$ sul Marco Tedesco: definito
P il 1° percentile della distribuzione dei rendimenti di mercato (cioè il VaR%) il requisito
patrimoniale viene definito come tre volte il VaR decadale, cioè 3 10𝑃.
La Figura 2.12 illustra i tre approcci per il calcolo del VaR su una finestra temporale di 500
giorni, mostrando il requisito patrimoniale che sarebbe richiesto per l‟investimento di 1$
nel Marco Tedesco80
78
È possibile che nella funzione cumulata non sia presente il percentile scelto nel calcolo.
In parole povere, se volessimo calcolare il VaR ad un livello di confidenza del 99%, all‟interno della distri-
buzione cumulata dovremmo utilizzare il rendimento associato all‟1%.
Tuttavia, questo rendimento potrebbe non essere presente, quindi verrà calcolato con un‟interpolazione linea-
re utilizzando i due dati più vicini. Quindi dato un percentile 𝑥1 < 1% a cui è associato un rendimento 𝑟1 e
un percentile 𝑥2 > 1% cui è associato un rendimento 𝑟2, il rendimento corrispondente all‟1% sarà dato da:
𝑟 = 𝑟1 ∙(𝑥2 − 1%)
𝑥2 − 𝑥1
+ 𝑟2(1% − 𝑥1)
𝑥2 − 𝑥1
79 J. Hull, A. White ; Incorporating volatility updating into the hiStorical simulation method for value-at-
risk; Journal of Risk; 1998 80
Lo studio di J. Hull, A. White è solo indirettamente incentrato sul VaR.
In poche parole, se l‟analisi è incentrata sul requisito di capitale, ma al contempo il requisito è un multiplo
del VaR, si può dire che implicitamente lo studio si occupa proprio del VaR
65
Figura 2.12: Requisito patrimoniale richiesto a fronte del rischio di cambio $/DM calcolato con approccio delle Simula-
zioni Storiche (HS), approccio ibrido(BRW) e approccio a volatilità aggiornata(HW);
Fonte: J. Hull, A. White ; Incorporating volatility updating into the historical simulation method for value-at-risk; Jour-
nal of Risk; 1998
Come osservabile, nell‟approccio storico il requisite patrimoniale risulta più stabile rispetto
a quanto calcolato dall'approccio ibrido o dall'approccio a volatilità aggiornata, questo a
causa dell'ampio campione utilizzato (500 giorni) che tende ad “appiattire” la stima.
Inoltre la Figura mostra un altro fenomeno: nell‟approccio ibrido, il grafico tende a rag-
giungere un valore di picco, per poi ridursi bruscamente.
Questo è dovuto perlopiù alla ponderazione, infatti una ponderazione 𝜆 = 0,98 consente
di pesare le prime 35 osservazioni con un peso superiore all‟1%, quindi l‟ingresso di un da-
to negativo comporta un aumento del requisito di capitale (e quindi del VaR), da qui il pic-
co ascendente. Quando la finestra temporale continua a spostarsi, l‟osservazione negativa
cambia posizione, dalla 36° posizione i pesi divengono minori dell'1%, imponendo un pic-
co in discesa nella stima.
In generale, gli autori hanno constatato che le posizioni lunghe in una singola valuta estera
calcolate con il metodo ibrido richiedono in media l‟11% in meno di capitale rispetto a
66
quanto calcolato con il metodo delle Simulazioni Storiche, e che analogamente il capitale
richiesto stimato con il metodo a volatilità aggiornata è in media del 7,8% in meno a quan-
do stimato con il metodo delle Simulazioni Storiche.
- Simulazioni Storiche filtrate
Se si considerano i metodi proposti precedentemente, si può notare che in essi vi sia un
trade-off tra il computo della eteroschedasticità e l‟assunzione di non normalità.
La rivoluzione condotta da Barone-Adesi, Giannopoulos, and Vosper81
sta proprio nella
possibilità di considerare insieme eteroschedasticità e non-normalità, introducendo una va-
riante all‟approccio di Simulazione Storica, chiamato Simulazioni Storiche filtrate, che
rappresenta un ibrido tra il bootstrapping, il modello a volatilità aggiornata e un modello
GARCH.
Ricordando la (2.6), il rendimento con media nulla può essere espresso da:
𝑟𝑖 ,𝑡 = 휀𝑖 ,𝑡
Dove:
휀𝑖 ,𝑡~𝑁(0,𝜍2)
In questo ambito, l‟utilizzo del bootstrapping è possibile se i rendimenti sono iid, perché
altrimenti scegliere casualmente i valori fa sì che nessuno dei rendimenti sia influenzato
dal precedente, eliminando implicitamente l‟ipotesi di eteroschedasticità.
Per questo motivo i rendimenti sono resi iid, filtrandoli mediante la volatilità.
Ogni rendimento al periodo t sarà dato da:
𝜂𝑡 =휀𝑡𝜍𝑡
81
G. Barone-Adesi, K. Giannopoulos, L. Vosper; Filtering HiStorical Simulation. Backtest Analysis; 2000
67
Successivamente si utilizza il bootstrapping per estrarre un numero elevato di rendimenti
filtrati. Tali rendimenti vengono successivamente aggiornati alla volatilità relativa al peri-
odo per cui si desidera calcolare il VaR.
𝑟𝑡+1 = 휀𝑡+1 = 𝜂𝑡𝜍 𝑡+1
Dove:
𝜍 𝑡+1 = Stima della volatilità futura, ottenuta mediante un modello GARCH.
𝜂𝑡 = Rendimenti filtrati estratti casualmente dal campione
I nuovi rendimenti “aggiornati” 𝑟𝑡+1 formano la distribuzione di probabilità, che ancora
una volta fornisce il valore VaR mediante la logica del percentile.
Analogamente, il metodo delle Simulazioni Storiche filtrate per un portafoglio interessato
ad una molteplicità di fattori di rischio, implica l‟assunzione che ogni variabile segua un
processo GARCH.
Sempre in linea con quanto detto in precedenza, il vettore 휀𝑡 è filtrato mediante l‟utilizzo
del modello GARCH per ognuno dei risk factor, successivamente si applica il bootstrap-
ping, seguendo il procedimento di cui sopra.
L‟utilizzo delle Simulazioni Storiche filtrate in presenza di numerosità di rischi, comporta
diversi vantaggi82
: innanzitutto, l‟assunzione che i rendimenti siano iid evita il calcolo del-
la matrice Varianze-Covarianze, in secondo luogo il metodo consente di costruire un mo-
dello GARCH per ogni fattore di mercato anziché utilizzare un modello GARCH multiva-
riato.
82
Si veda anche M. Pritsker; The Hidden Dangers of HiStorical Simulation; 2001
68
2.3 Confronto
Varianze-Covarianze, Monte Carlo, Simulazioni Storiche, qual è il migliore approccio?
Come si può immaginare, tra i modelli si qui esaminati non esiste un modello “paretiana-
mente” ottimo, bensì è ragionevole supporre che spetti al risk management utilizzare il me-
todo più adatto valutando i trade off e le caratteristiche che ogni modell propone.
Innanzitutto, è d‟obbligo premettere che tutti gli approcci sono accumunati dall'utilizzo di
una funzione d‟input: si può quindi presumere che l‟approccio SS, l‟approccio Varianze-
Covarianze e il metodo MC convergeranno allo stesso risultato se utilizzassero la funzione
normale.
In secondo luogo tutti gli approcci utilizzano dati storici: i dati storici sono impiegati nel
Delta-Normal e nel metodo Monte Carlo per la stima della matrice Varianze-Covarianze (a
meno che non si utilizzi un metodo option-implied, col quale si sfruttano le aspettative de-
gli operatori per compiere previsioni) mentre il metodo storico, si pone ad un livello infe-
riore rispetto agli altri, in quanto utilizza unicamente il dato passato, senza alcuna scelta di-
screzionale da parte dell'analista.
Il riferimento a dati passati può non rappresentare un vantaggio: innanzitutto come si è
constatato, sussiste un trade off relativo al campione di riferimento: se un periodo breve
conduce al cosiddetto „sampling error‟, cioè alla difficoltà del campione nel descrivere a
pieno l‟andamento delle variabili; dall‟altro lato un campione ampio riduce la capacità in-
formativa del singolo dato, specie dei più recenti (ma come già visto, il problema viene in
parte superato).
Nell‟analisi dei tre modelli, si può affermare con certezza che l‟approccio analitico risulta
gravato dalle ipotesi che lo accompagnano: ad esempio, questo approccio non riesce a cat-
turare a pieno il valore delle opzioni o dei titoli di debito, in quanto il calcolo del VaR im-
pone la linearità del legame posizione-risk factor (nell‟accezione Delta-Normal); ipotesi
che viene tuttavia indebolita introducendo i momenti del secondo ordine (Delta-Gamma).
Ancora, come già esplicitato, spesso la distribuzione empirica dei rendimenti si mostra for-
temente leptocurtica, più vicina ad una t di Student che ad una normale, e questo esclude di
fatto la possibilità di utilizzare l‟approccio analitico nel caso pratico (basti pensare che, se
la distribuzione fosse sempre normale, il VaR dovrebbe sempre coincidere con il risultato
della simulazione Monte Carlo).
69
Continuando su questo filone, si sarebbe tentati di scegliere un modello che compie meno
assunzioni, cioè l‟approccio a simulazioni storiche.
Non c‟è dubbio sul fatto che il modello SS sfugge all‟obbligo di stima dei parametri, il che
evita la possibilità di errori legati ai calcoli (si ricorda che sia metodo Delta-Normal che il
metodo Monte Carlo impongono la definizione della matrice Varianze-Covarianze) e al
contempo coglie appieno il fenomeno distributivo, in quanto è il mercato stesso a determi-
nare la forma della distribuzione.
Tabella 2.2: comparazione tra gli approcci. La statistica inferenziale
Metodo di stima Statistica inferenziale
Modello distributivo Stima dei parametri
Varianze-Covarianze Normale Matrice VaR-Cov
Simulazioni storiche Non necessario Non necessario
Simulazioni Monte Carlo Non necessario Matrice VaR-Cov
Fonte: F. Bazzana; I modelli interni per la valutazione del rischio di mercato secondo l‟approccio del Value at Risk;
ALEA Tech Reports; 2001
L‟utilizzo di dati storici da parte della SS ne rende difficile l‟impiego: la distribuzione e-
strapolata da dati passati potrebbe non ripresentarsi a condizioni diverse, in secondo luogo
l‟approccio SS diviene inutilizzabile in mancanza di una banca dati rilevante, a meno che
non si utilizzi il bootstrapping.
Il metodo di simulazione Monte Carlo può aiutare a ridurre tale distorsione, potendo sce-
gliere sceglie la distribuzione che approssima al meglio quella reale.
Tuttavia la maggiore precisione del metodo MC sconta un grado di difficoltà molto mag-
giore rispetto agli altri due modelli: la sua implementazione richiede innumerevoli simula-
zioni, il che lo rendono un procedimento lento e oneroso.
70
Tabella 2.3: Comparazione tra gli approcci, una visione d‟insieme
Fonte: C. Pederzoli, C. Torricelli; Una rassegna sui metodi di stima del value at risk (VaR); Dipartimento di Economia
Politica, Università degli Studi di Modena e Reggio Emilia; Marzo 1999
Caratteristiche Delta-Normal Simulazione Storica Simulazione Monte
Carlo Ipotesi di lineari-
tà del valore del
portafoglio ri-
spetto ai fattori di
rischio
Si No No
Capacità di cat-
turare il rischio
nelle opzioni No Si Si
Necessità di speci-
ficare la distribu-
zione dei rendi-
menti
Si
È necessario ipotizzare la
distribuzione normale sia per
i rendimenti dei fattori di ri-
schio che per il rendimento
dell'‟intero portafoglio (co-
me conseguenza dell'‟ipotesi
di linearità)
No
La distribuzione dei rendi-
menti è quella empirica, deri-
vata cioè dai valori storici dei
fattori di rischio
Si
È necessario ipotizzare una
distribuzione di probabilità
per i rendimenti dei fattori di
rischio, quella del portafoglio
viene determinata dalle for-
mule di pricing
Necessità di sti-
mare dei parame-
tri
Si
Necessarie le stime di volati-
lità e correlazioni dei fattori
di rischio
No
Si
Sono necessarie le stime dei
parametri richiesti dal model-
lo adottato (ad esempio vola-
tilità e correlazione dei fattori
di rischio)
Dipendenza dai
dati storici
Si
Se le stime della volatilità e
delle correlazioni sono basa-
te su dati storici
Si
I valori ipotetici dei rendi-
menti dei fattori di rischio
non sono altro che i loro valo-
ri passati
Si
Se le stime dei parametri sono
basate su dati storici
Difficoltà di im-
plementazione Medio Facile Difficile
Necessità di risk
mapping Si No No
71
Dunque, è impossibile definire quale approccio domini sugli altri in termini di precisione,
velocità di calcolo e semplicità, tuttavia è possibile indicare quale sia il migliore approccio
in relazione agli strumenti posseduti.
Sostanzialmente, è possibile affermare che se il portafoglio non contiene una componente
opzionale, un calcolo per brevi periodi può essere compiuto con l‟approccio Varianze-
Covarianze; viceversa, il metodo MC è adatto a portafogli non-lineari, in cui la distribu-
zione storica si presenta molto difforme dalla distribuzione normale, mentre se il VaR è
calcolato su posizioni che presentano stazionarietà dei rendimenti, l‟approccio delle simu-
lazioni storiche risulta ottimale.
Se risulta complesso individuare un metodo che si distingue sugli altri, è necessario porre
attenzione a metodi alternativi, cioè ai metodi sviluppati apportando modifiche sostanziali
ad uno o più dei tre metodi già esistenti.
Un occhio di riguardo viene posto nei confronti del modello ibrido, che come tale incorpo-
ra in se i principali vantaggi dei due modelli a cui fa riferimento, cioè il modello varianze-
Covarianze e il metodo delle serie storiche.
Come già specificato, il metodo ibrido è una simulazione storica che definisce pesi che de-
cadono gradualmente quando i dati campionari divengono meno recenti; in questo modo, il
modello viene liberato dal peso delle assunzioni di normalità e di linearità imposte dal mo-
dello RiskMetrics™, e al contempo consente di eliminare l‟ipotesi di stazionarietà implici-
ta nel modello SS.
Ovviamente, il modello non è esente da difetti: mentre per i metodi parametrici esistono
vie alternative per il calcolo di volatilità e correlazioni, il metodo ibrido rimane una simu-
lazione storica, e come tale necessita di un ampio volume di dati per evitare il „convergen-
ce error‟, (che coincide nel caso della HS con il „sampling error‟), cioè una distorsione del-
la stima dovuta proprio alla mancanza del dato storico.
72
Per dimostrare come l‟approccio primeggi sugli altri l‟applicazione empirica da Boudouk,
Richardson e Whitelaw83
su cinque posizioni
• Tasso di cambio Dollaro/Marco;
• Prezzo spot del Brent;
• Indice S&P 500;
• Indice dei Brady bond84
(JP Morgan Brady Broad Index);
• Portafoglio equipesato delle quattro posizioni (EQW);
sembra confermare la superiorità di questo metodo rispetto ai due dai quali deriva (Ri-
skMetrics™ e SS), soprattutto per variabili la cui distribuzione sia fortemente caratterizza-
ta da „code grasse‟ (fat-tailed).
Come è osservabile in Tabella 2.4, il calcolo del VaR viene compiuto su un intervallo di
confidenza del 95% e del 99%, su una finestra di calcolo di 250 giorni mediante un model-
lo a Simulazioni Storiche, un modello Varianze-Covarianze esponenziale (con 𝜆 = 0,97 e
𝜆 = 0,99) e un modello ibrido (con 𝜆 = 0,97 e 𝜆 = 0,99).
83
J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern
School of Business, NYU; 1998 84
I Brady bond sono obbligazioni denominate in dollari
73
Tabella 2.4: calcolo del VaR con differenti approcci
VaR 5% Simulazione
Storica
Var-Cov Esponenziale Ibrido
𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99
Dollaro/Marco 5,32 5,74 5,18 5,25 5,04
Brent 4,96 5,60 5,39 5,18 5,18
S&P500 5,46 4,68 4,18 6,17 5,46
Brady Bond
Index
5,32 4,47 4,40 5,96 5,46
EQW 4,96 5,04 4,26 5,67 5,39
Media 5,21 5,11 4,68 5,65 5,30
VaR 1% Simulazione
Storica
Var-Cov Esponenziale Ibrido
𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99
Dollaro/Marco 1,06 2,20 1,63 1,84 1,28
Brent 1,13 1,77 1,77 1,70 1,35
S&P500 1,28 2,20 2,13 1,84 1,42
Brady Bond
Index
1,35 2,70 2,41 1,63 1,35
EQW 1,49 1,42 1,42 1,63 1,21
Media 1,26 2,06 1,87 1,73 1,32
Fonte: J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern School of
Business, NYU; 1998
Come si può notare, i metodi non parametrici offrono un valore più basso del VaR, questo
potrebbe far pensare che il metodo Varianze-Covarianze risulti maggiormente prudenziale,
in realtà non è così: la Tabella 2.5 presenta l‟errore medio assoluto percentuale per le 5 po-
sizioni, utilizzando una finestra mobile di 100 giorni, come si può notare, sia nel VaR 5%
che nel VaR 1% il metodo ibrido si dimostra più accurato in entrambe le varianti.
74
Quindi il metodo ibrido mostra empiricamente i vantaggi dei due approcci Storico e Var-
Cov, fornendo un valore di perdita più basso, ma più preciso.
Tabella 2.5: errore medio assoluto percentuale
VaR 5% Simulazione
Storica
Var-Cov Esponenziale Ibrido
𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99
Dollaro/Marco 2,42 1,58 2,11 1,08 1,77
Brent 2,62 2,36 2,67 1,93 2,44
S&P500 1,91 1,52 1,85 1,72 1,68
Brady Broad
Index
3,53 3,01 3,34 2,54 2,97
EQW 2,36 2,48 2,33 1,50 2,20
Media 2,57 2,19 2,46 1,76 2,21
VaR 1% Simulazione
Storica
Var-Cov Esponenziale Ibrido
𝜆 = 0,97 𝜆 = 0,99 𝜆 = 0,97 𝜆 = 0,99
Dollaro/Marco 0,87 1,50 1,12 1,02 0,88
Brent 0,96 1,07 1,39 0,84 0,80
S&P500 1,14 1,40 1,42 0,99 0,82
Brady Broad
Index
1,32 1,98 2,06 1,03 1,12
EQW 1,52 1,25 1,25 0,72 0,87
Media 1,16 1,44 1,45 0,92 0,90
Fonte: J. Boudoukh1, M. Richardson, R. Whitelaw; A Hybrid Approach to Calculating Value at Risk; Stern School of
Business, NYU; 1998
75
2.4 I modelli “alternativi”: il CoVaR, l‟Expected Shortfall, il CAViaR
2.4.1 Il CoVaR
La stretta interconnessione del sistema bancario impone agli intermediari e ai regolatori di
adottare un approccio “collettivistico” al rischio “di interconnessione”, con misure che de-
vono esprimere il contributo al rischio sistemico da parte dei singoli intermediari finanzia-
ri, in modo da dar vita a misure che limitino il cosiddetto effetto domino.
Questo è ancor più vero durante la crisi finanziaria, in quanto la teoria economica insegna
che durante il crollo economico l‟effetto contagio tende ad amplificare la concentrazione
del sistema finanziario, in quanto la crisi spinge le società in salute ad acquistare le altre in
procinto di fallire.
Questo processo porta a un ancor maggior rischio che le singole istituzioni finanziarie fal-
liscano insieme o che addirittura l'intero sistema finanziario collassi (come riportato in Fi-
gura 2.13)
Figura 2.13: fallimenti bancari negli Stati Uniti dal 1934 al 2009
Fonte: F. Mishkin and S. Eakins; Financial Markets and Institutions; Pearson/Prentice Hall; 2012.
76
Innanzitutto, cos‟è il rischio sistemico?
Non è facile dare una definizione di rischio sistemico, Furfine (2003)85
lo definisce distin-
guendo due tipi di rischio:
- Il rischio che uno shock finanziario provochi un rischio di fallimento simultaneo di mer-
cati o istituzioni;
- Il rischio che il fallimento di una o più istituzioni venga trasmesso ad altre a causa dei le-
gami tra le stesse
mentre, Rochet and Tirole (1996)86
definiscono il rischio sistemico come il rischio che la
difficoltà di una banca si propaghi ad altri agenti economici legati a quest‟ultima attraverso
transazioni finanziarie.
Trascendendo dalla definizione, risulta evidente come il rischio sistematico vada oltre la
singola banca, sviluppandosi in fenomeni di codipendenza tra istituzioni finanziarie e come
il fallimento di alcune istituzioni finanziarie può produrre impatti negativi sull'intero siste-
ma.
In questo senso il VaR risulta una misura inadeguata: il calcolo del rischio sistemico va ol-
tre le competenze del valore a rischio che, lo ricordiamo, quantifica il rischio di mercato di
un intermediario finanziario singolarmente preso e soprattutto isolato dal sistema finanzia-
rio.
Considerando quanto detto finora, si possono porre due domande:
- Come identificare le istituzioni finanziarie di rilievo a livello sistemico?
- Come quantificare il contributo di rischio della singola istituzione finanziaria all‟intero
sistema?
Secondo Brunnermeier, Crocket, Goodhart, Perssaud, and Shin (2009)87
, una misura di ri-
schio sistemico deve quantificare il rischio generato da singole istituzioni che sono così in-
terconnesse e grandi da poter causare rischio di spillover su tutto il sistema.
Su questo filone d‟indagine, Adrian e Brunnemeier88
hanno proposto il 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗 89
, defini-
to come il VaR dell'istituzione i-esima condizionato all‟istituzione j-esima, che si trova in
una situazione distressed, in cui il rendimento90
è pari proprio al VaR.
85
C. Furfine; Interbank Exposures: Quantifying the Risk of Contagion; Journal of Money, Credit, and Bank-
ing; 2003 86
J.Rochet, J.Tirole; Interbank Lending and Systemic Risk; Journal of money, credit, and banking; 1996 87 M. Brunnermeier, A. Crockett, C. Goodhart, A. Persaud, H. Shin; The Fundamental Principles of Finan-
cial Regulation; Geneva Reports on the World Economy; 2009
77
Il CoVaR rappresenta l‟𝛼-esimo quantile della distribuzione, in formule:
(2.8) Pr 𝑟𝑡𝑖 ≤ 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡
𝑖|𝑗 𝑟𝑡𝑗
= 𝑉𝑎𝑅𝑡𝑗 = 𝛼91
Per considerare l‟impatto dell'istituzione j-esima sul mercato, basta sostituire al generico
intermediario i, il sistema finanziario, avremo:
Pr 𝑟𝑡𝑠𝑖𝑠𝑡 ≤ 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡
𝑠𝑖𝑠𝑡 |𝑗 𝑟𝑡𝑗
= 𝑉𝑎𝑅𝑡𝑗 = 𝛼
Analogamente, studiare l‟impatto dell'indice o settore sull'istituzione significa sostituire
nella (2.8) al j-esimo operatore l‟indice o il settore.
Quindi il CoVaR è il valore al rischio dell'istituzione condizionato al VaR di un‟altra isti-
tuzione, introducendo così il concetto di “comovimenti” tra il sistema finanziario e
l‟istituzione o tra istituzioni.
In questo senso, non è propriamente corretto parlare di modello “alternativo” al VaR in
quanto il CoVaR agisce su un rischio differente rispetto a quello misurato nel Value at
Risk.
88
T. Adrian, M. Brunnermeier; CoVar; Federal Reserve Bank of New York, Staff Reports; 2009 89
Come specificato dagli stessi autori, il termine Co-VaR con è casuale, esso è stato scelto per enfatizzare la
natura sistemica del misuratore.
Infatti, il prefisso “Co” rimanda a: conditional, comovement, contagion, contributing cioè misura condiziona-
le, comovimenti (tra banche), contagio (dal rischio), contributo (della singola banca al rischio sistemico). 90
Ricordiamo che in questa sede il rendimento rappresenta un valore assoluto.
In parole povere, dire che il rendimento è pari al VaR significa che l‟istituzione ha subito una perdita pari al
valore a rischio. 91
Ricordiamo che il VaR è la massima perdita possibile in un lasso temporale e ad un determinate livello di
confidenza 𝛼
Pr 𝑟𝑡𝑖 ≤ 𝑉𝑎𝑅𝑡
𝑖 = 𝛼
78
Figura 2.14: La relazione di CoVaR tra Bank of America Corp. (BAC) , Goldman Sachs Group Inc (GS), Lehman
Brothers Holdings Inc (LEH), Citigroup Inc. (C), J.P. Morgan Chase & Co. (JPM).
Il numero più in alto rappesenta il CoVaR dell‟istituzione condizionata al fatto che l‟istituzione alla punta è in distress, il
numero in basso il viceversa.
Fonte: T. Adrian, M. Brunnermeier; CoVaR; Federal Reserve Bank of New York, Staff Reports; 2009
È inoltre possibile costruire altri indicatori attinenti al CoVaR, come il ∆𝐶𝑜𝑉𝑎𝑟 che misura
per la singola entità lo scostamento tra VaR e CoVaR:
(2.9) ∆𝐶𝑜𝑉𝑎𝑟𝑖,𝑗 = 𝐶𝑜𝑉𝑎𝑟𝑡𝑖,𝑗− 𝑉𝑎𝑟𝑡
𝑖
∆𝐶𝑜𝑉𝑎𝑟 rappresenta l‟esposizione al rischio sistematico o al rischio di contagio, e ovvia-
mente, la rischiosità dell‟istituzione i-esima è tanto maggiore quando il settore è in una si-
tuazione di crisi.
Se i = sistema, il ∆𝐶𝑜𝑉𝑎𝑟𝑖,𝑗 individua la differenza tra il VaR del sistema finanziario con-
dizionato alla situazione distressed della generica istituzione j-esima, e il VaR incondizio-
nato dell'intero sistema e sostanzialmente misura quanto una istituzione “aggiunge” al ri-
schio sistemico a causa della sua grandezza o della sua forte interconnessione con il merca-
to.
Un altro indicatore è il CoVaR%, dato da:
𝐶𝑜𝑉𝑎𝑅𝑡𝑖% =
𝐶𝑜𝑉𝑎𝑅𝑡𝑖 − 𝑉𝑎𝑅𝑡
𝑖
𝑉𝑎𝑅𝑡𝑖
∙ 100
79
Oppure, è possibile costruire un indicatore percentuale ∆𝐶𝑜𝑉𝑎𝑟%, che indica il valore
(percentuale) del CoVaR del sistema (o dell'‟intermediario) al variare della “situazione”
dell'intermediario j, ed è definito da:
∆𝐶𝑜𝑉𝑎𝑟% =𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡
𝑠|𝑗− 𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡
𝑠|𝑏 𝑗
𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑠|𝑏 𝑗
Dove:
𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑠|𝑗
= CoVaR del sistema finanziario quando l‟intermediario j è in condizione di-
stressed
𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑠|𝑏 𝑗
= CoVaR del sistema finanziario quando l‟intermediario j è in una situazione
benchmark, definita come una deviazione standard attorno all‟evento medio
𝜇𝑡𝑗− 𝜍𝑡
𝑗≤ 𝑟𝑡
𝑗≤ 𝜇𝑡
𝑗+ 𝜍𝑡
𝑗
Il CoVaR è una misura piuttosto recente, ma che sta conoscendo una grande diffusione,
dovuta perlopiù al fatto che essa cattura un rischio, il rischio sistemico appunto, che è in
parte all‟origine della crisi attuale. In particolare, il CoVaR è caratterizzato da:
- Causalità: la misura ∆𝐶𝑜𝑉𝑎𝑟 non distingue se il contributo di ogni società al rischio si-
stemico totale è causale o guidato da fattori comuni.
Concretamente se una società entra in crisi, non necessariamente questo comporta una crisi
di sistema ma se la crisi è scaturita da un fattore comune a più società, questo sicuramente
avrà effetti dirompenti su tutto il sistema.
In questo senso, è necessario che ogni società stimi il co-rischio individuale a prescindere
che vi sia o meno rischio di causalità diretto, e che di conseguenza l‟indicatore utilizzato
non compia distinzioni tra questi rischi.
- Direzionalità: il CoVaR del sistema condizionato all‟istituzione j-esima non è uguale al
CoVaR dell'istituzione i-esima condizionato al sistema.
- Endogeneità: il CoVaR di una istituzione, anche se dipendente da quello delle altre istitu-
zioni, è endogeno e questo consente ad ogni istituzione di modificare la propria esposizio-
ne al rischio sistemico
80
Tale vantaggio permette in primo luogo di calcolare gli effetti di spillover sull'intera rete
finanziaria (ad esempio tra sue intermediari, tra un intermediario e il sistema, tra il sistema
ed un intermediario e così via), ma soprattutto consente ulteriori implementazioni del mo-
dello. Una di queste è il Co-ES (Co-Expected Shortfall), che cattura la perdita attesa oltre
l‟𝛼-esimo percentile del CoVaR, così come l‟Expected Shortfall92
cattura la perdita scaturi-
ta oltre l‟𝛼-esimo quantile del VaR.
Quindi, la 𝐶𝑜𝐸𝑆𝛼 ,𝑡𝑖 ,𝑗
è l‟Expected Shortfall condizionata al 𝑉𝑎𝑅𝑡𝑗
= 𝑟𝑡𝑗, ed è calcolata come
il valore atteso oltre l‟𝛼-esimo percentile della distribuzione di probabilità condizionata
𝐸(𝑟𝑡𝑖|𝑟𝑡
𝑖 ≤ 𝐶𝑜𝑉𝑎𝑅𝛼 ,𝑡𝑖,𝑗
)
Mentre, il contributo della generica istituzione j al CoVaR, analogamente a quanto definito
nella (2.9) è definito da:
∆𝐶𝑜𝐸𝑆𝛼𝑖 ,𝑗
= 𝐸 𝑟𝑡𝑖 𝑟𝑡
𝑖 ≤ 𝐶𝑜𝑉𝑎𝑅𝛼𝑖,𝑗 − 𝐸(𝑟𝑡
𝑖|𝑟𝑡𝑖 ≤ 𝑉𝑎𝑅𝛼
𝑖 )
92
L‟Expected shortfall verrà analizzata nel paragrafo successivo
81
2.4.1.1 Il calcolo del CoVaR: quali soluzioni?
Adrian e Brunnermeier hanno proposto una stima basata sulla regressione lineare.
In questo senso, il rendimento dell'intermediario i-esimo 𝑟𝑡𝑖 regresso sul rendimento un in-
termediario j-esimo è93
:
𝑟𝛾 ,𝑡𝑖 ,𝑗
= αj + βj𝑟𝛾 ,𝑡𝑖
Dove
𝑟𝑡𝑖 ,𝑗
= rendimento dell'‟intermediario i-esimo per un quantile 𝛾 condizionato all‟istituzione j
Se consideriamo che il CoVaR è definito come il VaR dell'istituzione i (ad un determinato
quantile 𝛾) quando l‟istituzione j si trova in una condizione di distress tale per cui
𝑟𝛾 ,𝑡𝑗
= 𝑉𝑎𝑅𝛾 ,𝑡𝑗
Allora:
𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗
= 𝑉𝑎𝑟𝛾 ,𝑡𝑖 |𝑉𝑎𝑅𝛾 ,𝑡
𝑗= αj + βj𝑉𝑎𝑅𝛾 ,𝑡
𝑗
Invece, la variazione nel tempo del CoVaR e del VaR viene ancora stimata attraverso una
regressione lineare subordinata però ad un vettore di variabili ritardate, formalmente:
𝑉𝑎𝑅𝑡𝑗
= 𝑎𝑗 + 𝑏𝑗𝑀𝑡−1
𝑉𝑎𝑅𝑡𝑖 = 𝑎𝑖 + 𝑏𝑖𝑀𝑡−1
successivamente, il calcolo del 𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗
viene compiuto effettuando una regressione di 𝑟𝑡𝑖
su 𝑟𝑡𝑗sullo stesso insieme di variabili.
𝐶𝑜𝑉𝑎𝑟𝛼 ,𝑡𝑖|𝑗
= 𝑉𝑎𝑅𝑡𝑖 |𝑉𝑎𝑅𝑡
𝑗= 𝑎𝑖 ,𝑗 + 𝑏𝑖 ,𝑗𝑀𝑡−1 + 𝑐𝑉𝑎𝑅𝑡
𝑗
Dove:
𝑀𝑡−1 = vettore di variabili ritardate a t-1
𝑎, 𝑏, 𝑐,= coefficienti stimati dalla regressione
93
Per una dimostrazione più dettagliata, si veda T. Adrian, M. Brunnermeier; CoVar; Federal Reserve Bank
of New York, Staff Reports; 2009
82
In conclusione, la recente crisi finanziaria ha sollevato preoccupazioni sul rischio sistemi-
co, incrementate dalla constatazione che il VaR non riesce a cogliere questa misura di ri-
schio, e che essa si dimostra indipendente dalle principali grandezze bancarie (vedi Figura
2.15), rendendo difficile la sua quantificazione attraverso semplici indici di bilancio.
Ed è proprio la nascita del CoVaR che consente una maggiore gestione del rischio sistemi-
co da parte degli intermediari finanziari da un lato, e il controllo dello stesso da parte delle
autorità di vigilanza dall'altro.
In questo senso, il grande contributo del CoVaR sta proprio nell‟aver spostato l‟attenzione
della vigilanza dal singolo intermediario, al settore finanziario globale; completando il si-
stema di vigilanza con l‟estensione dello stesso anche a quei comportamenti degli interme-
diari che generano esternalità negative per tutto il sistema.
Fonte: G. Girardi, A. Ergün; Systemic Risk Measurement: Multivariate GARCH Estimation of CoVaR; 2012
Figura 2.15: relazione tra la contribuzione al rischio sistemico (misurato come media del ∆𝑪𝒐𝑽𝒂𝒓)e il rischio della so-
cietà “in isolamento”, misurato con il VaR, la dimensione della società (valor totale degli assets in milioni di dollari), il
leverage della società (rapporto tra attivo totale e l‟equity) e il beta della società
83
2.4.2 L‟Expected Shortfall, una misura di rischio coerente
Nel 1999 Artzner94
propose una misura di rischio alternativa al VaR: l‟Expected Shor-
tfall95
.
L‟Expected Shortfall è definito come il valore atteso delle perdite che scaturiscono oltre
una determinata soglia, generalmente il livello di confidenza 𝛼 del VaR. Formalmente:
𝐸𝑆(1−𝛼) = −1
𝛼 𝐹−1(𝑥)
𝛼
0
𝑑𝑥
Dove:
𝑥 = variabile aleatoria che indica i rendimenti del portafoglio
Sapendo che 𝑧𝛼 rappresenta il 100𝛼-esimo percentile della distribuzione di probabilità
F(x), si può scrivere che 𝑧𝛼 = −𝑉𝑎𝑅(1−𝛼), quindi è possibile scrivere che
𝐸𝑆(1−𝛼) = 𝑉𝑎𝑅(1−𝛼) +1
𝛼 𝐹 𝑥 𝑑𝑥 = −
1
𝛼 𝑥𝑓 𝑥 𝑑𝑥 =𝑧𝛼
−∞
𝑧𝛼
−∞
− 𝐸(𝑋|𝑋 < 𝑧𝛼)
O analogamente,
𝐸𝑆𝛼(𝑋) = 𝐸(−𝑋| − 𝑋 ≥ 𝑉𝑎𝑅𝛼(𝑋))
Similmente a quanto visto per le serie storiche filtrate, considerando la volatilità della di-
stribuzione 𝜍𝑡 , è possibile riscrivere la formula in termini di residui standardizzati
𝐸𝑆 = 𝐸(𝑋|𝑋 < 𝑧𝛼) = 𝜍𝑡𝐸𝑡 𝑋
𝜍𝑡|𝑋
𝜍𝑡<𝑧𝛼 ,𝑡
𝜍𝑡
94
P. Artzner, F. Delbaen, J. Eber, D. Carnegie; Coherent Measures Of Risk; Mathematical Finance; 1998 95
L‟expected Shortfall viene definite anche Average Shortfall (AS), Conditional VaR (CVaR) o Extreme
value at risk (EVaR)
84
Figura 2.16: l‟Expected Shortfall
Fonte: Y. Yamai, T. Yoshiba; On the Validity of Value-at-Risk: Comparative Analyses with Expected Shortfall; Mone-
tary And Economic Studies; 2002
Si può quindi affermare che se il VaR rappresenta la massima perdita probabile per un dato
livello di confidenza, l‟ES rappresenta il valore atteso della perdita che va oltre il valore
stimato dal VaR stesso.
Di conseguenza, se ad esempio il VaR può essere anche definita “la minima perdita poten-
ziale che un portafoglio può soffrire nel 5% dei casi peggiori” o, viceversa “la massima
perdita potenziale che un portafoglio può soffrire nel 95% dei casi 𝛼 = 0,95 dei casi”,
l‟ES è la semplice media delle perdite che scaturiscono nel restante 5% .
2.4.2.1 Le misure di rischio coerenti
Ma perché utilizzare una misura che calcoli una perdita per eventi estremi, quando il VaR
può agevolmente calcolare la perdita per rischi plausibili?
La risposta fornita dallo stesso Artzner è immediata: per quanto il VaR risulti il modello
che presenta il migliore trade-off tra precisione ed istantaneità, esso non può essere consi-
derato una misura di rischio coerente.
Formalmente, prima di definire una misura di rischio coerente, è necessario definire cos‟è
essa stessa una misura di rischio.
85
Dato (Ω, F, P) uno spazio di probabilità, e X un insieme non vuoto di valori reali di una va-
riabile casuale, si definisce 𝜌
𝜌:𝑋 → 𝑅 𝑈 ∞
una misura di rischio.
Secondo Artzner e al.(1999)96
una misura di rischio 𝜌:𝑋 → 𝑅 𝑈 ∞ è coerente se mono-
tona, invariante alle traslazioni, subadditiva, omogeneamente positiva.
- Monotonicità: dati 𝑋, 𝑌 ∈ 𝐹 con 𝑋 < 𝑌 si ha:
𝜌(𝑋) ≤ 𝜌(𝑌)
- Invarianza alle traslazioni: per ogni 𝑋 ∈ 𝐹 (dove 𝐹 è l‟insieme dei valori reali funzione di
Ω, se abbiamo
𝜌 𝑋 + 𝛼 ∙ 𝑟 = 𝜌 𝑋 − 𝛼
Dove:
𝑋 = Variabile aleatoria che indica i rendimenti del portafoglio
𝛼 = Ammontare sommato/sottratto al portafoglio
𝑟 = Rendimento dello strumento di riferimento (tasso risk free)
Allora la misura di rischio 𝜌 è invariante alle traslazioni.
In parole più semplici, se si somma o sottrae un ammontare 𝛼 alla posizione iniziale e lo
investiamo in uno strumento di riferimento, la misura di rischio diminuisce (aumenta) dello
stesso ammontare 𝛼.
Di conseguenza, l‟assioma implica che per ogni 𝑋
𝜌 𝑋 + 𝜌(𝑋) ∙ 𝑟 = 0
- Omogeneità positiva: dato 𝛿 > 0 e 𝑋 ∈ 𝐹, allora
𝜌 𝛿𝑋 = 𝛿𝜌 𝑋
96
P. Artzner, F. Delbaen, J. Eber, D. Heath; Coherent measures of risk; Mathematical Finance; 1999
86
Anche questo assioma ha un riscontro finanziario: data una posizione 𝛿𝑋, essa è più grande
e ragionevolmente meno liquida della posizione 𝑋; la rischiosità associata alla illiquidità
dello strumento 𝛿𝑋 deve essere maggiore o tutt‟al più uguale a 𝛿 posizioni di importo 𝑋
- Subadditività: per ogni 𝑋1, 𝑋2 ∈ 𝐹
𝜌 𝑋1 + 𝑋2 ≤ 𝜌 𝑋1 + 𝜌 𝑋2
La subadditività può essere considerata un requisito naturale nel mondo finanziario.
Ad esempio, se la proprietà non fosse soddisfatta, un individuo che voglia caricarsi dei ri-
schi 𝑋1 + 𝑋2 avrebbe interesse a separare i rischi in due conti differenti, piuttosto che unir-
li in un unico conto o, ancora, una impresa che deve soddisfare i requisiti di capitalizzazio-
ne (in cui quindi i rischi sono aggregati 𝜌 𝑋1 + 𝑋2 ), sarebbe incentivato a separarsi in due
entità, così da pagare un requisito minore, in quanto 𝜌 𝑋1 + 𝑋2 ≥ 𝜌 𝑋1 + 𝜌 𝑋2 .
Come si è avuto modo di vedere utilizzando i modelli VaR, le principali difficoltà nella
stima si incontrano dovendo includere nell‟analisi tutti i risk factor che interessano il porta-
fogli.
Questo ostacolo risulta ancor più accentuato dalla mancanza di non-additività, in particola-
re il VaR presenta:
- Non-additività da posizione: dato un portafoglio composto da due subportafogli, il VaR
complessivo non è dato dalla somma dei due parziali VaR con la conseguenza che l'ag-
giunta di un nuovo strumento di un portafoglio obbliga a ricalcolare il VaR per l'intera
portafoglio.
- Non-additività da fattori di rischio: un vantaggio del VaR consiste nella possibilità di di-
saccoppiare i rischi associati a diversi fattori di rischio, “accedendo” al VaR solo per una
classe di fattori di rischio. Si poi parla in questi casi di VaR parziale, come ad esempio
l‟Interest Rate VaR (IRVAR), Forex VaR (FXVaR), VaR Equity (EQVaR), Credit VaR
(CVaR).
Tuttavia questo non supera i problemi di calcolo del VaR in quanto vige la non additività
dei fattori di rischio: per un portafoglio su cui insistono molteplici variabili di rischio, il
VaR non è la somma dei VaR parziali.
87
Nondimeno, l‟ES non può essere considerato un modello superiore al VaR: innanzitutto
stimare la coda della distribuzione può risultare complesso se compiuta utilizzando metodi
tradizionali, in quanto, alcune proprietà dei prezzi delle attività possono modificarsi se os-
servate in condizioni di mercato normali o in condizioni estreme, e ciò rende più difficolto-
so utilizzare un modello di simulazione come il Monte Carlo.
In secondo luogo il backtesting risulta di difficile applicazione, dovendo calcolare la media
tra il valore della Expected Shortfall e le perdite realizzate oltre il VaR, che, essendo in-
frequenti, rendono impossibile una stima accurata.
2.4.3 Il CaViaR
Il VaR è definito come la massima perdita possibile con una probabilità dell'𝛼% per un o-
rizzonte di tempo predefinito, un altro modo di esprimere il VaR è indicarlo come il più
basso quantile delle perdite potenziali che scaturiscono all‟interno di un determinato porta-
foglio durante un periodo specifico.
Di conseguenza, stimare il quantile significa stimare direttamente il valore a rischio della
posizione/portafoglio.
Quindi, sfruttando la teoria del valore estremo (EVT)97
il VaR viene interpretato come un
particolare quantile dei valori futuri del portafoglio, su questa intuizione Engle e Manga-
nelli98
hanno dato vita all‟approccio CAViaR (Conditional, Autoregressive, Value at Risk)
mediante il quale piuttosto che modellare l‟intera distribuzione, si considera direttamente il
quantile mediante un processo autoregressivo.
97
La teorica del valore estremo (Extreme Vlue Theory) si preoccupa di modellare solamente le code estreme
della distribuzione, in quanto queste sono l‟unico obiettivo del risk management.
Secondo la teoria, per un campione molto ampio, tali code convergono alla distribuzione di Pareto generaliz-
zata, la quale viene poi utilizzata con vari approcci per il calcolo del VaR. 98
Per un‟analisi più approfondita, vedi R. Engle; S. Manganelli; CAViaR: Conditional Autoregressive Value
at Risk by Regression Quantiles; 2002
88
Definito 𝑟 l‟insieme dei rendimenti e 𝛼 il livello di confidenza, cioè la probabilità associata
al VaR (𝛼 è la probabilità che la perdita massima sia pari al VaR), la formulazione genera-
le del CAViaR è:
(3.0) 𝑞𝑡 ,𝛼 = 𝑓𝑡 𝛽𝛼 = 𝛽0 + 𝛽𝑖𝑓𝑡−𝑖 𝛽𝛼 + 𝛽𝑗 𝑙 𝑥𝑡−𝑗 𝑟
𝑗=1
𝑞
𝑖=1
In cui:
𝑥𝑡 = vettore di variabili osservate al tempo t
𝑓𝑡 𝛽𝛼 = 𝑓(𝑥𝑡−1;𝛽𝛼) = funzione che individua l‟ 𝛼 quantile della distribuzione definita al
tempo t-1, dove Prt−1 𝑟𝑡 ≤ 𝑓𝑡 𝛽𝛼 = 𝛼
𝛽𝛼 = vettore di dimensione 𝑝 = 𝑞 + 𝑟 + 1
𝑙 𝑥𝑡−j = funzione delle x osservazioni ritardate
𝛽0,𝛽𝑖 ,𝛽𝑗 = parametri
Dalla formulazione generale della (3.0) è possibile derivare differenti modelli, ad esempio
il Symmetric Absolute Value:
𝑞𝑡 ,𝛼 = 𝑓𝑡 𝛽𝛼 = 𝛽1 + 𝛽2𝑓𝑡−1 𝛽 + 𝛽3|𝑟𝑡−1|
O l‟Indirect GARCH (1,1):
𝑞𝑡 ,𝛼 = 𝑓𝑡 𝛽𝛼 = 𝛽1 + 𝛽2𝑓𝑡−12 𝛽 + 𝛽3𝑟𝑡−1
2
È facile constatare come in entrambi i modelli, il quantile è condizionato alla realizzazione
del rendimento del periodo precedente
89
Invece, i parametri 𝛽0,𝛽𝑖 ,𝛽𝑗 sono stimati mediante quantili di regressione99
. Si consideri
𝑟 𝑡=1𝑇 = 𝑟1; 𝑟2;⋯𝑟𝑇 come un campione casuale generato da
𝑟𝑡 = 𝑥𝑡′𝛽0 + 휀𝛼 ,𝑡
Dove:
휀𝛼 ,𝑡 = Errore associato al livello di confidenza 𝛼,il cui quantile associato è nullo
𝑞𝛼 휀𝛼 ,𝑡 𝑥𝑡 = 0
𝑥𝑡′ = vettore di regressori
Dato 𝑓𝑡 𝛽𝛼 = 𝑥𝑡′𝛽0 i quantili di regressione sono definiti attraverso un problema di mini-
mizzazione, come quei 𝛽 che risolvono:
𝑚𝑖𝑛𝛽1
𝑇 𝜃 − 𝑙 𝑟𝑡 < 𝑓𝑡 𝛽𝛼 𝑟𝑡 − 𝑓𝑡 𝛽𝛼
𝑇
𝑡=1
99
I quantili di regressione sono definiti in maniera dettagliata in R. Koenker; G. Bassett; Regression Quanti-
les; Econometrica; 1978.
90
CAPITOLO 3.
Il Var e la sua applicazione: i requisiti patrimoniali
imposti da Basilea a fronte dei rischi di mercato
3.1 L‟impiego del VaR a fini regolamentari: Il Market Risk Amendment
La pubblicazione del documento di consultazione del „93100
che per primo propose
l‟accantonamento a fronte del rischio di mercato, non esaurì gli obblighi del Comitato di
Basilea.
Infatti nel corso dei due anni successivi il documento fu riesaminato e, dopo la proposta
preliminare del ‟95, nel 1996 fu pubblicato ufficialmente il Market Risk Amendment, che
da una parte ribadisce quanto definito dal documento del ‟93 circa la costituzione del Tier
3 e il calcolo del requisito per i rischi di tasso, azionario e di cambio, e dall'altra introduce
modifiche all‟accordo iniziale potenziando il quadro normativo previsto dal primo Accordo
di Basilea.
Innanzitutto il nuovo accordo include il rischio commodities, cioè il rischio in posizioni in
merci e metalli preziosi101
.
Il Market Risk Amendment permette di stimare tale rischio attraverso un metodo per sca-
denze o un metodo semplificato, ma in entrambi i casi, le caratteristiche del mercato delle
commodities (complessità102
, alta volatilità e bassa liquidità) ha spinto il Comitato a vietare
la compensazione tra merci ma a consentire, su approvazione delle autorità di Vigilanza, la
compensazione tra sottomerci.
100
Per maggiori dettagli vedi Appendice D 101
Ad esclusione dell'‟oro, che è inserito tra i rischi di cambio in quanto lo stesso comitato di Basilea afferma
che “[...]la volatilità dell'‟oro è più simile a quella delle valute estere e le stesse banche gestiscono l‟oro in
modo analogo ad una valuta.” V. Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali
per incorporarvi i rischi di mercato; 1996. 102
Il mercato delle commodities è influenzato da quattro tipi di rischio: rischio direzionale (fluttuazione del
prezzo attuale), rischio base (rischio che la relazione e/o il rapporto tra merci analoghe si modifichi), rischio
di tasso d‟interesse (rischio che vari il costo di finanziamento di posizioni a termine e in opzioni) e il foward
gap risk (rischio che il prezzo a pronti cambi per ragioni diverse dalla variazione dei tassi d‟interesse)
91
Utilizzando il primo metodo, ogni merce viene inserita in uno scadenzario e, compensando
le posizioni lunghe e corte, si moltiplica il valore a pronti della posizione netta di fascia per
un coefficiente di spread.
Successivamente si compensano le posizioni residue nette, a patto che la copertura recipro-
ca imprecisa venga compensata applicando un addizionale dello 0,6% al risultato della
somma tra fasce.
Il requisito patrimoniale sarà calcolato come il 15% della posizione netta finale per ogni
merce.
Nel metodo semplificato invece, il valore del rischio commodities è pari al 15% della posi-
zione netta ( posizione lunga meno corta, a prescindere dalle scadenze)per ogni merce,
maggiorato del 3% della posizione lorda (lunga più corta).
Nondimeno, la novità più importante del Market Risk Amendment rimane l‟approvazione
all‟uso di modelli interni per la misurazione del rischio di mercato.
La scelta è perlopiù scaturita dalle numerose critiche che hanno accompagnato l‟approccio
standard.
Difatti, se da un lato il metodo risultava eccessivamente prudenziale ad esempio nello
sproporzionato valore delle ponderazioni nella vertical disallowance o il divieto di com-
pensare posizioni azionarie su mercati diversi, dall'altro esso trascurava alcuni “ingredien-
ti” finanziari come ad esempio la diversificazione, in quanto il sistema a building block
consentiva di sommare il requisito per le diverse posizioni, ignorando implicitamente la
correlazione tra i fattori di mercato.
L‟impostazione presentata nell‟aprile ‟93 finiva quindi per danneggiare le banche, ed in
particolare le banche di maggiori dimensioni, le quali erano impossibilitate a sfruttare le
correlazioni esistenti nei loro portafogli di grande entità.
Tuttavia, a convincere il comitato circa la necessità di un nuovo accordo fu l‟analisi empi-
rica svolta nel 1994 in cui a 15 banche fu affidato un portafoglio di 350 posizioni su cui
stimare il valore a rischio per tutto il portafoglio e per ogni macro-fattore di rischio, su un
holding period decadale e un livello di confidenza del 99%.
L‟esercizio di simulazione accertò come il ricorso a un modello standard forniva risultati
divergenti tra gli intermediari, causati soprattutto da differenze sostanziali nelle variabili
utilizzate nel calcolo.
92
In particolare le banche si differenziavano per:
Orizzonte temporale scelto, che andava da qualche mese a più di un anno
Dimensione del campione utilizzato per la stima della volatilità
Trattamento del rischio connesso con le opzioni
Metodo di aggregazione delle singole misure dei rischi: alcune banche consideraro-
no la correlazione tra risk factor, mentre altre sommarono i valori a rischio
Definizione dei fattori di rischio, ad esempio, nel numero di scadenze utilizzate nel
clumping delle obbligazioni.
Mentre il Comitato constatava che il metodo standard avrebbe potuto non offrire la giusta
proxy per il calcolo del requisito patrimoniale, stavano conoscendo una sempre maggiore
diffusione i modelli basati sul VaR e implementati da J.P. Morgan.
Il Comitato decise quindi di considerarli come un‟alternativa al metodo a blocchi, autoriz-
zando gli intermediari ad istituire modelli interni per la misurazione del rischio di mercato.
Il Market Risk Amendment consente piena libertà nel modello da utilizzare, a condizione
che il valore a rischio venga calcolato su base giornaliera, livello di confidenza sia del 99%
e il periodo di detenzione sia stabilito a 10 giorni, anche se lo stesso Comitato autorizza
l‟utilizzo di periodi di tempo più brevi e della tecnica della volatilità scalata per ottenere in
un secondo tempo la volatilità decadale.
Inoltre, a differenza di quanto previsto nella proposta del ‟93, il Comitato tiene conto della
correlazione imperfetta tra assets, e acconsente all‟utilizzo di correlazioni empiriche tra at-
tività.
Per quanto riguarda la scelta dei dati, l‟MRA stabilisce che teoricamente, le serie di dati
devono essere aggiornate con una cadenza non inferiore ai tre mesi (ma che è possibile una
revisione in qualsiasi momento in caso di shock rilevanti) e che, per quanto riguarda le se-
rie storiche utilizzate nella stima, il periodo di osservazione deve riguardare un anno in ca-
so di media semplice, e sei mesi in caso di media ponderata esponenziale (come ad esem-
pio nell‟Approccio Ibrido).
93
Considerando che spesso un modello interno cattura solo il rischio generico di portafoglio,
il Comitato ha stabilito che al rischio generico stimato dal VaR è necessario sommare il ri-
schio specifico103
.
Si desume quindi che il requisito patrimoniale totale a fronte del rischio di mercato è misu-
rato come somma del il rischio generico calcolato come il maggiore tra il VaR del giorno
precedente e la media dei VaR degli ultimi sessanta giorni moltiplicata per un fattore di
ponderazione e il rischio specifico, misurato attraverso il metodo standard.
𝐶𝑅.𝑚𝑟𝑘 = 𝑚𝑎𝑥 𝑉𝑎𝑅𝑡−1;𝐾 ∙ 𝑉𝑎𝑅𝑡−1
60𝑡=1
60 + 𝐶𝑅.𝑠
Dove
𝑉𝑎𝑅𝑡−1= VaR decadale relativo al giorno precedente
𝐾 = fattore di ponderazione o scaling factor
𝐶𝑅.𝑠 = capitale allocato a fronte del rischio specifico
Il Comitato ha stabilito che le Autorità di Vigilanza hanno il compito di stabilire il valore
del fattore correttivo 𝐾 che varia da 3 a 4, (al valore minimo di tre è prevista una maggio-
razione tra 0 e 1), che dipenderà dalla “qualità” del modello, determinata dalla stessa Auto-
rità di Vigilanza attraverso un test retrospettivo.
Sempre all‟Autorità spetta l‟autorizzazione all‟utilizzo di modelli interni, subordinata ad
un‟adeguata struttura del modello rispetto all‟attività bancaria, all‟efficacia del modello
proposto, all‟esecuzione di prove di stress.
Questi requisiti quantitativi non esauriscono gli obblighi per gli intermediari: il Market
Risk Amendment impone che l‟utilizzo dei modelli interni sia subordinato altresì al rag-
giungimento di criteri qualitativi, i quali concernono la correttezza e l‟integrità del modello
e l‟integrazione dello stesso nella più ampia struttura di risk management della banca.
103
Il Comitato acconsente all‟uso di modelli interni anche per il calcolo del rischio specifico di obbligazioni e
azioni, a patto che il requisito misurato con i modelli sia almeno pari al 50% del corrispondente requisito mi-
surato con il metodo standard
94
In particolare la banca deve possedere un sistema di gestione del rischio in cui:
a) Venga creata un‟unità di gestione del rischio indipendente che produca e analizzi
rapporti quotidiani sui risultati del modello di misurazione del rischio;
b) Cda e il Direttore generale abbiano parte attiva nella gestione del rischio e la banca
riesamini almeno annualmente il sistema di misurazione del rischio, comprendente
l‟attività delle unità di trading e dell'unità di controllo del rischio.
c) Si utilizzi attivamente il modello interno per il processo quotidiano di risk
management e l‟attività di programmazione e controllo;
d) Vengano svolte regolari prove di stress, al fine di individuare le vulnerabilità del
modello e definire il profilo di rischio alla luce dei limiti di esposizione fissati dal
management.
In particolare, il Market Risk Amendment stabilisce che “gli scenari di stress devono
contemplare tutta una gamma di fattori in grado di generare perdite e guadagni
straordinari nei portafogli di negoziazione o di rendere molto difficoltoso il controllo
del rischio. Fra tali fattori rientrano eventi di bassa probabilità e [...] gli scenari di
stress devono poter evidenziare l‟impatto di questi eventi sulle posizioni con caratte-
ristiche di prezzo sia lineari che non lineari104
”.
L‟intermediario dovrà produrre condizioni di stress definite combinando quanto de-
finito dall'Autorità di Vigilanza con le prove di stress elaborate dalle banche in base a
caratteristiche peculiari105
.
Tali condizioni devono comprendere sia situazioni di shock dei prezzi che situazioni
di shock dei parametri quali volatilità e correlazione.
Nel primo caso ci si avvale di scenari caratterizzati da forte perturbazione, come il
crollo della borsa dell'87 o la crisi dello SME del ‟92, mentre nel secondo caso si uti-
lizzano i valori estremi delle distribuzioni relative a valori passati.
In seguito, l‟intermediario deve valutare la capacità del Patrimonio di far fronte alle
ingenti perdite manifestate dagli stress test e la capacità avviare contromisure per la
riduzione del rischio complessivo.
104
Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali per incorporarvi i rischi di
mercato; 1996 105
Gli scenari di stress definiti dalla banca e i relativi risultati devono comunque essere sottoposti a verifica
da parte dell'‟autorità di Vigilanza
95
e) Si svolgano una serie documentata di politiche, procedure e controlli interni concer-
nenti il funzionamento del sistema;
L‟emanazione del Market Risk Amendment arricchisce il generale sistema di allocazione
del capitale e gestione del rischio106
: con l‟emendamento il requisito patrimoniale totale
minimo è fissato come somma tra:
Requisito a fronte del rischio di credito (ad esclusione del rischio su titoli di capitale e
obbligazionari e le posizioni in merci)
Requisito a fronte del rischio di mercato, definito alternativamente da:
Somma dei requisiti per i rischi di mercato, sia generici che specifici, definiti at-
traverso il metodo standard
Somma dei requisiti per i rischi di mercato, in cui i rischi generici sono stimati at-
traverso un modello interno, mentre quelli specifici utilizzando il metodo standard
Combinazione dei metodo standard e del metodo a modelli interni107
Il coefficiente di solvibilità rimane definito come rapporto tra Patrimonio di Vigilanza e at-
tivi ponderati per il rischio.
Per il rischio di mercato tale valore è definito moltiplicando il requisito a fronte del rischio
di mercato per 12,5% (reciproco dell'8% minimo richiesto dal coefficiente di solvibilità) e
sommando questo valore all‟RWA del rischio di credito, quindi:
𝑃𝑎𝑡𝑟𝑖𝑚𝑜𝑛𝑖𝑜 𝑑𝑖 𝑉𝑖𝑔𝑖𝑙𝑎𝑛𝑧𝑎
𝑅𝑊𝐴𝑟 .𝑐𝑟𝑒𝑑𝑖𝑡𝑜 + 𝑅𝑊𝐴𝑟 .𝑚𝑒𝑟𝑐𝑎𝑡𝑜≥ 8%
106
Un ulteriore miglioramento si avrà con l‟introduzione del rischio operativo da parte di Basilea II, vedi Par.
3.4 107
L‟emendamento precisava che le banche che avviavano un sistema di modellistica interno solo per alcuni
fattori di rischio dovevano poi estenderlo a tutti gli altri.
Nondimeno, nella fase di transizione l‟Emendamento permetteva un utilizzo integrato dei due modelli, a pat-
to che si soddisfacessero alcuni requisiti.
Per maggiori dettagli si veda Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali per
incorporarvi i rischi di mercato;1996.
96
3.2 I modelli di backtesting
“Value at Risk is only as good as its backtest.
When someone shows me a Value at Risk
number, I don‟t ask how it is computed,
I ask to see the backtest”108
Il capitolo precedente ha mostrato che l‟utilizzo di modelli interni è subordinato allo svol-
gimento di test retrospettivi, o backtesting, al fine di valutare la qualità del modello.
Sostanzialmente, il backtesting è “un framework statistico che consiste nel verificare se le
perdite sono in linea con le perdite stimate. Ciò implica un confronto sistematico delle
previsioni generate dal modello VaR con rendimenti effettivi e di genere si basa su test che
verificano le violazioni del VaR”109
.
Si definisce violazione un‟osservazione110
che presenta una perdita superiore rispetto al va-
lore a rischio stimato, formalmente:
𝐼𝑡+1 = 1 𝑠𝑒 𝑟𝑡+1 ≤ −𝑉𝑎𝑅 (𝑎𝑣𝑣𝑖𝑒𝑛𝑒 𝑢𝑛′𝑒𝑐𝑐𝑒𝑧𝑖𝑜𝑛𝑒 )
0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
da cui, una hit function, è una funzione che misura, attraverso una sequenza di 0 e 1, quan-
te volte si manifesta un‟eccezione.
Christoffersen111
asserì che un modello VaR è valido se e solo se la sequenza di
ni 𝐼𝑡+1 𝑡=1𝑡=𝑇 generate dal modello stesso soddisfa due proprietà:
Ipotesi di copertura non condizionata: la probabilità di realizzare eccezioni deve es-
sere pari al livello di confidenza
Pr 𝐼𝑡+1(𝛼) = 1 = 𝐸 𝐼𝑡+1 𝛼 = 𝛼
108
A. Brown (Risk Manager) in un discorso del Luglio 2008 alla “Global Association of Risk Professionals” 109
P. Jorion; Value at Risk; McGraw-Hill; 2007 110
Si ricorda che l‟ampiezza dell'‟osservazione dipende dall'‟holding period utilizzato.
Più semplicemente, l‟osservazione è giornaliera in un VaR giornaliero, decadale in un VaR a due settimane e
così via 111
P. Christoffersen; Evaluating interval forecast; International Economic Review; 1998
97
se le eccezioni fossero maggiori di 𝛼, il modello sottostimerebbe il rischio; vicever-
sa il numero di eccezioni è molto al disotto della probabilità definita, il modello so-
vrastima l‟entità delle perdite.
I test di unconditional coverage verificano ex post che il numero di violazioni effet-
tivamente verificatesi sia in linea con il numero di eccezioni previste dal modello.
Sostanzialmente, i test di copertura incondizionata si basano su una logica speculare
rispetto al VaR: se con quest‟ultimi si effettua una previsione circa le possibili per-
dite future, con i secondi si paragonano ex post i risultati della negoziazione con i
risultati forniti precedentemente dal VaR: se il modello è corretto si dovrebbe otte-
nere un numero di eccezioni, cioè di perdite che superano il valore a rischio, pari al
massimo al livello di confidenza scelto (Figura 3.1) o, di converso, un rapporto tra
gli outliner teorici e quelli riscontrati ex post pari a 1.
Figura 3.1: perdite/guadagni stimati dal VaR (𝒛𝜶 = 𝟏,𝟔𝟓) confrontati con perdite/profitti reali (holding period giornalie-
ro)
Fonte: J.P.Morgan/Reuters; RiskMetrics™,Technical Document; 1996
98
Ipotesi d‟indipendenza: le eccezioni passate non possiedono informazioni sulle ec-
cezioni future, in altre parole le eccezioni osservate in due momenti differenti de-
vono essere indipendenti.
La violazione della condizione di indipendenza implica che le eccezioni tendono ad
addensarsi in un lassi di tempo brevi.
Questo raggruppamento aumenta esponenzialmente l‟esposizione al rischio per
l‟intermediario, in quanto comporta che i requisiti patrimoniali per il rischio di
mercato siano inadeguati in periodi prolungati, ma soprattutto in periodi in cui il
VaR tende ad essere maggiormente volatile, cioè durante gli episodi di maggior ri-
schio.
Un modello che viola l‟ipotesi di indipendenza può risultare maggiormente rischio-
so di un modello che viola l‟ipotesi di copertura incondizionata
Invero, dal punto di vista dell'intermediario fronteggiare periodi prolungati di perdi-
te inattese (cioè superiori a quanto stimato dal VaR) potrebbe essere più problema-
tico della gestione di un numero di perdite maggiori, ma distribuite in un lasso di
tempo più ampio.
Quindi, la proprietà di indipendenza tra le eccezioni pone una forte restrizione al
modo con cui le eccezioni si manifestano: in parole povere, la clusterizzazione si
traduce in una serie di eccezioni prevedibili e questo comporta una violazione delle
proprietà di indipendenza, ma soprattutto segnala una mancanza di reattività del
modello VaR alle condizioni di mercato.
Quindi, un modello di backtesting deve poter misurare non solo l‟entità delle perdite, ma
anche la frequenza delle stesse poiché la proprietà di copertura incondizionata pone una re-
strizione sulla quantità di violazioni del VaR, mentre la proprietà indipendenza limita la
misura con cui tali violazioni possono manifestarsi.
La serie di eccezioni 𝐼𝑡+1 𝑡=1𝑡=𝑇 che soddisfa simultaneamente l‟ipotesi di unconditional co-
verage e l‟ipotesi di indipendenza si dice che presenta una conditional coverage, tale per
cui
𝐸 𝐼𝑡+1 𝛼 |Ω𝑡 = 𝛼
99
E la serie stessa è i.i.d. come è una variabile casuale Bernulliana in cui Pr 𝐼𝑡+1 = 𝛼
𝐼𝑡Errore. Il segnalibro non è definito. 𝛼 ~𝐵(𝛼)
Un modello VaR che presenta una serie di eccezioni a copertura condizionata è un modello
accurato.
In conclusione, il contributo di Christoffersen si è concretizzato nel definire delle proprietà
che rendono o meno accurato un modello VaR, e di conseguenza a questa logica si sono
affiancati una pluralità di test retrospettivi, che si preoccupano di verificare se il modello
possiede uno o entrambi i requisiti, e generalmente basati su test delle ipotesi112
.
In particolare si distingue (Figura 3.2 e 3.3):
Test di unconditional coverage;
Test di indipendenza;
Test della conditional coverage;
Test basato sulla funzione di perdita.
112
Nel test delle ipotesi si individuano due ipotesi: l‟ipotesi nulla 𝐻0 e l‟ipotesi alternativa 𝐻1.
Nel nostro caso, se l‟ipotesi nulla 𝐻0 è rigettata, le previsioni del VaR non sono ottimali, quindi il modello è
inaccurato; viceversa se l‟ipotesi nulla è accettata, è accolto anche il modello. È importante anticipare che il test delle ipotesi comporta 2 tipi d‟errore, legati da relazione inversa:
Errore del primo tipo (α), cioè l‟errore di rifiutare l‟ipotesi 𝐻0 quando è vera (nel nostro caso, rifiutare un
modello VaR quando esso è coerente)
Errore del secondo tipo (β), cioè l‟errore di accettare 𝐻0 quando è falsa (nel nostro caso, accettare un modello
VaR quando questo non compie una buona stima)
Si definisce potenza del test il complemento a 1 dell‟errore del second tipo, cioè la quantità 1-β, ed esprime
quindi la capacità del test di accertare la falsità di H0 quando questa è effettivamente falsa.
Ogni test delle ipotesi comporta sempre il bilanciamento tra i due tipi di errori: rifiutando un modello accura-
to rispetto a accettare un modello impreciso. Essendo più grave commettere errore del secondo tipo piuttosto
che l‟errore del primo tipo, ai nostri fini è importante la potenza del test sia elevata.
Un test statisticamente più potente minimizza efficacemente entrambe queste probabilità.
100
Figura 3.2 modelli di backtesting: struttura
Fonte: KPMG; Financial Risk Management Backtesting Value at Risk Models; 2011
Figura 3.3: test incondizionato e condizionato su un processo GARCH(1,1); considerando un intervallo di confidenza del
95%
Fonte: J. Lopez; Regulatory Evaluation of Value-at-Risk Models; Federal Reserve Bank of New York; 1997
101
3.2.1 I test di Unconditional Coverage: POF (Proportion of Failures) e
TUFF (Time until First Failure)
Il test creato da Kupiec113
nel „95, detto anche Proportion Of Failures test (test sulla pro-
porzione dei fallimenti), si concentra sulla misura della conditional coverage e misura
quante volte la realtà empirica viola la stima del VaR.
Il test di Kupiec si basa sul test di massima verosimiglianza: l‟ipotesi nulla 𝐻0 è che la
probabilità di osservare delle eccezioni, determinata empiricamente coincida con la proba-
bilità definita nel livello di confidenza
𝐻0:𝑝 = 𝛼
La statistica corrispondente è definita dal test di massima verosimiglianza, dato dal rappor-
to tra due funzioni di verosimiglianza114
, una vincolata rispetto all‟ipotesi nulla e una non
vincolata.
𝐿𝑅𝑃𝑂𝐹 = −2ln 𝛼𝐼 𝛼 1 − 𝛼 𝑇−𝐼 𝛼
𝑝 𝐼 𝛼 1 − 𝑝 𝑇−𝐼 𝛼 ~𝜒2(1)
Dove:
𝛼 = Livello di confidenza
T = Numero totale di osservazioni
𝑝 = Frequenza delle eccezioni effettivamente registrate, dato da 𝑝 = 𝐼(𝛼) T dove
𝐼 𝛼 = 𝐼(𝛼)𝑇𝑡=1 è la quantità di eccezioni osservate
Il test è definito sul logaritmo naturale del quoziente: è immediato costatare che se 𝛼 è
molto prossimo a 𝑝 l‟evidenza empirica conferma quanto stimato dal modello, quindi il test
assumerà valori prossimi a zero e si accetterà il modello, viceversa il test assumerà valori
positivi e molto alti.
113
P. Kupiec; Techniques for verifying the accuracy of risk measurement models; 1995 114
È importante ricordare che il test rapporto delle massime verosimiglianze è una statistica-test che calcola il
rapporto tra le massime probabilità di un risultato sotto le due ipotesi alternative. La massima probabilità del
risultato sotto ipotesi nulla è definito al numeratore, mentre la massima probabilità del risultato sotto ipotesi
alternativa è definito al denominatore.
102
Asintoticamente, il test si distribuisce come una chi-quadro con un grado di libertà, è quin-
di possibile definire un valore critico, pari al quantile della chi-quadro115
𝜒2, che costituirà
il valore-soglia sulla possibilità di accettare o rifiutare l‟ipotesi nulla.
Se i test basati sul numero di eccezioni possono contare su semplicità, immediatezza e un
numero limitato di ipotesi forti, presentano fondamentalmente due svantaggi: generalmen-
te questi test presentano difficoltà di misurazione con modelli VaR che sistematicamente
sottostimano il rischio e in campioni di dimensioni coerenti con l'attuale quadro normativo,
(cioè un anno) essi presentano una bassa potenza, come riconosciuto dall'autore stesso.
In secondo luogo questi test ignorano in che misura è soddisfatta la proprietà di indipen-
denza, e di conseguenza, espongono al rischio di eccezioni clusterizzate.
ricordando che violazioni dipendenti segnalano una assenza di sensibilità del modello alle
mutevoli condizioni di mercato, basarsi unicamente sui test di unconditional coverage po-
trebbe risultare aleatorio.
Sulla stessa idea del POF test, Kupiec ha definito il TUFF Time Until First Failure (tempo
fino alla prima eccezione), cioè un test che oltre ad individuare la quantità delle eccezioni
misura il tempo trascorso prima della prima eccezione.
La corrispondente statistica è ancora una volta definita dal rapporto tra due funzioni di
massima verosimiglianza:
𝐿𝑅𝑇𝑈𝐹𝐹 = −2𝑙𝑛 𝛼(1− 𝛼)𝜐−1
𝑝 (1− 𝑝 )𝑣−1 ~𝜒2(1)
Anche il TUFF test si distribuisce come una chi-quadro con un grado di libertà, consenten-
do di accettare o rifiutare l‟ipotesi nulla se il valore del test supera il limite definito dall'a-
nalista.
115
È opportuno chiarire che il quantile stabilito dalla chi-quadro definisce un livello di confidenza che nulla
ha a che fare con il livello di confidenza stabilito nel VaR.
103
3.2.2 Test di indipendenza: il test di Markov
In termini statistici, ogni test di indipendenza è definito sulla base del test delle ipotesi, in
cui l‟ipotesi nulla presuppone che le violazioni siano indipendenti, mentre l‟eventuale a-
nomalia che il test deve analizzare è prevista nell‟ipotesi alternativa.
Quindi tutti tests di indipendenza svolgono una verifica limitata sul modello: ci sono mi-
riadi di modi in cui la proprietà di indipendenza può essere violata, ma ogni modello di ba-
cktest può studiare una sola forma di violazione.
Tra i tests d‟indipendenza, il più utilizzato è senza dubbio il cosiddetto test di Markov rea-
lizzato da Christoffersen116
, che sfrutta lo stesso test di massima verosimiglianza del POF.
Il test verifica se la probabilità di un'eccezione in qualsiasi giorno dipende o meno dal ma-
nifestarsi dell'eccezione il giorno precedente: definito 𝑛𝑖𝑗 in numero di giorni in cui è av-
venuta la condizione j, condizionata all‟avvenimento della condizione i il giorno preceden-
te, le eccezioni possono essere visualizzate in una tabella 2x2 tale per cui:
𝐼𝑡−1 = 0 𝐼𝑡−1 = 1
𝐼𝑡 = 0 𝑛00 𝑛10 𝑛00 + 𝑛10
𝐼𝑡 = 1 𝑛01 𝑛11 𝑛01 + 𝑛11
𝑛00 + 𝑛01 𝑛10 + 𝑛11 N
Dove:
𝑛𝑖𝑗 = numero di giorni in cui un‟eccezione nel giorno j-esimo (𝐼𝑡) è preceduta da
un‟eccezione nel giorno i-esimo (𝐼𝑡−1)
116
In realtà questo test è parte integrante del test di previsione dell'intervallo di Christoffersen.
A fine divulgativo si è preferito scorporarlo dal suo contesto..l‟autore ci perdonerà per questa trasgressione!
104
Si consideri una catena di Markov117
di prim‟ordine, con una matrice di transizione data da
Π1 = π00 π01
π10 π11
Dove:
𝜋𝑖𝑗 = Pr(𝐼𝑡 = 𝑖|𝐼𝑡−1 = 𝑗) cioè la probabilità che il giorno j-esimo (cioè in t) vi sia una
violazione, condizionata a quanto successo in giorno i-esimo (cioè in t-1),
E quindi
π00 = 1 − π01
π10 = 1 − π11
Da cui la matrice di transizione:
Π1 = 1 − π01 π01
1− π11 π11
Tali parametri sono stimati attraverso le frequenze campionarie 𝑛𝑖𝑗 , per cui:
Π 1 =
𝑛00
𝑛00 + 𝑛01
𝑛01
𝑛00 + 𝑛01𝑛10
𝑛10 + 𝑛11
𝑛11
𝑛10 + 𝑛11
117
Una catena di Markov finita è un sistema composto da un numero finito di n stati, in cui la probabilità che
il sistema passi dallo stato i allo stato j al tempo t-1 è pij t .
Dato un tempo t e una catena di Markov, la matrice
𝑝𝑡 =
𝑝11 (𝑡) 𝑝12(𝑡) ⋯
𝑝21 (𝑡) 𝑝22(𝑡) ⋯
⋮ ⋮ ⋱
È detta matrice di transizione stocastica, in cui
0 ≤ 𝑝𝑖𝑗 ≤ 1 e 𝑝𝑖𝑗 = 1𝑛𝑗=1
La riga i-esima della matrice 𝑃𝑡 descrive l‟ evoluzione di i al tempo t; pertanto la somma di tutti i valori deve
essere 1.
Ulteriori approfondimenti esulano dalle competenze di questo lavoro, si consiglia di vedere altrove.
105
Se è verificata l‟ipotesi d‟indipendenza, la probabilità di ottenere un‟eccezione il giorno t è
indipendente dal verificarsi dell'eccezione il giorno t-1 e di conseguenza, la probabilità che
ieri si sia verificata l‟eccezione deve essere uguale alla probabilità che non si sia verificata,
formalmente
(3.1) 𝐻0:𝜋00 = 𝜋10 = 1− 𝜋
E di conseguenza: 𝜋10 = 𝜋11 = 𝜋
Da cui la matrice di transizione nell‟ipotesi nulla è data da
Π 2 = 1− 𝜋 𝜋
1− 𝜋 𝜋
In questo modo possibile costruire una statistica definita ancora una volta dal rapporto di
massima verosimiglianza:
𝐿𝑅𝑖𝑛𝑑 = −2 ln 𝐿 𝑛 𝜋
𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = −2𝑙𝑛
1− 𝜋 𝑛00𝜋𝑛01 1− 𝜋 𝑛10𝜋𝑛11
𝜋00𝑛00𝜋01
𝑛01𝜋10𝑛10𝜋11
𝑛11
= −2𝑙𝑛 1− 𝜋 𝑛00 +𝑛10𝜋𝑛01 +𝑛11
𝜋00𝑛00𝜋01
𝑛01𝜋10𝑛10𝜋11
𝑛11 ~𝜒2(1)
Dove:
𝐿 𝑛 𝜋 = 1− 𝜋 𝑛00𝜋𝑛01 1− 𝜋 𝑛10𝜋𝑛11 = definisce attraverso la verosimiglianza la pro-
babilità di ottenere n eccezioni in ipotesi di indipendenza seriale (cioè considerando la
3.1).
𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = verosimiglianza non vincolata
Che si distribuisce anch‟essa come una chi-quadro con un grado di libertà.
106
3.2.3 Test di Conditional Coverage: il test di previsione dell'intervallo
e il Mixed-Kupiec test
Un test completo di copertura condizionale, che consideri al contempo il numero di viola-
zioni del VaR e l‟indipendenza delle violazioni stesse è l‟Interval forecasts test di Christof-
fersen118
ottenuto combinando il test d‟indipendenza e il test POF di Kupiec.
Di conseguenza l‟ipotesi nulla sarà definita dalla combinazione delle due ipotesi dei test
precedenti: la probabilità delle eccezioni è pari al livello di confidenza e la probabilità che
si verifichi un‟eccezione al tempo j-esimo è indipendente dal verificarsi dell'eccezione al
tempo i-esimo, formalmente:
𝐻0: 𝜋00 = 𝜋10 = 𝑎
Da cui la statistica corrispondente è data ancora una volta dal rapporto di massima verosi-
miglianza:
𝐿𝑅𝑐𝑐 = −2𝑙𝑛 𝐿(𝑛|𝜋 = 𝛼)
𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = −2𝑙𝑛
𝐿(𝑛|𝜋 = 𝛼)
𝐿(𝑛|𝜋)
𝐿(𝑛|𝜋)
𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11)
= −2𝑙𝑛 𝐿(𝑛|𝜋 = 𝛼)
𝐿(𝑛|𝜋) − 2𝑙𝑛
𝐿(𝑛|𝜋)
𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11)
= 𝐿𝑅𝑖𝑛𝑑 + 𝐿𝑅𝑃𝑂𝐹~𝜒2(2)
Dove:
𝐿(𝑛|𝜋 = 𝛼) = verosimiglianza espressa con il vincolo di copertura e di indipendenza
𝐿(𝑛|𝜋01𝜋00𝜋10𝜋11) = verosimiglianza non vincolata
Tale statistica, essendo soggetta a 2 vincoli, si distribuisce come una chi-quadro con due
gradi di libertà.
Alcuni autori119
hanno sottolineato come sia possibile che un modello passi un test di con-
ditional coverage, pur non presentando né il requisito di copertura incondizionata, né quel-
lo di indipendenza, in questo senso è consigliata l‟esecuzione di test separati.
118
P. Christoffersen; Evaluating interval forecast; International Economic Review; 1998 119
S. Campbell; A Review of Backtesting and Backtesting Procedure, Federal Reserve Board; 2005
107
Di converso, la scomposizione del test di conditional coverage in due test separati offre ul-
teriori possibilità di verifica: se il test risulta fallito, è possibile compiere test distinti per
verificare il difetto effettivo del modello.
Nondimeno, il test di previsione dell'intervallo si limita ad esaminare la dipendenza tra due
osservazioni adiacenti, trascurando la verifica su periodi di tempo più ampi.
Per far fronte a tale difetto, Haas120
introduce un test che, analogamente al test di conditio-
nal coverage, è costituito dall'aggregazione di un test di copertura incondizionata e un test
di indipendenza.
Tuttavia, se per il test di copertura incondizionata si fa riferimento ancora al POF-test, per
il test d‟indipendenza Haas introduce un ulteriore test; il quale piuttosto che osservare se
un‟eccezione dipende dal risultato del giorno precedente121
, misura il tempo trascorso tra
due eccezioni, riuscendo a catturare forme più generali di dipendenza tra eccezioni
Sfruttando il TUFF-test di Kupiec, viene definita la statistica test per ciascuna i-esima ec-
cezione. Quindi:
𝐿𝑅𝑖 = −2𝑙𝑛 𝛼(1 − 𝛼)𝜐𝑖−1
𝑝 (1− 𝑝 )𝑣𝑖−1 ~𝜒2(1)
Dove
𝜐𝑖 è il tempo che intercorre tra l‟eccezione i e l‟eccezione i-1122
.
𝐻0 = le eccezioni sono indipendenti
Pertanto calcolando la statistica per ogni eccezione, con n eccezioni, è possibile costruire
un test che verifichi il tempo trascorso tra eccezioni adiacenti, a cui aggiungere il TUFF-
test riguardante la prima eccezione.
120
M. Haas; New Methods in Backtesting; Research center Caesar; 2001 121
Come avviene nel Markov test 122
Se si considera la prima eccezione, 𝜐 diventa il tempo trascorso prima dell'‟avvento della prima eccezione,
cioè un TUFF-test, v. Par 3.2.1
108
La statistica test sarà quindi definita da:
𝐿𝑅𝑖𝑛𝑑 = −2𝑙𝑛 𝛼(1− 𝛼)𝜐𝑖−1
𝑝 (1 − 𝑝 )𝑣𝑖−1
𝑛
𝑖=2
− 𝑙𝑛 𝛼(1− 𝛼)𝑣−1
𝑝 (1− 𝑝 )𝑣−1 123
Che è distribuita come una 𝜒2(𝑛)
Conseguentemente il test di indipendenza può essere combinato con il POF test di Kupiec,
per ottenere insieme un test di indipendenza e copertura condizionata:
𝐿𝑅𝑚𝑖𝑥 = 𝐿𝑅𝑃𝑂𝐹 + 𝐿𝑅𝑖𝑛𝑑
Distribuita come una 𝜒2(𝑛 + 1)
3.2.4 Test basato sulla funzione di perdita
I test visti in precedenza focalizzano l‟attenzione sulla possibilità di perdite (eccezioni) su-
periori al VaR, e/o sulla loro “densità” all‟interno di un determinato lasso di tempo.
Di fatto, questa impostazione è coerente con quanto postulato dal VaR, che implicitamente
definisce la probabilità di subire una perdita superiore rispetto a quanto calcolato, trala-
sciando l‟effettiva entità di questa perdita.
Un‟alternativa a questi modelli di backtesting è fornita da Lopez124
che introduce un test
basato sulla minimizzazione di una funzione di perdita, normalmente decisa dall'analista in
base alle proprie valutazioni, e di conseguenza abbandona in metodo basato sul test delle
ipotesi, rendendo possibile utilizzare test retrospettivi anche con un numero limitato di os-
servazioni
Formalmente la “perdita” al tempo t+1 è dato dalla funzione:
𝐶𝑚𝑡+1 = 𝑓 𝑟𝑡+1,𝑉𝑎𝑅𝑚𝑡 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡
𝑔 𝑟𝑡+1,𝑉𝑎𝑅𝑚𝑡 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡
Dove 𝑓 𝑥,𝑦 ≥ 𝑔 𝑥,𝑦
Generalmente l‟utilizzo della funzione di perdita comporta la definizione di uno score,
𝐶𝑚 = 𝐶𝑚𝑡+𝑖250𝑖=1 .
123
Considerando che l‟ipotesi nulla stabilisce che le eccezioni debbano essere indipendenti, anche le statisti-
ca-test risulteranno indipendenti, cosicché è possibile sommarle. 124
J. Lopez; Methods for EvaluatingValue-at-Risk Estimates; 1999
109
Successivamente il modello di backtesting utilizza tale per testare le performance del mo-
dello, confrontando quanto ottenuto empiricamente, cioè 𝐶𝑚 , con un valore benchmark
precedentemente definito.
Su questa base, Lopez fornisce tre tipi di funzioni di perdita:
Funzioni di perdita basate sul metodo binomiale
Analogamente a quanto visto con Kupiec, tale funzione di perdita definisce un valore
ogni qualvolta l‟analisi del modello esibisce una violazione
𝐶𝑚𝑡+1 = 1 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡
0 𝑠𝑒 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡
Dunque l‟analisi verte su ogni elemento del set di osservazioni, assegnando il pun-
teggio quando il valore empirico si presenta come eccezione; in questo senso, è facile
capire come il modello abbia un orientamento negativo: minore sarà lo score totale
𝐶𝑚 , tanto più accurato è il metodo.
È importante costatare che analogamente al POF test, il test di Lopez basato sulla bi-
nomiale si concentra solo sul numero di eccezioni avvenute, e non fornisce informa-
zioni addizionali all‟analisi delle performance del modello.
Come per il test di Kupiec, il valore benchmark è fornito imponendo che il numero di
eccezioni all‟interno del campione sia pari al numero di eccezioni ammesse dal mo-
dello125
.
Funzioni di perdita analoghe al “modello del moltiplicatore”
Tale modello si avvicina al metodo di benchmark previsto dal Comitato nell‟ambito
del Market Risk Amendment.
125
Ad esempio, per un VaR (99%) e con 250 osservazioni il valore benchmark è 𝐸 𝐶𝑚 = 2,5
110
In questo caso, il test non verte non più sull‟analisi di ogni valore a rischio all‟interno
dell'holding period, bensì assegna uno score basato sul set totale delle osservazioni,
in particolare
𝐶𝑚𝑡+1(𝑛) =
0 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡
0 𝑠𝑒 𝑟𝑡+1 ≤ 𝑉𝑎𝑅𝑚𝑡 𝑒 0 ≤ 𝑛 ≤ 4
0,4 5 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 5
0,5 6 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 6
0,65 7 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 7
0,75 8 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 8
0,85 9 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 = 9
1 𝑛 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡 𝑒 𝑛 ≥ 10
Funzioni di perdita che considerano la dimensione delle perdite
In questo metodo l‟obiettivo non è solamente di verificare la presenza di una viola-
zione, bensì anche quello di computare l‟entità della stessa introducendo nella fun-
zione di perdita binomiale una componente che attribuisce importanza alla dimensio-
ne delle eccezioni rispetto al VaR. Formalmente:
𝐶𝑡+1 = 1 + 𝑟𝑡+1 − 𝑉𝑎𝑅𝑚𝑡
2 𝑠𝑒 𝑟𝑡+1 < 𝑉𝑎𝑅𝑚𝑡
0 𝑠𝑒 𝑟𝑡+1 ≥ 𝑉𝑎𝑅𝑚𝑡
È immediato osservare che lo score derivante dal modello sarà tanto maggiore quan-
to maggiore è la differenza tra la violazione e il VaR.
Con questa funzione di perdita il valore benchmark è ottenuto attraverso un metodo
di simulazione simile a quanto già visto per il modello Monte Carlo: definita una
funzione dei rendimenti, si compiono numerosi simulazioni, definendo per ogni si-
mulazione la distribuzione dei rendimenti e il relativo C-value.
111
Ottenuta la funzione di densità dei C-value si specifica un valore benchmark, definito
dal quantile della distribuzione
126.
L‟analisi sviluppata da Lopez sottolinea come l‟utilizzo di una funzione di perdita riesca
meglio dei metodi basati sul test delle ipotesi a giudicare l‟effettiva performance del mo-
dello VaR, bypassando il problema della bassa potenza del test cui sono soggetti i test di
unconditional e conditional coverage.
Il test di Lopez si focalizza su otto modelli quali:
1. Modello simulato distribuito come una Normale standardizzata 휀𝑡+1~𝑁(0,1) defi-
nito true data-generating process (DGP), che viene utilizzato per individuare il nu-
mero di eccezioni nel test delle ipotesi e come benchmark nella funzione di perdita
2. Distribuzione Normale 휀𝑡+1~𝑁(0, 1 2 )
3. Distribuzione Normale 휀𝑡+1~𝑁(0, 3 4 )
4. Distribuzione Normale 휀𝑡+1~𝑁(0,11
4)
5. Distribuzione Normale 휀𝑡+1~𝑁(0,11
2)
6. Modello a media mobile esponenziale con 𝜆 = 0,94
7. Modello a media mobile esponenziale con 𝜆 = 0,99
8. Simulazione Storica127
126
Altri autori suggeriscono di misurare una media del valore dell‟eccezioni, data da:
𝐶 =1
𝑇 𝐶𝑖
𝑇
𝑖=1
E successivamente calcolare il valore benchmark da una distribuzione simulata dei rendimenti di portafoglio 127
Per questo modello sono state prese a riferimento le ultime 500 osservazioni
112
Per quanto riguarda i modelli di backtesting, l‟autore utilizza:
- test POF per l‟unconditional coverage
- test di Christoffensen la conditional coverage
Entrambi considerati utilizzando un valore critico del 5%
- test basato sulla funzione di perdita nelle tre varianti proposte da Lopez.
L‟abilità delle tre varianti nel valutare le performance dei modelli è giudicata verificando
quanto spesso le stime VaR hanno uno score maggiore rispetto a quanto previsto dal DGP,
sostanzialmente quante volte lo score della stima supera lo score-benchmark.
L‟analisi di Lopez in Figura 3.4 dimostra che per i modelli omoschedastici la potenza del
test varia notevolmente, legata soprattutto alla differenza tra la varianza dei modelli stessi e
la varianza del DGP, assunta come distribuzione effettiva dei rendimenti (in parole povere,
essa “costituisce” il denominatore nel rapporto di massima verosimiglianza): l‟analisi svela
come le differenze più grandi portano a maggiore potenza.
Per quanto riguarda i modelli eteroschedastici EWMA, il rapporto di massima verosimi-
glianza non presenta alcuna potenza in quanto le stime VaR sono molto simili a quelle pre-
viste nel DGP, e al contempo è possibile notare che il modello di simulazione storica ha
bassa potenza in entrambi i test.
Fonte: J. Lopez; Methods for EvaluatingValue-at-Risk Estimates; 1999
Figura 3.4: Analisi di Lopez sull'‟efficacia dei modelli di backtest
113
Per quanto riguarda i modelli di Lopez, il valore rappresenta il numero di simulazioni in
cui lo score-benchmark del DGP è risultato inferiore a quello calcolato con il modello. Di
conseguenza valori molto alti rappresentano i casi in cui il modello è rifiutabile poiché i-
naccurato.
In questo senso, è possibile notare che se il modello 2 e il modello 3 manifestano il massi-
mo grado di imprecisione, di converso i modelli 4 e 5 presentano sistematicamente uno
score inferiore rispetto al valore benchmark; al contrario i modelli a volatilità esponenziale
e il modello a simulazione storica presentano livelli di “inaccettabilità” tollerabili.
Come osservato da Campbell128
e dallo stesso Lopez129
il vero vantaggio del metodo della
funzione di perdita sta nella possibilità di costruire la funzione in base alle analisi del valu-
tatore.
Per quanto riguarda i metodi proposti da Lopez, se i primi due ricalcano rispettivamente
quanto visto nel metodo POF e nel Framework di Basilea, è il terzo metodo a richiedere
una più attenta analisi.
Innanzitutto, l‟approccio della funzione di perdita è in contrasto con le proprietà stocasti-
che della funzione 𝐼𝛼 che, come già precisato, si distribuisce come una variabile casuale
Bernulliana, trascurando la forma della distribuzione dei rendimenti.
In secondo luogo, e anche in virtù di quanto già visto nei modelli VaR, la possibilità di ipo-
tizzare a priori la forma della distribuzione può portare a distorsioni nella valutazione.
In parole povere, nel caso la distribuzione è definita in modo errato, i risultati del backtest
sono distorti. Di conseguenza uno score che supera il valore di riferimento può comportare
che il modello VaR sia a priori sbagliato, ma può anche implicare ipotesi sbagliate circa la
funzione di backtest utilizzata.
Questo macroscopico difetto ha spinto lo stesso Lopez a suggerire l‟utilizzo del metodo per
confrontare le perfomance del modello VaR nel tempo o per confrontare modelli diversi tra
loro, mentre se l‟obiettivo è quello di validare un modello VaR, l‟autore consiglia di
l‟utilizzo della la funzione di perdita in tandem con altri metodi.
128
S. Campbell; A Review of Backtesting and Backtesting Procedures; Finance and Economics Discussion
Series; Divisions of Research & Statistics and Monetary Affairs; Federal Reserve Board; 2005 129
J. Lopez; Methods for EvaluatingValue-at-Risk Estimates; 1999
114
3.3 Il backtesting secondo Basilea
La possibilità di utilizzare modelli interni, ha imposto l‟utilizzo di un modello di backtest
che verificasse le effettive performance del modello VaR.
A tal fine il Comitato premette che “The essence of all backtesting efforts is the compari-
son of actual trading results with model-generated risk measures. If this comparison is
close enough, the backtest raises no issues regarding the quality of the risk measurement
model. In some cases, however, the comparison uncovers sufficient differences that prob-
lems almost certainly must exist, either with the model or with the assumptions of the back-
test. In between these two cases is a grey area where the test results are, on their own, in
conclusive”130
.
Per il prosieguo della trattazione, è utile ricordare che se il VaR è la massima perdita otte-
nibile all‟interno di un holding period e con un intervallo di confidenza 𝛼, di converso la
probabilità giornaliera che si verifichi un‟eccezione131
(se le stesse sono indipendenti) è di
100- 𝛼%.
Il test retrospettivo elaborato da Basilea consiste in un confronto tra le perdite teoriche pre-
viste dal modello VaR utilizzato e le perdite giornaliere effettivamente realizzate, contando
il numero di eccezioni, cioè di casi in cui la perdita teorica supera il valore a rischio misu-
rato dal modello interno.
Formalmente, il backtest previsto da Basilea è basato su una mera computazione del nume-
ro di volte in cui si verificano le eccezioni, su un livello di confidenza del 99%, in linea
con quanto previsto per la definizione dei modelli VaR.
Il trade off tra numero di osservazioni e “stabilità” del test ha fatto sì che il Comitato defi-
nisse un test basato su un computo su base trimestrale delle eccezioni, utilizzando i dati
degli ultimi dodici mesi, cioè 250 giorni borsa, considerando un periodo di detenzione di
130
“Ogni test retrospettivo consiste essenzialmente nel raffrontare gli effettivi risultati di negoziazione con le
misure del rischio prodotte dai modelli. Se i valori comparati sono sufficientemente prossimi, il test retrospet-
tivo non evidenzia alcun problema in ordine alla qualità del modello. In alcuni casi, per contro, gli scosta-
menti sono tali da far ritenere quasi certa l‟esistenza di problemi, a livello di modello oppure dei criteri pre-
suntivi su cui è basato il test. Fra queste due situazioni estreme vi è un‟”area intermedia” in cui i risultati del
test non sono, di per sé, conclusivi”.
Tratto da: Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in
conjunction with the internal models approach to market risk capital requirements; 1996 131
Cioè il numero di volte in cui la perdita, empiricamente verificatasi superava quanto calcolato dal VaR
115
un giorno e avendo a riferimento un portafoglio composto da posizioni immutate in un arco
di tempo giornaliero132
.
Il risultato fornito dal test retrospettivo è valutato attraverso l‟approccio a zone o semaforo
di Basilea: in base al numero di eccezioni e considerando l‟errore del Errore del 1˚ tipo e
del 2˚ tipo a cui il test è soggetto, sono definite tre zone distinte, che indicano il grado di
inaccuratezza del modello, e di conseguenza il rischio di perdite superiori al VaR che insi-
ste sull'‟intermediario. (Tabella 3.1).
132
A questo proposito, lo stesso Comitato ammette che l‟elevato tourn-over che caratterizza i portafogli ban-
cari rende di difficile applicazione il backtest Basilea: per ridurre la contaminazione derivante dalla difficoltà
di valutare le performance di un modello VaR in un contesto così mutevole, il Comitato di Basilea impone di
calcolare il VaR e il relativo backtest riferendosi ad un portafoglio costante
116
Tabella 3.1: definizione di un modello accurato per T=250 (ipotesi nulla: 𝜶 = 𝟏%) e di modelli inaccurati (ipotesi alter-
nativa 𝜶 = 𝟐%,𝟑%,𝟒%,𝟓%). Il numero esatto indica la probabilità di ottenere quel numero di eccezioni.
Mo
del
lo I
nac
cura
to:
liv
elli
di
cop
ertu
ra a
lter
nat
ivi
Liv
ello
di
cop
ertu
ra:
95
% E
rro
re
2˚
tip
o
0
0
0
0
0,1
0,5
1,3
3,1
6,5
11
,9
19
,5
29
,1
40
,2
51
,8
62
,9
72
,9
Nu
mer
o
esa
tto
0
0
0
0,1
0,3
0,9
1,8
3,4
5,4
7,6
9,6
11
,1
11
,6
11
,2
10
8,2
Liv
ello
di
cop
ertu
-
ra:
96
%
Err
ore
2˚
tip
o
0
0
0
0,2
0,9
2,7
6,3
12
,5
21
,5
32
,8
45
,5
58
,3
69
,9
79
,5
86
,9
92
,1
Nu
mer
o
esa
tto
0
0
0,2
0,7
1,8
3,6
6,2
9
11
,3
12
,7
12
,8
11
,6
9,6
7,3
5,2
3,4
Liv
ello
di
cop
ertu
-
ra:
97
%
Err
ore
2˚
tip
o
0
0
0,4
1,9
5,7
12
,8
23
,7
37
,5
52
,4
66
,3
77
,9
86
,6
92
,3
96
98
99
,1
Nu
mer
o
esa
tto
0
0,4
1,5
3,8
7,2
10
,9
13
,8
14
,9
14
11
,6
8,6
5,8
3,6
2
1,1
0,5
Liv
ello
di
cop
ertu
-
ra:
98
%
Err
ore
2˚
tip
o
0
0,6
3,9
12
,2
26
,2
43
,9
61
,6
76
,4
86
,9
93
,4
97
98
,7
99
,5
99
,8
99
,9
10
0
Nu
mer
o
esa
tto
0,6
3,3
8,3
14
17
,7
17
,7
14
,8
10
,5
6,5
3,6
1,8
0,8
0,3
0,1
0
0
Nu
mer
o
Ecc
e-
zio
ni
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Mo
del
lo A
ccu
rato
Liv
ello
di
cop
ertu
-
ra:
99
%
Err
ore
1˚
tip
o
10
0
91
,9
71
,4
45
,7
24
,2
10
,8
4,1
1,4
0,4
0,1
0
0
0
0
0
0
Nu
mer
o
esa
tto
8,1
20
,5
25
,7
21
,5
13
,4
6,7
2,7
1
0,3
0,1
0
0
0
0
0
0
Nu
mer
o
Ecc
e-
zio
ni
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Fonte: Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in conjunction
with the internal models approach to market risk capital requirements; 1996
117
In particolare, si distingue:
Zona Verde: non più di quattro eccezioni.
Tale risultato è sintomo di un modello VaR corretto comporta una probabilità molto
bassa di errore del 2˚ tipo.
Zona Gialla: dai cinque ai nove errori.
I modelli inseriti nella zona gialla si presentano non perfettamente accurati.
Per questi tipi di modelli e per quelli presenti nella zona rossa, il Comitato ha previ-
sto un sistema di rivalutazione del rescaling factor K, al fine di aumentare il requisito
prudenziale e tener conto delle difficoltà del modello stesso133
.
Tuttavia lo stesso Comitato assicura che “[...] al fine di non distorcere la struttura
d‟incentivi, si dovrebbe generalmente presumere che i risultati rientranti nella zona
gialla comportino una maggiorazione del fattore di moltiplicazione, a meno che la
banca possa dimostrare che tale maggiorazione non è giustificata”134
.
Quindi, lo stesso Comitato permette di non maggiorare lo scaling factor, a patto che
la banca dimostri che tale defaillance del modello sia giustificata da motivi validi ed
esterni al modello VaR135
.
In questo senso, il Comitato sollecita le banche a compiere anche test differenti da
quanto prescritto dal Market Risk Amendment, utilizzando ad esempio altri modelli,
differenti intervalli di confidenza o sottoinsiemi dell'intero portafoglio col solo scopo
di motivare un alto numero di eccezioni nel modello.
In quest‟ambito il Comitato lascia a discrezione delle Autorità di Vigilanza la possi-
bilità di non applicare la maggiorazione se l‟“ingresso” nella zona gialla è saltuario o
dipendente da eventi esterni al modello, tenendo conto di altri fattori quali lo scosta-
mento tra la perdita teorica e quella effettiva, l‟osservanza da parte della banca dei
criteri qualitativi previsti dal MRA
133
Dei differenti valori del rescaling factor si parlerà più avanti 134
Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in conjunc-
tion with the internal models approach to market risk capital requirements; 1996 135
In particolare il Comitato distingue performance scadenti causate:
Malfunzionamenti o imprecisioni del modello: tali difetti distorcono la valutazione del requisito pa-
trimoniale, e in quanto tali comportano il proporzionale aumento del rescaling factor
Casualità e evoluzione imprevista dei mercati: tali mancanze non sono sintomo di difficoltà del mo-
dello del prevedere il valore a rischio ma dipendono da cause che esulano in parte dalle responsabilità
della banca
Negoziazione infragiornaliera: è intervenuta una perdita rilevante tra una giornata e la giornata suc-
cessiva
118
Zona rossa: dieci eccezioni o più
Salvo non si operi in un ambito di improvvisa e imprevedibile turbolenza dei merca-
ti, i modelli presenti nella zona rossa possono essere additati senza dubbio come i-
naccurati.
In considerazione di ciò il Comitato impone l‟aumento del rescaling factor e sollecita
l‟Autorità di Vigilanza a compiere indagini e pressioni sull'intermediario affinché
compia azioni correttive.
Partendo dal numero di eccezioni, il Comitato ha quindi definito lo scaling factor K, cioè
quel valore, proporzionale al numero di violazioni, che deve essere moltiplicato per il VaR
al fine di ottenere l‟effettivo requisito patrimoniale. La (3.4) e la Tabella 3.2 mostrano la
relazione esistente tra le zone e il valore del fattore scalare.
Tabella 3.2: l‟approccio a zone o semaforo di Basilea, in un campione T=250 e con un livello di copertura del 99%. Co-
me è noto la probabilità cumulativa è la probabilità di ottenere un numero di eccezioni pari o inferiore a quanto specifica-
to. Va inoltre specificato che la zona gialla e la zona rossa sono delimitate rispettivamente alla probabilità del 95% e del
99,99%
Zone Number of excep-
tions
Increase of scaling
factor K
Cumulative proba-
bility
(in %)
Green Zone
0 0 8,11
1 0 28,58
2 0 54,32
3 0 75,81
4 0 89,22
Yellow Zone
5 0,40 95,88
6 0,50 98,63
7 0,65 99,60
8 0,75 99,89
9 0,85 99,97
Red Zone 10 or more 1 99,99
Fonte: Basle Committee on Banking Supervision; Supervisory framework for the use of "backtesting" in conjunction
with the internal models approach to market risk capital requirements; 1996
119
O, più formalmente
(3.4) 𝐾 =
3,0 𝑠𝑒 𝑁 ≤ 4 (𝐺𝑟𝑒𝑒𝑛 𝑧𝑜𝑛𝑒)
3,0 + 0,2 𝑁 − 4 𝑠𝑒 5 ≤ 𝑁 ≤
4,0 𝑠𝑒 10 ≤ 𝑁 (𝑅𝑒𝑑 𝑧𝑜𝑛𝑒)
9 (𝑌𝑒𝑙𝑙𝑜𝑤 𝑧𝑜𝑛𝑒)
Nondimeno è facile immaginare come l‟approccio del semaforo di Basilea sia troppo sem-
plicistico per una valutazione piena del modello.
Infatti oltre ad ignorare totalmente la possibile dipendenza tra le eccezioni, le prove empi-
riche dimostrano che il test di Basilea presenta difficoltà nel distinguere un modello accu-
rato. Il Comitato stesso, pienamente cosciente delle lacune, ha preferito comunque optare
per un test formale piuttosto che basarsi su un approccio discrezionale, suggerendo tuttavia
di utilizzare il test in tandem con test uniformemente più potenti.
120
3.4 Basilea II
Il nuovo Accordo di Basilea, o Basilea II, emanato nel 2004 e orientato a banche e gruppi
bancari a livello internazionale, è stato realizzato per sopperire ai difetti e alle distorsioni136
prodotti dal precedente accordo e per ampliare gli obiettivi della Vigilanza bancaria:
all‟intenzione di stabilire un level playing field e garantire la solvibilità del sistema banca-
rio definiti da Basilea I, si aggiunge l‟obbiettivo di accrescere la sensibilità al rischio degli
intermediari finanziari.
Infatti il nuovo framework è volto a conferire maggiore importanza alla gestione del ri-
schio, a creare un più stretto legame tra rischio e adeguatezza patrimoniale e a promuovere
il costante potenziamento delle capacità di valutazione dell'esposizione da parte delle stes-
se banche.
In questo senso, il Comitato non ha compiuto un‟operazione di miglioramento del prece-
dente accordo, bensì ha definito ex novo un complesso sistema di Vigilanza composto da
tre pilastri (Figura 3.5):
Figura 3.5: i tre pilastri di Basilea II
Fonte: <www.borsaitaliana.it>
136
Il primo Accordo di Basilea classificava la totalità di controparti in quattro categorie, incentivando le ban-
che a dar vita a sistemi distorsivi per ridurre il costo della regolamentazione.
Per maggiori dettagli si veda l‟Appendice D
121
Primo pilastro: definisce il nuovo set di requisiti patrimoniali e coefficienti a fronte
del rischio di credito, del rischio di mercato e del rischio operativo.
Come per l‟Accordo dell'‟88, il Patrimonio di Vigilanza rimane superiore o uguale
all‟8% degli attivi ponderati per il rischio ma, se la composizione e le caratteristiche
del Patrimonio di Vigilanza rimangono invariate, un sensibile rinnovo avviene nel
calcolo degli attivi ponderati per il rischio.
L‟Attivo ponderato totale è definito ora dalla somma tra gli RWA per rischio di
credito, rischio di mercato e rischio operativo, Basilea II definisce:
Rischio di credito
I nuovi metodi per la ponderazione degli assets sono orientati alla convinzio-
ne che ad una stima più precisa comporta un vantaggio per gli intermediari
più efficienti.
In questo senso è consentito agli intermediari di sviluppare propri metodi di
stima, delineati sulla base dei business e del profilo di rischio
dell‟intermediario
In questo senso, il Comitato ha previsto due metodi di calcolo dell'RWA: una
metodologia Standard ed un approccio, invece, basato sui rating interni (In-
ternal Rating Based, IRB).
Il metodo Standard rimane simile a quanto previsto nel primo Accordo: viene
assegnata per ogni esposizione un coefficiente di ponderazione, che dipende
dalla natura della controparte, della esposizione e della presenza di rating e-
sterni.
In particolare, per le controparti “retate” le ponderazioni sono fornite da isti-
tuzioni esterne, mentre per le esposizioni prive di rating il metodo in pone
perlopiù una ponderazione del 100%
Nel metodo IRB invece, le banche utilizzano proprie stime per i calcolo delle
tre componenti di rischio: Probability of Default, Loss Given Default, Exposi-
tion at Default.
In particolare, nell‟approccio IRB Foundation (approccio di base), la PD è
stimata dalla banca, mentre l‟Autorità di Vigilanza fornisce quadri di stima
122
della LGD e della EAD; al contrario nell‟IRB Advanced137
(approccio avan-
zato) tutti i fattori sono generati autonomamente dall‟intermediario; di conse-
guenza la gamma delle ponderazioni risulterà maggiormente diversificata
consentendo maggiore sensibilità al rischio
Rischio di mercato: Basilea II, segue in larga parte la disciplina del Market
Risk Amendment del 1996, focalizzandosi sul trading book e mantenendo le
categorie titoli azionati, titoli di debito, posizioni in cambi e posizioni in
commodities.
Rischio operativo: è definito come “il rischio di perdite derivanti dalla ina-
deguatezza o dalla disfunzione di procedure, risorse umane e sistemi interni,
oppure da eventi esogeni”138
.
Esso può essere calcolato secondo tre diversi metodi dagli istituti finanziari:
un metodo base (BIA, basic indicator approach), un metodo standard (TSA,
traditional standardised approach) ed un metodo avanzato (AMA, advanced
measurement approach)139
.
Nel metodo base, il requisito è dato da un coefficiente fisso 𝛼 pari al
15%,applicato al valore medio del Margine di Intermediazione degli ultimi
tre anni, considerando quest‟ultimo come rappresentativo dell‟attività globale
dell'intermediario.
Nella metodologia standard, invece, si richiede alle banche di suddividere
l‟attività in unità operative e linee, applicando per ognuna di esse un indicato-
re 𝛽 differente per ogni business line. Infine, con approccio avanzato, le valu-
tazioni si basano sulla suddivisione dell‟attività in aree e sull‟utilizzo di mo-
delli interni per la stima del capitale richiesto.
137
L‟utilizzo dell'‟IRB Advanced è destinato solo ad intermediari che rispettano particolari requisiti 138
Comitato di Basilea per la Vigilanza Bancaria; Convergenza internazionale della misurazione del
capitale e dei coefficienti patrimoniali; 2004 139
L‟approccio standardizzato e L‟approccio avanzato possono essere adottati a condizione che la banca ri-
spetti alcuni requisiti, per i dettagli si veda Comitato di Basilea per la Vigilanza Bancaria; Convergenza in-
ternazionale della misurazione del capitale e dei coefficienti patrimoniali; 2004
123
Tabella 3.2: evoluzione del calcolo del requisito patrimoniale a fronte dei tre rischi
Secondo Pilastro
Riguarda la supervisione degli intermediari da parte delle Autorità di Vigilanza e
improntato ad una duplice esigenza: in primo luogo le banche hanno l‟obbligo di
valutare la coerenza tra capitale e profilo di rischio, e la propria adeguatezza patri-
moniale, eventualmente tenendo conto dei rischi esterni, e dell'impatto di situazioni
congiunturali avverse.
In secondo luogo le Autorità di Vigilanza devono al contempo verificare il processo
di determinazione dell‟adeguatezza patrimoniale, le strategie poste in essere e la
struttura organizzativa ed assumere eventuali azioni correttive.
Per adempiere a tali obblighi, le banche devono dotarsi di sistemi di misura che
permettano di verificare l‟adeguatezza patrimoniale e alle autorità di Vigilanza
spetta il compito di supervisionare tale processo ed eventualmente denunciare ano-
malie.
In questo senso, le istituzioni finanziarie effettuano una valutazione autonoma dei
propri requisiti patrimoniali attraverso l‟ICAAP (Internal Capital Adequacy Asses-
sment Process), mentre parallelamente le Autorità valutano il processo svolto dalla
Rischio di Credito
Rischio di Merca-
to Rischio Operativo
Basilea I
(1988) Approccio Standard - -
Market
Risk A-
mendment
(1996)
Approccio Standard
Approc-
cio Stan-
dard
Model-
li In-
terni
-
Basilea II
(2004)
Approc-
cio Stan-
dard
IRB
Founda-
tion
IRB
Advan-
ced
Approc-
cio Stan-
dard
Model-
li In-
terni
Approc-
cio Base
Approc-
cio Stan-
dard
Approc-
cio A-
vanzato
124
banca con una procedura denominata SREP (Supervisory Review and Evaluation
Process).
I rischi che devono essere ivi valutati sono in particolare il rischio di concentrazio-
ne, il rischio commerciale, i rischi di tasso sul banking book ed il rischio di liquidi-
tà, ma esistono molte altre fattispecie che devono essere analizzate e valutate in tal
senso.
In secondo luogo è previsto che le Autorità di Vigilanza possano richiedere un li-
vello superiore di patrimonializzazione o possano intervenire se viene constatata
una copertura insufficiente dei requisiti.
Terzo Pilastro
Lo scopo del terzo pilastro è quello di completare i requisiti patrimoniali minimi
stabiliti nel primo pilastro e il processo di controllo prudenziale affrontato dal se-
condo.
In particolare il Comitato si è adoperato per incoraggiare la disciplina di mercato
mediante l‟elaborazione di una serie di obblighi di trasparenza e di pubblicità ri-
guardanti anche i modelli con cui la banca calcola la propria adeguatezza patrimo-
niale e valuta il rischio.
Il nuovo Accordo di Basilea individua nella disciplina di mercato uno strumento
complementare agli strumenti di Vigilanza del primo e del secondo pilastro: se agli
investitori si offre la possibilità di misurare in maniera efficace il profilo di rischio e
l'adeguatezza patrimoniale delle banche, essi avranno più strumenti per valutare la
società e, implicitamente, il mercato è incentivato a fornire un giudizio sull'adegua-
tezza patrimoniale dell'intermediario
125
CAPITOLO 4.
Il VaR e gli shock di mercato: il caso empirico
4.1 L‟analisi empirica: premessa
Il caso empirico è orientato a verificare se e in che misura il VaR sia in grado di incorpora-
re eventuali shock di mercato.
A tal proposito, l‟analisi si sviluppa nella stima della massima perdita probabile mediante
l‟utilizzo di differenti modelli VaR.
Per enfatizzare l‟obiettivo proposto, la stima si concentra intorno a periodi sensibili del
mercato finanziario europeo, optando dunque per i principali momenti di shock nel periodo
2001-2013.
Infine, è opportuno specificare che l‟elaborazione matematico-statistica è stata svolta uti-
lizzando il foglio elettronico Excel e il programma Gretl.
4.1.1 I modelli selezionati
La selezione dei modelli è tesa a considerare sia modelli maggiormente “tradizionali” che
modelli più innovativi, con un occhio di riguardo a metodi che conferiscono maggior peso
alle osservazioni più recenti rispetto a quelle passate.
In particolare si è optato per:
Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%;
Modello Asset-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%;
Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,99;
Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,97;
Modello Delta-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%; volatilità stimata con modello GARCH(1;1);
126
Modello Asset-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,99;
Modello Asset-Normal; holding period annuale (261 osservazioni); livello di confi-
denza 99%; volatilità esponenziale (EWMA) con fattore di decadimento 0,97;
Al fine di considerare la vera forma della distribuzione, questi modelli sono stati calcolati
utilizzando un percentile 𝑧𝛼 “modificato” (da ora definito 𝑧𝛼∗ ), in grado di incorporare cur-
tosi e asimmetria della distribuzione dei rendimenti per ogni titolo e per l‟indice di merca-
to.
Modello delle Simulazioni Storiche; holding period annuale (261 osservazioni), li-
vello di confidenza 99%;
Modello ibrido; holding period annuale (261 osservazioni), livello di confidenza
99%, 𝜆 = 0,99;
4.1.2 Il campione adoperato
Le turbolenze avvenute nell‟ultimo ventennio, quali l‟esplosione della bolla informatica, lo
shock dei mutui subprime, e il crack della banca Lehman Brothers hanno impattato note-
volmente sui mercati Europei, causando da almeno 5 anni una crisi finanziaria e, in alcuni
casi come Italia, Spagna, Grecia e Irlanda anche un fenomeno di grave recessione.
In questo senso, lo studio empirico non poteva non focalizzarsi proprio su mercato europe-
o, ed in particolare su tre market exchange: il mercato italiano, il mercato tedesco e il mer-
cato francese.
Al fine di non rendere l‟analisi troppo generalizzata, per ognuno di essi sono state scelte le
società più rappresentative dei rispettivi mercati di riferimento.
In questo senso, si è ritenuto opportuno considerare le società più rappresentative come
quelle maggiormente capitalizzate all‟interno dei rispettivi mercati.
A tal fine, si è optato per otto tra le prime dieci società a maggiore capitalizzazione
all‟interno degli indici FTSE MIB, DAX30 e CAC40, generalmente considerati gli indici
di riferimento rispettivamente per la Borsa di Milano, di Francoforte e di Parigi.
La scelta compiuta ha definito un portafoglio complessivo che, seppure di dimensione mo-
desta, risulta piuttosto diversificato a livello di settore industriale.
127
Difatti, ricorrendo la differenziazione in settori del GICS®140
, è possibile constatare come
siano state toccate in misura più o meno amplia tutti i settori, nonostante appaia preponde-
rante la presenza di società finanziarie e di società di beni di “lusso” (consumer discretio-
nary).
Grafico 4.1: ripartizione del campione per GICS® Sector
Analogamente, la suddivisione in gruppi industriali rivela più in dettaglio una presenza
preponderante di società automobilistiche, banche e assicurazioni
140
Gli standards GICS® (Global Industry Classification Standard) sono stati introdotti nel 1999 da MSCI e
S&P al fine di definire una classificazione settoriale delle società in tutto il mondo.
Il GICS® è costituito da 10 settori, 24 gruppi industriali, 68 industrie e 154 sotto-industrie. Ogni impresa
viene catalogata in base al core business ((misurato sulle voci contabili di ricavo).
I settori individuate dal GICS® sono:
• Energy Sector (settore energetico);
• Materials Sector (settore manifatturiero);
• Industrials Sector (settore industriale);
• Consumer Discretionary Sector (imprese che si rivelano maggiormente sensibili ai cicli economici);
• Consumer Staples Sector (imprese meno sensibili ai cicli economici);
• Health Care Sector (settore farmaceutico e biotecnologico);
• Financials Sector (settore finanziario);
• Telecommunications Services Sector (settore telecomunicazioni);
• Utilities Sector (settore delle public utilities come gas, energia elettrica, acqua, ecc.).
8%
4%
29%
4%13%
21%
4%
9%
4%4%
Campione aggregato: GICS sector
Energy
Utilities
Financials
Telecommunication Services
Industrial
Consumer Discretionary
Materials
Health Care
Information Technology
Consumer Staples
128
Grafico 4.2: ripartizione del campione per gruppi industriali
Spostando l‟attenzione sui singoli portafogli, è opportuno specificare la composizione de-
gli stessi:
Mercato Italiano:
a) Assicurazioni Generali
Fondata nel 1831, Assicurazioni Generali è la più grande compagnia di assi-
curazioni italiana con oltre 10 milioni di clienti e 100 miliardi di attivi in ge-
stione.
b) ENEL
L‟Ente Nazionale per l‟energia ELettrica è un gruppo multinazionale presente
in 40 Paesi e 4 continenti con 61 milioni di clienti e 98 GW di capacità instal-
lata generati da un parco centrali molto diversificato tra idroelettrico, termoe-
lettrico, nucleare, geotermico, eolico, fotovoltaico e altre fonti rinnovabili.
Nel 2012 il gruppo ha realizzato un ebitda di 17 mld di euro.
9%
4%
17%
13%
4%4%
17%
8%
4%
8%
4%
4%4%
Ripartizione campione: GICS Industry Group
Energy
Utilities
Banks
Insurance
Telecommunication Services
Transportation
Automobiles & Components
Pharmaceuticals, Biotechnology
Consumer Durables & Apparel
Capital Goods
Household & Personal Products
Materials
Software & Services
129
c) ENI
L'Ente Nazionale Idrocarburi è una società attiva nei settori del petrolio, della
petrolchimica, e della generazione e produzione di energia elettrica.
Presente in 90 Paesi e con 10 milioni di clienti, Eni è il sesto gruppo petrolife-
ro mondiale per giro d'affari, leader mondiale nei servizi petroliferi per le at-
tività offshore e onshore, primo in Italia nella raffinazione e prima tra le so-
cietà italiane secondo la rivista Forbes.
Nel 2012 il gruppo ha conseguito un utile di 18,5 mld.
d) Intesa SanPaolo
Il Gruppo Intesa SanPaolo è il maggior gruppo bancario in Italia con 11,1 mln
di clienti e 1,6 mld di utile, il secondo gruppo bancario per capitalizzazione e
sesto in Europa. E' leader italiano nelle attività finanziarie per famiglie e im-
prese.
e) Atlantia
Atlantia S.p.A. (ex Autostrade S.p.A.) è la capogruppo di società operanti nel-
la gestione di tratte autostradali con 5 mila km di autostrade a pedaggio in I-
talia, Brasile, Cile, India e Polonia.
Con 5 mln di clienti al giorno e 11 mila dipendenti, Atlantia è leader nella co-
struzione e manutenzione di infrastrutture autostradali, sicurezza e tecnologie
di risparmio energetico, con un ebitda di 2,4 mld.
f) FIAT
Fiat Group Automobiles è una società italiana, partecipata interamente da Fiat
S.p.A. e un Gruppo automobilistico internazionale che produce veicoli di
grande diffusione con i marchi generalisti Fiat, Alfa Romeo Lancia Abarth e
Fiat Professional, e automobili di lusso e sportive con i brand Ferrari e Mase-
rati.
Con l‟acquisizione della maggioranza di Chrysler nel 2009, Fiat e Chrysler
hanno venduto più di quattro milioni di veicoli, diventando il settimo costrut-
tore del mondo.
130
g) Telecom Italia
Telecom Italia S.p.A. è tra le più importanti società italiane di servizi di tele-
comunicazione con 114,5 milioni di km di rete telefonica in rame, 5,7 milioni
di km di rete telefonica in fibra.
Con 21,15 milioni di accessi alla rete fissa italiana, 8,96 milioni di accessi al-
la rete a banda larga, 32,15 milioni di clienti della rete mobile TIM, nel 2012
ha realizzato perdite per 1,27 mld e un ebitda di 11,64 mld.
h) Unicredit
UniCredit è tra le prime banche europee, con una rete di 9000 sportelli distri-
buiti in 20 Paesi, 150 mila dipendenti e 40 mln di clienti.
Nella tabella 4.1 si presentano i principali fondamentali delle società, mentre in Figura 4.1,
serie storica dei titoli dal ‟97 ad oggi in relazione all‟andamento dell‟indice di riferimento.
131
Tabella 4.1: portafoglio italiano, composizione e principali indicatori
Codice GICS Sector GICS Indrustry
Group
GICS Industry Total
Sales
(in mln)141
Pre-Tax
Profit
(in mln)
No
share
in issue
PE142
EPS Market
Value143
(in mln)
Assicurazioni
Generali G.MI Financial Insurance Insurance 84.657 1.638 155.687 11,7 1,39 25.906
ENEL Spa ENEL.M
I Utilities Utilities Electric utilities 82.699 48.20 9.403.356 9,9 0,32 30.222
ENI Spa ENI.MI Energy Energy
Oil, Gas & Con-
sumable 12.6000 16.600 3.634.183 12,2 1,43 63.961
Intesa San
Paolo ISP.MI Financials Banks Commercial
Banks 36.139 2..967
15.501.51
0 21,3
0,08
3 27.375
Atlantia Spa ATL.MI Industrial Transportation
Transportation
Infrastructure 5.101 1.146 661.828 16,8 0,94 10.423
Fiat Spa F.MI
Consumer Discre-
tionary
Automobiles &
Components Automobiles 8.395 2.036 1.250.662
21,0
5 0,30 7.991
Telecom
Italia Spa TIT.MI Telecommunication
Services
Telecommunica-
tion Services
Diversified Tel-
ecommunication 29.503 -44
13.417.04
0 7,8
0,08
9 9.365
Unicredit Spa UCG.MI Financials Banks
Commercial
Banks 42.775 -32 5.789.207 27,2 0,20 31.753
Fonte: Thompson Reuters®
141
Al 12/12 142
Al 12/13 (Stime Thompson Reuters ®) 143
Al 15/10/13
132
DATASTREAM EQUITIES 11/10/13 10.58
ENELGeography Code - IT Industry Group - CNVEL
Local Code - M312836 Exchange - Milan
Mnemonic - I:ENEL
Sector - ELECT
Current Price 3.2040 11:41
12 Mth Range High 3.2580 11/ 1/13
Low 2.3040 12/ 7/13
Price Change 1mth 3mth 12mth
(E) 16.6% 32.5% 12.4%
Relative to FTSEMIB
8.7% 10.3% -6.7%
Market Value (E) 30128.35M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 0.090 0.080 0.32 0.31
PE 35.6 40.1 9.9 10.4
PE Rel. 195.8%
P/Cash 2.88 (%=Rel to DS Index)
Dividend Rate (E) 0.15
Dividend Yield 4.68
Dividend Cover 0.5Div Last Fin Year 0.15
Last Div Paid YR (E) 0.15 Tax-G
Pay Date 27/06/13 XD Date 24/06/13
(E) 12/10 12/11 12/12
Total sales 71943M 77573M 82699M
Pre-Tax Prof. 8074M 8438M 4820M
Publ. EPS 0.47 0.44 0.09
Cash EPS 1.16 1.12 1.11
Mkt to Bk Val 0.93 0.76 0.80
ROE (%) 12.34 10.81 2.29
No. Shares in Issue 9403356(000s)
Volume 67584.1(000s)
Percentage of free float 69%
Volatility 4
Beta 0.949
Correlation 0.822
Price and Index (rebased)
94959697989900010203040506070809101112
2
4
6
8
10
ENEL
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.00
ENIGeography Code - IT Industry Group - OILIN
Local Code - M313247 Exchange - Milan
Mnemonic - I:ENI
Sector - OILGP
Current Price 17.5000 11:43
12 Mth Range High 19.4800 17/ 1/13
Low 15.2900 25/ 6/13
Price Change 1mth 3mth 12mth
(E) 0.9% 9.8% 0.2%
Relative to FTSEMIB
-5.9% -8.6% -16.8%
Market Value (E) 63598.18M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 2.15 1.59 1.43 1.74
PE 8.1 11.0 12.2 10.0
PE Rel. 53.8%
P/Cash 3.94 (%=Rel to DS Index)
Dividend Rate (E) 1.09
Dividend Yield 6.23
Dividend Cover 1.5Div Last Fin Year 1.08
Last Div Paid INT (E) 0.55 Tax-G
Pay Date 26/09/13 XD Date 23/09/13
(E) 12/10 12/11 12/12
Total sales 98864M 109B 126B
Pre-Tax Prof. 16540M 18477M 16600M
Publ. EPS 1.74 1.89 2.15
Cash EPS 4.69 4.60 4.44
Mkt to Bk Val 1.28 1.16 1.13
ROE (%) 12.99 12.86 13.58
No. Shares in Issue 3634183(000s)
Volume 13258.5(000s)
Percentage of free float 74%
Volatility 3
Beta 0.664
Correlation 0.794
Price and Index (rebased)
94959697989900010203040506070809101112
0
10
20
30
ENI
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.01
INTESA SANPAOLOGeography Code - IT Industry Group - BANKS
Local Code - M007261 Exchange - Milan
Mnemonic - I:ISP
Sector - BANKS
Current Price 1.7650 11:45
12 Mth Range High 1.7820 10/10/13
Low 1.1240 26/ 3/13
Price Change 1mth 3mth 12mth
(E) 8.0% 37.0% 38.1%
Relative to FTSEMIB
0.6% 14.0% 14.6%
Market Value (E) 27360.15M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 0.10 0.050 0.083 0.14
PE 17.6 35.3 21.3 12.3
PE Rel. 172.5%
P/Cash 6.07 (%=Rel to DS Index)
Dividend Rate (E) 0.05
Dividend Yield 2.83
Dividend Cover 1.0Div Last Fin Year 0.05
Last Div Paid YR (E) 0.05 Tax-G
Pay Date 23/05/13 XD Date 20/05/13
(E) 12/10 12/11 12/12
Total sales 35105M 36728M 36139M
Pre-Tax Prof. 3237M -9542M 2967M
Publ. EPS 0.20 -0.56 0.10
Cash EPS 0.83 0.56 0.29
Mkt to Bk Val 0.48 0.45 0.43
ROE (%) 5.09 -16.29 3.32
No. Shares in Issue 15501510(000s)
Volume 288937.1(000s)
Percentage of free float 90%
Volatility 5
Beta 1.636
Correlation 0.894
Price and Index (rebased)
94959697989900010203040506070809101112
0
2
4
6
8
INTESA SANPAOLO
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 10.57
ASSICURAZIONI GENERALIGeography Code - IT Industry Group - FLINS
Local Code - M006207 Exchange - Milan
Mnemonic - I:G
Sector - NLINS
Current Price 16.2600 11:41
12 Mth Range High 16.2600 11/10/13
Low 11.7000 11/10/12
Price Change 1mth 3mth 12mth
(E) 8.7% 16.6% 39.0%
Relative to FTSEMIB
1.3% -2.9% 15.3%
Market Value (E) 25314.74M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 0.060 0.21 1.39 1.45
PE 271.0 77.4 11.7 11.2
PE Rel. 378.5%
P/Cash 2.34 (%=Rel to DS Index)
Dividend Rate (E) 0.20
Dividend Yield 1.23
Dividend Cover 1.0Div Last Fin Year 0.20
Last Div Paid YR (E) 0.20 Tax-G
Pay Date 23/05/13 XD Date 20/05/13
(E) 12/10 12/11 12/12
Total sales 87156M 70952M 84657M
Pre-Tax Prof. 2837M 1805M 1638M
Publ. EPS 1.10 0.56 0.06
Cash EPS 16.08 8.34 6.94
Mkt to Bk Val 1.25 1.03 1.24
ROE (%) 10.13 4.85 0.52
No. Shares in Issue 1556872(000s)
Volume 12109.5(000s)
Percentage of free float 87%
Volatility 4
Beta 1.250
Correlation 0.905
Price and Index (rebased)
94959697989900010203040506070809101112
0
10
20
30
40
50
ASSICURAZIONI GENERALI
FTSE MIB INDEX (PI)
Source: Thomson Datastream
Figura 4.1 e 4.2: andamento del prezzo dei titoli italiani in realazione all‟indice FTSE MIB e serie storica dei rendimenti
133
DATASTREAM EQUITIES 11/10/13 11.05
UNICREDITGeography Code - IT Industry Group - BANKS
Local Code - M478141 Exchange - Milan
Mnemonic - I:UCG
Sector - BANKS
Current Price 5.4100 11:49
12 Mth Range High 5.4600 10/10/13
Low 3.2380 4/ 4/13
Price Change 1mth 3mth 12mth
(E) 14.4% 50.5% 54.5%
Relative to FTSEMIB
6.6% 25.3% 28.2%
Market Value (E) 31319.61M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 0.15 0.080 0.20 0.37
PE 36.1 67.6 27.2 14.7
PE Rel. 330.5%
P/Cash 2.03 (%=Rel to DS Index)
Dividend Rate (E) 0.09
Dividend Yield 1.66
Dividend Cover 0.9Div Last Fin Year 0.09
Last Div Paid YR (E) 0.09 Tax-G
Pay Date 23/05/13 XD Date 20/05/13
(E) 12/10 12/11 12/12
Total sales 42032M 42749M 42775M
Pre-Tax Prof. 2175M -7727M -327M
Publ. EPS 0.42 -3.37 0.15
Cash EPS 4.18 4.97 2.66
Mkt to Bk Val 0.47 0.24 0.34
ROE (%) 1.88 -16.21 1.43
No. Shares in Issue 5789207(000s)
Volume 97801.5(000s)
Percentage of free float 94%
Volatility 6
Beta 1.912
Correlation 0.894
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
UNICREDIT
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 15/10/13 11.05
ATLANTIAGeography Code - IT Industry Group - TRNSV
Local Code - M350619 Exchange - Milan
Mnemonic - I:ATL
Sector - INDTR
Current Price 15.6800 11:46
12 Mth Range High 15.7800 9/10/13
Low 11.9200 21/ 6/13
Price Change 1mth 3mth 12mth
(E) 4.5% 25.7% 29.7%
Relative to FTSEMIB
-3.0% 3.7% 6.9%
Market Value (E) 10377.45M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 1.25 0.94 0.94 1.03
PE 12.5 16.7 16.8 15.2
PE Rel. 80.9%
P/Cash 6.72 (%=Rel to DS Index)
Dividend Rate (E) 0.75
Dividend Yield 4.76
Dividend Cover 1.3Div Last Fin Year 0.75
Last Div Paid FIN (E) 0.391 Tax-G
Pay Date 23/05/13 XD Date 20/05/13
(E) 12/10 12/11 12/12
Total sales 4521M 4941M 5101M
Pre-Tax Prof. 1108M 1127M 1146M
Publ. EPS 1.05 1.28 1.25
Cash EPS 2.18 2.68 2.33
Mkt to Bk Val 2.88 2.22 2.38
ROE (%) 22.79 24.81 21.94
No. Shares in Issue 661828(000s)
Volume 1777.2(000s)
Percentage of free float 49%
Volatility 4
Beta 0.875
Correlation 0.823
Price and Index (rebased)
94959697989900010203040506070809101112
0
10
20
30
ATLANTIA
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 15/10/13 11.02
FIATGeography Code - IT Industry Group - AUTOS
Local Code - M197640 Exchange - Milan
Mnemonic - I:F
Sector - AUTMB
Current Price 6.3950 11:42
12 Mth Range High 6.4500 16/ 8/13
Low 3.3140 20/11/12
Price Change 1mth 3mth 12mth
(E) 4.0% 7.7% 50.5%
Relative to FTSEMIB
-3.5% -11.2% 24.1%
Market Value (E) 7997.98M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 0.29 0.16 0.30 0.53
PE 22.4 38.8 21.5 12.1
PE Rel. 188.0%
P/Cash 1.36 (%=Rel to DS Index)
Dividend Rate (E) 0.00
Dividend Yield -
Dividend Cover -Div Last Fin Year 0.00
Last Div Paid YR (E) 0.09 Tax-G
Pay Date 21/04/11 XD Date 18/04/11
(E) 12/10 12/11 12/12
Total sales 35880M 59559M 83957M
Pre-Tax Prof. 706M 2185M 2036M
Publ. EPS 0.18 1.08 0.29
Cash EPS 1.81 3.06 4.71
Mkt to Bk Val 1.64 0.52 0.52
ROE (%) 4.76 13.16 3.91
No. Shares in Issue 1250662(000s)
Volume 10696.4(000s)
Percentage of free float 70%
Volatility 9
Beta 1.331
Correlation 0.688
Price and Index (rebased)
94959697989900010203040506070809101112
0
5
10
15
20
FIAT
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 15/10/13 11.04
TELECOM ITALIAGeography Code - IT Industry Group - TELFL
Local Code - M349716 Exchange - Milan
Mnemonic - I:TIT
Sector - TELFL
Current Price 0.6925 11:47
12 Mth Range High 0.7700 17/10/12
Low 0.4710 6/ 8/13
Price Change 1mth 3mth 12mth
(E) 14.1% 37.5% -8.6%
Relative to FTSEMIB
5.8% 13.4% -24.7%
Market Value (E) 9291.30M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS -0.08 0.00 0.089 0.097
PE -8.7 7.8 7.1
PE Rel.
P/Cash 1.61
Dividend Rate (E) 0.02
Dividend Yield 2.89
Dividend Cover 0.0Div Last Fin Year 0.02
Last Div Paid YR (E) 0.02 Tax-G
Pay Date 25/04/13 XD Date 22/04/13
(E) 12/10 12/11 12/12
Total sales 27571M 29957M 29503M
Pre-Tax Prof. 4127M -2624M -44M
Publ. EPS 0.16 -0.24 -0.08
Cash EPS 0.43 0.44 0.43
Mkt to Bk Val 0.66 0.71 0.69
ROE (%) 11.40 -18.31 -7.72
No. Shares in Issue 13417040(000s)
Volume 160090.4(000s)
Percentage of free float 78%
Volatility 6
Beta 0.738
Correlation 0.547
Price and Index (rebased)
94959697989900010203040506070809101112
0
5
10
TELECOM ITALIA
FTSE MIB INDEX (PI)
Source: Thomson Datastream
134
Figura 4.3: serie storica dei rendimenti dal 01/01/2000 al 31/12/2012
-0,1
-0,05
0
0,05
0,1
0,15
2001
ASSICURAZIONI_G
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
ENEL
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
ENI
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
INTESA_SP
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
ATLANTIA
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
0,3
2001
FIAT
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
2001
TELECOM
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
2001
UNICREDIT
135
Tabella 4.2: titoli italiani, statistiche descrittive dell‟intera serie storica
ASSICURAZIONI GENERALI ENEL ENI INTESA SP Media - 0,0001 Media - 0,0001 Media 0,0003 Media 0,0000
Errore standard 0,0003 Errore standard 0,0003 Errore standard 0,0003 Errore standard 0,0005 Deviazione standard 1,7% Deviazione standard 1,7% Deviazione standard 1,8% Deviazione standard 2,6%
Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,1% Curtosi 3,6617 Curtosi 9,9315 Curtosi 10,3365 Curtosi 6,5219
Asimmetria 0,0289 Asimmetria - 0,0721 Asimmetria 0,5723 Asimmetria 0,2072 Intervallo 0,2170 Intervallo 0,2970 Intervallo 0,2714 Intervallo 0,3654 Minimo -8,6% Minimo -11,3% Minimo -9,6% Minimo -16,9%
Massimo 13,1% Massimo 18,4% Massimo 17,5% Massimo 19,7% Q-Test Ljung-Box 27,816 Q-Test Ljung-Box 33,199 Q-Test Ljung-Box 20,472 Q-Test Ljung-Box 35,046
p-value 0,002 p-value 0,000 p-value 0,025 p-value 0,000 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129
ATLANTIA FIAT TELECOM UNICREDIT
Media 0,0004 Media - 0,0001 Media - 0,0003 Media - 0,0003 Errore standard 0,0003 Errore standard 0,0005 Errore standard 0,0004 Errore standard 0,0005
Deviazione standard 1,7% Deviazione standard 2,6% Deviazione standard 2,2% Deviazione standard 2,5% Varianza campionaria 0,0% Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1%
Curtosi 7,1124 Curtosi 6,7557 Curtosi 5,0808 Curtosi 8,3840 Asimmetria 0,3930 Asimmetria 0,5526 Asimmetria - 0,0335 Asimmetria 0,4007 Intervallo 0,2678 Intervallo 0,4167 Intervallo 0,3138 Intervallo 0,3404 Minimo -11,7% Minimo -14,6% Minimo -17,0% Minimo -13,1%
Massimo 15,1% Massimo 27,1% Massimo 14,3% Massimo 20,9% Q-Test Ljung-Box 30,323 Q-Test Ljung-Box 29,507 Q-Test Ljung-Box
Q-Test Ljung-Box 14,171
p-value 0,001 p-value 0,001 p-value
p-value 0,165 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129
136
Mercato Tedesco:
a) Allianz
Allianz SE è tra le principali società d‟assicurazione in Europa, presente in
più di 70 paesi con oltre 180 000 dipendenti con oltre 80 milioni di clienti.
b) BMW
BMW è tra le prime società europee produttrice di automobili e motocicli,
con 76,45 mld di ricavi e 10,48 mld di ebitda a giugno 2013.
c) Bayer
La Bayer AG è tra le principali case farmaceutiche a livello mondiale, con
110 mila dipendenti e presente in quasi tutti i Paesi del mondo.
Nel 2012 Bayer ha fatturato globalmente 39,7 miliardi di Euro.
d) BASF
La BASF (Badische Anilin- und Soda Fabrik) SE è è una delle più grandi
compagnie chimiche al mondo.
Il Gruppo conta più di 160 tra filiali, produce circa 8.000 diversi utilizzati in
molti settori dell'industria, in 41 Paesi tra Europa, Asia e America.
Con 110 mila dipendenti e clienti in 170 Paesi, la società a giusno 2013 ha re-
alizzato ricavi per 40,17 mld e un ebitda di 8,56 mld.
e) Daimler
Presente nei cinque continenti con 17 stabilimenti, Daimler AG è uno dei più
grandi produttori di auto al mondo, vantando nel proprio portafoglio marchi
Mercedes-Benz, Smart, Freightliner, Western Star, BharatBenz, Fuso, Setra e
Thomas Built Buses
Nel 2012 il gruppo impegnata 275 mila persone, vendendo 2,2 mln di veicoli
con ricavi di 114,3 mld e 8,6 mld di ebit.
137
f) SAP
SAP (Systeme, Anwendungen, Produkte in der Datenverarbeitung) AG è tra
le principali società nel settore dei sistemi informatici d‟impresa e nella pro-
duzione di software.
Con 59 mila dipendenti e 195 mila clienti distribuiti in 120 paesi, nel giugno
2013 la società presentava ricavi per 16,23 mld e un ebitda di 5,85 mld.
g) Siemens
Siemens AG è la più grande società metalmeccanica d‟Europa e la maggiore
conglomerata del continente sia per fatturato e dipendenti, operando nel setto-
re metalmeccanico, delle infrastrutture, dell‟energia e dell‟Healthcare.
La società impegna 475 mila dipendenti distribuiti in 10 divisioni e 190 Paesi.
h) Volkswagen
Volkswagen AG è il più grande produttore di auto in Europa, producendo
in28 Paesi nel mondo, con 9,2 mln di auto vendute in 153 Paesi, corrispon-
dente al 12,8% delle vendite mondiali.
Il gruppo comprende 12 marchi in 7 paesi Europei: Volkswagen auto, Audi,
SEAT, ŠKODA, Bentley, Bugatti, Lamborghini, Porsche, Ducati, Volkswa-
gen Commercial Vehicles, Scania and MAN, i quali hanno fatturato 193 mld
di ricavi e 21,9 mld di utile nel 2009.
138
Tabella 4.3: portafoglio tedesco, composizione e principali indicatori
144
Al 12/12 145
Al 12/13 (Stime Thompson Reuters ®) 146
Al 15/10/13 147
I valori di Total Sales e di Pre-Tax Profit sono rispettivamente al 9/12 e 9/13
Codice GICS Sector GICS Indrustry
Group
GICS Industry Total
Sales144
(in mln)
Pre-Tax
Profit
(in mln)
No
share
in issue
PE145
EPS145
Market
Value146
(in mln)
Allianz Se-Reg ALV.DE Financial Insurance Insurance 100.000 8.631 455.950 9,2 13,2 55.169
Bayerische Moto-
ren Werke Ag
(BMW) BMW.DE
Consumer Dis-
cretionary
Automobilies &
Components Automobilies 76.848 7.819 601.995 10,3 7,84 49.951
Bayer Ag-Reg BAYN.DE Health Care
Pharmaceuticals,
Biotechnology Phatmaceuticals 39.760 3.248 826.948 15,3 5,69 72.854
BASF Se BAS.DE Materials Materials Chemicals 78729 8.439 918.479 13,3 5,37 66.130
Daimler Ag DAI.DE
Consumer Dis-
cretionary
Automobilies &
Components Automobilies 114.000 7.718 106.949 11,9 4,92 63.553
SAP Ag SAP.DE
Information
Technology
Software & Services
Pharmaceuticals Software 16.223 3.824 122.850 16,3 3,33 66.189
Siemens147
Ag-
Reg SIE.DE Industrials Capital Goods Industrial Con-
glomerate 78.296 7.278 881.000 16,8 5,43 79.652
Volkswagen Ag-
Pfd VOW.DE Consumer Dis-
cretionary
Automobilies &
Components Automobilies 193.000 25.492 295.090 7,7 21,9 29.861
Fonte: Thompson Datastream®
139
DATASTREAM EQUITIES 11/10/13 11.12
ALLIANZGeography Code - BD Industry Group - FLINS
Local Code - D840400 Exchange - Frankfurt
Mnemonic - D:ALV
Sector - NLINS
Current Price 120.450 11:54
12 Mth Range High 121.800 22/ 5/13
Low 92.000 12/10/12
Price Change 1mth 3mth 12mth
(E) 6.1% 4.0% 30.9%
Relative to DAXINDX
3.8% -2.3% 9.7%
Market Value (E) 54919.13M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 11.4 12.9 13.1 13.4
PE 10.5 9.3 9.2 9.0
PE Rel. 67.5%
P/Cash 2.86 (%=Rel to DS Index)
Dividend Rate (E) 4.50
Dividend Yield 3.74
Dividend Cover 2.9Div Last Fin Year 4.50
Last Div Paid YR (E) 4.50 Tax-G
Pay Date 08/05/13 XD Date 08/05/13
(E) 12/10 12/11 12/12
Total sales 93596M 94193M 100B
Pre-Tax Prof. 7173M 4846M 8631M
Publ. EPS 11.20 5.63 11.42
Cash EPS 34.16 36.84 42.10
Mkt to Bk Val 1.02 0.83 1.09
ROE (%) 13.57 6.35 12.28
No. Shares in Issue 455950(000s)
Volume 20.1(000s)
Percentage of free float 95%
Volatility 4
Beta 1.380
Correlation 0.802 Next AGM MAY.12
Price and Index (rebased)
94959697989900010203040506070809101112
0
200
400
600
ALLIANZ
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.13
BMWGeography Code - BD Industry Group - AUTOS
Local Code - D519000 Exchange - Frankfurt
Mnemonic - D:BMW
Sector - AUTMB
Current Price 80.532 11:52
12 Mth Range High 81.339 19/ 9/13
Low 60.325 12/10/12
Price Change 1mth 3mth 12mth
(E) 0.7% 15.2% 32.6%
Relative to DAXINDX
-1.5% 8.2% 11.1%
Market Value (E) 48479.84M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 7.77 7.88 7.84 8.13
PE 10.4 10.2 10.3 9.9
PE Rel. 74.0%
P/Cash 7.74 (%=Rel to DS Index)
Dividend Rate (E) 2.50
Dividend Yield 3.10
Dividend Cover 3.2Div Last Fin Year 2.50
Last Div Paid YR (E) 2.50 Tax-G
Pay Date 15/05/13 XD Date 15/05/13
(E) 12/10 12/11 12/12
Total sales 60477M 68821M 76848M
Pre-Tax Prof. 4836M 7383M 7819M
Publ. EPS 4.91 7.45 7.77
Cash EPS 20.25 9.27 10.40
Mkt to Bk Val 1.67 1.25 1.58
ROE (%) 14.98 19.16 17.78
No. Shares in Issue 601995(000s)
Volume 7.3(000s)
Percentage of free float 53%
Volatility 4
Beta 1.194
Correlation 0.754 Next AGM MAY.12
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
100
BMW
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.08
BAYERGeography Code - BD Industry Group - CHMSP
Local Code - DBAY001 Exchange - Frankfurt
Mnemonic - D:BAYN
Sector - CHMCL
Current Price 86.800 11:45
12 Mth Range High 89.700 5/ 8/13
Low 65.385 15/11/12
Price Change 1mth 3mth 12mth
(E) 2.7% 3.7% 26.8%
Relative to DAXINDX
0.5% -2.6% 6.3%
Market Value (E) 71779.00M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 2.96 3.51 5.69 6.43
PE 29.3 24.7 15.3 13.5
PE Rel. 179.1%
P/Cash 16.95 (%=Rel to DS Index)
Dividend Rate (E) 1.90
Dividend Yield 2.19
Dividend Cover 1.8Div Last Fin Year 1.90
Last Div Paid YR (E) 1.90 Tax-G
Pay Date 29/04/13 XD Date 29/04/13
(E) 12/10 12/11 12/12
Total sales 35088M 36528M 39760M
Pre-Tax Prof. 1736M 3358M 3248M
Publ. EPS 1.57 2.99 2.96
Cash EPS 5.21 5.66 5.12
Mkt to Bk Val 2.42 2.12 3.22
ROE (%) 6.90 12.98 12.98
No. Shares in Issue 826948(000s)
Volume 2.2(000s)
Percentage of free float 88%
Volatility 4
Beta 0.896
Correlation 0.763 Next AGM APR.10
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
100
BAYER
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.09
BASFGeography Code - BD Industry Group - CHEMS
Local Code - DBASF11 Exchange - Frankfurt
Mnemonic - D:BAS
Sector - CHMCL
Current Price 71.621 11:49
12 Mth Range High 75.927 1/ 2/13
Low 62.650 24/10/12
Price Change 1mth 3mth 12mth
(E) 3.2% 0.5% 10.5%
Relative to DAXINDX
0.9% -5.6% -7.4%
Market Value (E) 65782.31M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 5.31 4.91 5.37 5.90
PE 13.5 14.6 13.3 12.1
PE Rel. 105.6%
P/Cash 8.55 (%=Rel to DS Index)
Dividend Rate (E) 2.60
Dividend Yield 3.63
Dividend Cover 1.9Div Last Fin Year 2.60
Last Div Paid YR (E) 2.60 Tax-G
Pay Date 29/04/13 XD Date 29/04/13
(E) 12/10 12/11 12/12
Total sales 63873M 73497M 78729M
Pre-Tax Prof. 7373M 8970M 8436M
Publ. EPS 4.96 6.74 5.31
Cash EPS 8.86 8.72 8.37
Mkt to Bk Val 2.58 2.04 2.66
ROE (%) 23.44 27.17 20.03
No. Shares in Issue 918479(000s)
Volume 26.7(000s)
Percentage of free float 95%
Volatility 3
Beta 1.363
Correlation 0.886 Next AGM APR.10
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
BASF
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
Figura 4.4 e 4.5: andamento dei prezzi dei titoli delle società componenti il portafoglio tedesco e serie storica dei prezzi di tali titoli
140
DATASTREAM EQUITIES 11/10/13 11.11
DAIMLERGeography Code - BD Industry Group - AUTOS
Local Code - D710000 Exchange - Frankfurt
Mnemonic - D:DAI
Sector - AUTMB
Current Price 58.355 11:50
12 Mth Range High 58.355 11/10/13
Low 35.500 15/11/12
Price Change 1mth 3mth 12mth
(E) 2.9% 18.8% 53.3%
Relative to DAXINDX
0.6% 11.6% 28.5%
Market Value (E) 62410.34M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 5.71 6.28 4.92 5.57
PE 10.2 9.3 11.9 10.5
PE Rel. 67.3%
P/Cash 7.21 (%=Rel to DS Index)
Dividend Rate (E) 2.20
Dividend Yield 3.77
Dividend Cover 2.9Div Last Fin Year 2.20
Last Div Paid YR (E) 2.20 Tax-G
Pay Date 11/04/13 XD Date 11/04/13
(E) 12/10 12/11 12/12
Total sales 97761M 107B 114B
Pre-Tax Prof. 6628M 8449M 7718M
Publ. EPS 4.28 5.32 5.71
Cash EPS 7.71 8.43 8.10
Mkt to Bk Val 1.49 0.91 1.01
ROE (%) 13.50 14.91 14.60
No. Shares in Issue 1069494(000s)
Volume 27.8(000s)
Percentage of free float 92%
Volatility 7
Beta 1.520
Correlation 0.864 Next AGM APR.13
Price and Index (rebased)
94959697989900010203040506070809101112
0
50
100
150
DAIMLER
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.10
SAPGeography Code - BD Industry Group - SOFTW
Local Code - D716460 Exchange - Frankfurt
Mnemonic - D:SAP
Sector - SFTCS
Current Price 54.330 11:39
12 Mth Range High 64.690 14/ 3/13
Low 52.550 8/10/13
Price Change 1mth 3mth 12mth
(E) -0.3% -4.3% 0.9%
Relative to DAXINDX
-2.5% -10.2% -15.4%
Market Value (E) 66744.63M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 2.37 2.48 3.33 3.71
PE 22.9 21.9 16.3 14.6
PE Rel. 158.6%
P/Cash 18.06 (%=Rel to DS Index)
Dividend Rate (E) 0.85
Dividend Yield 1.56
Dividend Cover 2.9Div Last Fin Year 0.85
Last Div Paid YR (E) 0.85 Tax-G
Pay Date 05/06/13 XD Date 05/06/13
(E) 12/10 12/11 12/12
Total sales 12464M 14233M 16223M
Pre-Tax Prof. 2338M 4768M 3824M
Publ. EPS 1.52 2.89 2.37
Cash EPS 1.67 3.80 3.01
Mkt to Bk Val 4.74 3.95 5.27
ROE (%) 19.81 30.55 21.02
No. Shares in Issue 1228504(000s)
Volume 13.9(000s)
Percentage of free float 72%
Volatility 3
Beta 0.754
Correlation 0.672 Next AGM MAY.12
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
SAP
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.07
SIEMENSGeography Code - BD Industry Group - DIVIN
Local Code - D723610 Exchange - Frankfurt
Mnemonic - D:SIE
Sector - GNIND
Current Price 91.529 11:49
12 Mth Range High 91.880 1/10/13
Low 73.662 19/ 4/13
Price Change 1mth 3mth 12mth
(E) 4.4% 15.7% 23.0%
Relative to DAXINDX
2.1% 8.7% 3.2%
Market Value (E) 80637.00M
Fin.Yr LocStd I/B/E/S
09/12 06/13 09/13 09/14
EPS 4.93 5.11 5.43 6.98
PE 18.6 17.9 16.8 13.1
PE Rel. 129.8%
P/Cash 9.47 (%=Rel to DS Index)
Dividend Rate (E) 2.91
Dividend Yield 3.18
Dividend Cover 1.8Div Last Fin Year 2.91
Last Div Paid YR (E) 2.9077 Tax-G
Pay Date 24/01/13 XD Date 24/01/13
(E) 9/10 9/11 9/12
Total sales 75978M 73515M 78296M
Pre-Tax Prof. 5811M 9242M 7278M
Publ. EPS 4.35 6.82 4.93
Cash EPS 8.43 8.94 9.66
Mkt to Bk Val 2.50 1.97 2.23
ROE (%) 14.18 20.53 14.32
No. Shares in Issue 881000(000s)
Volume 10.7(000s)
Percentage of free float 88%
Volatility 3
Beta 1.150
Correlation 0.841 Next AGM JAN.13
Price and Index (rebased)
94959697989900010203040506070809101112
0
50
100
150
SIEMENS
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.07
VOLKSWAGENGeography Code - BD Industry Group - AUTOS
Local Code - D766400 Exchange - Frankfurt
Mnemonic - D:VOW
Sector - AUTMB
Current Price 168.400 10:44
12 Mth Range High 181.400 14/ 8/13
Low 132.100 18/ 4/13
Price Change 1mth 3mth 12mth
(E) -3.4% 6.4% 25.2%
Relative to DAXINDX
-5.5% -0.1% 5.0%
Market Value (E) 49693.08M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 46.4 37.6 21.9 25.0
PE 3.6 4.5 7.7 6.7
PE Rel. 32.4%
P/Cash 3.94 (%=Rel to DS Index)
Dividend Rate (E) 3.50
Dividend Yield 2.08
Dividend Cover 10.8Div Last Fin Year 3.56
Last Div Paid YR (E) 3.50 Tax-G
Pay Date 26/04/13 XD Date 26/04/13
(E) 12/10 12/11 12/12
Total sales 127B 159B 193B
Pre-Tax Prof. 8994M 18926M 25492M
Publ. EPS 15.19 33.12 46.45
Cash EPS 40.27 40.50 42.77
Mkt to Bk Val 1.07 0.83 0.98
ROE (%) 16.82 29.77 32.16
No. Shares in Issue 295090(000s)
Volume 1.6(000s)
Percentage of free float 12%
Volatility 4
Beta 0.858
Correlation 0.428 Next AGM APR.12
Price and Index (rebased)
94959697989900010203040506070809101112
0
100
200
300
400
VOLKSWAGEN
DAX 30 PERFORMANCE (PI)
Source: Thomson Datastream
141
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
DAIMLER
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
0,3
2001
SAP
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
SIEMENS
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1
1,2
1,4
2001
VOLKSWAGEN
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
ALLIANZ
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
2001
BMW
-0,2
-0,1
0
0,1
0,2
0,3
0,4
2001
BAYER
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
2001
BASF
Figura 4.6: serie storica dei rendimenti tei titoli tedeschi dal gennaio 2000 al dicembre 2012
142
Tabella 4.4: statistiche descrittive dei titoli tedeschi per la serie storica totale
ALLIANZ BMW BAYER BASF
Media - 0,0001 Media 0,0004 Media 0,0003 Media 0,0004
Errore standard 0,0004 Errore standard 0,0004 Errore standard 0,0004 Errore standard 0,0003
Deviazione standard 2,4% Deviazione standard 2,2% Deviazione standard 2,1% Deviazione standard 1,9%
Varianza campionaria 0,1% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0%
Curtosi 7,1273 Curtosi 4,2501 Curtosi 36,0753 Curtosi 5,4574
Asimmetria 0,4739 Asimmetria 0,2876 Asimmetria 1,6167 Asimmetria 0,1973
Intervallo 0,3400 Intervallo 0,2671 Intervallo 0,5496 Intervallo 0,2565
Minimo -14,51% Minimo -12,24% Minimo -16,83% Minimo -12,12%
Massimo 19,49% Massimo 14,47% Massimo 38,13% Massimo 13,53%
Q-Test Ljung-Box 42,9854 Q-Test Ljung-Box 43,8456 Q-Test Ljung-Box 36,9586 Q-Test Ljung-Box 33,1398
p-value 0,0000 p-value 0,0000 p-value 0,0001 p-value 0,0003
Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129
DAIMLER SAP SIEMENS VOLKSWAGEN
Media 0,0000 Media 0,0003 Media 0,0002 Media 0,0008
Errore standard 0,0004 Errore standard 0,0005 Errore standard 0,0004 Errore standard 0,0007
Deviazione standard 2,3% Deviazione standard 2,6% Deviazione standard 2,3% Deviazione standard 3,8%
Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1%
Curtosi 6,0584 Curtosi 11,4941 Curtosi 4,7229 Curtosi 496,4774
Asimmetria 0,4412 Asimmetria 0,9354 Asimmetria 0,1321 Asimmetria 15,6125
Intervallo 0,3284 Intervallo 0,4182 Intervallo 0,3315 Intervallo 1,6777
Minimo -13,26% Minimo -15,26% Minimo -15,09% Minimo -44,03%
Massimo 19,59% Massimo 26,56% Massimo 18,06% Massimo 123,73%
Q-Test Ljung-Box 23,6372 Q-Test Ljung-Box 18,7950 Q-Test Ljung-Box 48,2820 Q-Test Ljung-Box 387,6710
p-value 0,0086 p-value 0,0429 p-value 0,0000 p-value 0,0000
Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129
143
Mercato Francese
a) AXA
AXA è uno dei principali gruppi assicurativi e di gestione d‟attivi mondiale, leader
nella protezione assicurativa e nell‟asset management presente in 57 Paesi soprat-
tutto in Europa, Nord America e Asia.
Il Gruppo impegna 163.000 collaboratori e nel 2012 ha presentato un Utile di 98
mln.
b) BNP Paribas
BNP Paribas è uno dei maggiori gruppi in Europa e leader nel credito al consumo,
con una presenza stabile in 84 paesi e 201.800 dipendenti.
Giudicata la sesta banca al mondo per solidità secondo S&P, la banca ha conseguito
nel 2012 ricavi per 39,1 mld e un‟utile di 6,6 mld.
c) Schneider
Schneider Electric SA è un gruppo industriale con più di 130 mila dipendenti in
100 Paesi, che produce prodotti per la gestione elettrica e sistemi.
d) Société Générale
La Société Générale con una presenza stabile in 76 paesi e 32 milioni di clienti (So-
ciété générale pour favoriser le développement du commerce et de l'industrie en
France) è la settima banca per capitalizzazione della zona euro, impiegando circa
154mila dipendenti.
e) L‟Oréal
Con duemila dipendenti, 27 marchi internazionali e 611 brevetti depositati,l‟Oréal è
uno dei più grandi gruppi cosmetici al mondo presente in 130 paesi distribuiti sui
cinque continenti.
144
f) LVMH
La Louis Vuitton Moët Hennessy S.A. è la più grande multinazionale specializzata
in beni di lusso.
Il gruppo LVMH è costituito da 65 società del lusso e conta al suo interno 77 mila
dipendenti.
g) Sanofi
Sanofi è il primo gruppo farmaceutico in Europa e quarta al mondo, con 110 mila
dipendenti distribuiti in 100 Paesi e sui cinque continenti.
h) Total
Total SA è una delle prime quattro aziende mondiali operanti nel settore petrolchi-
mico e del gas naturale.
145
Tabella 4.5: portafoglio francese, composizione e principali indicatori
148
Al 12/12 149
Al 12/13 (Stime Thompson Reuters®) 150
Valori al 15/10/13
Fonte : Thompson Datastream®
Codice GICS Sector GICS Indrustry
Group
GICS Industry Total
Sales148
(in mln)
Pre-Tax
Profit
(in mln)
No
share in
issue
PE149
EPS1
49
Market
Value150
(in mln)
AXA Sa
CS.PA Financials Insurance Insurance 103.000 5.417 2.392.722 9.1 2.02 44.277
BNP Paribas
BNP.PA Financials Banks Commercial Banks 86.635 10.372 1.244.462 11.4 4.67 67.412
Shneider Electic
Sa SU.PA Industrials Capital Goods Electrical Equipment 23.946 2.461 560.344 15.3 4.06 34.954
Société Générale
GLE.PA Financials Banks Commercial Banks 71.506 1.542 798.656 12.1 3.42 33.200
L‟Oréal
OR.PA Consumer Sta-
ples
Household & Perso-
nal Products Personal Products 22.463 3.876 604.551
24.5
5.13 74.994
LVMH Moet
Hennessy Louis
Vuitton
MC.PA Consumer Di-
scretionary
Consumer Durables
& Apparel
Texiles, apparel &
Luxury Goods 28.103 5.725 508.036 20.1 7.30 73.589
Sanofi
SAN.PA Health Care
Pharmaceuticals,
Biotechnology Pharmaceuticals 34.947 5.877 1.326.900 13.6 5.38 97.574
Total Sa
FP.PA Energy Energy Oil, Gas & Consu-
mer Fuels 182.000 23.907 2.376.734 8.7 5.01 105.265
146
DATASTREAM EQUITIES 11/10/13 11.41
AXAGeography Code - FR Industry Group - FLINS
Local Code - G012062 Exchange - Euronext Paris
Mnemonic - F:MIDI
Sector - NLINS
Current Price 18.2700 12:24
12 Mth Range High 18.2700 10/10/13
Low 11.5000 16/11/12
Price Change 1mth 3mth 12mth
(E) 1.5% 13.5% 56.6%
Relative to FRCAC40
-0.9% 4.1% 26.8%
Market Value (E) 43715.01M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 1.77 1.65 2.02 2.14
PE 10.3 11.1 9.1 8.5
PE Rel. 61.6%
P/Cash 4.46 (%=Rel to DS Index)
Dividend Rate (E) 0.72
Dividend Yield 3.94
Dividend Cover 2.3Div Last Fin Year 0.72
Last Div Paid YR (E) 0.72 Tax-N
Pay Date 14/05/13 XD Date 09/05/13
(E) 12/10 12/11 12/12
Total sales 104B 104B 103B
Pre-Tax Prof. 4051M 4589M 5417M
Publ. EPS 1.21 1.49 1.77
Cash EPS 7.94 7.16 4.10
Mkt to Bk Val 0.66 0.54 0.75
ROE (%) 6.46 9.90 9.84
No. Shares in Issue 2392722(000s)
Volume 10535.0(000s)
Percentage of free float 78%
Volatility 6
Beta 2.068
Correlation 0.865
Price and Index (rebased)
94959697989900010203040506070809101112
0
10
20
30
40
AXA
FRANCE CAC 40 (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.39
BNP PARIBASGeography Code - FR Industry Group - BANKS
Local Code - G013110 Exchange - Euronext Paris
Mnemonic - F:BNP
Sector - BANKS
Current Price 53.3700 12:21
12 Mth Range High 53.3900 10/10/13
Low 38.2900 18/ 4/13
Price Change 1mth 3mth 12mth
(E) 5.2% 21.0% 37.6%
Relative to FRCAC40
2.7% 10.9% 11.3%
Market Value (E) 66416.94M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 5.16 3.91 4.67 5.29
PE 10.3 13.6 11.4 10.1
PE Rel. 76.0%
P/Cash 3.83 (%=Rel to DS Index)
Dividend Rate (E) 1.50
Dividend Yield 2.81
Dividend Cover 2.6Div Last Fin Year 1.50
Last Div Paid YR (E) 1.50 Tax-N
Pay Date 24/05/13 XD Date 21/05/13
(E) 12/10 12/11 12/12
Total sales 87432M 82085M 86635M
Pre-Tax Prof. 13020M 9651M 10372M
Publ. EPS 6.33 4.82 5.16
Cash EPS 24.16 21.95 13.94
Mkt to Bk Val 0.76 0.49 0.62
ROE (%) 10.45 7.69 7.78
No. Shares in Issue 1244462(000s)
Volume 5270.7(000s)
Percentage of free float 84%
Volatility 4
Beta 1.689
Correlation 0.823
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
100
BNP PARIBAS
FRANCE CAC 40 (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 15/10/13 11.07
SCHNEIDER ELECTRICGeography Code - FR Industry Group - ELEQP
Local Code - G012197 Exchange - Euronext Paris
Mnemonic - F:QT@F
Sector - ELTNC
Current Price 62.3700 11:52
12 Mth Range High 65.9900 18/ 9/13
Low 47.5400 15/10/12
Price Change 1mth 3mth 12mth
(E) -0.5% 13.4% 31.2%
Relative to FTSEMIB
-7.7% -6.5% 8.1%
Market Value (E) 34948.66M
Fin.Yr LocStd I/B/E/S
12/12 12/12 12/13 12/14
EPS 3.39 3.39 4.06 4.57
PE 18.4 18.4 15.3 13.6
PE Rel. 102.4%
P/Cash 12.09 (%=Rel to DS Index)
Dividend Rate (E) 1.87
Dividend Yield 3.00
Dividend Cover 1.8Div Last Fin Year 1.87
Last Div Paid YR (E) 1.87 Tax-N
Pay Date 07/05/13 XD Date 02/05/13
(E) 12/10 12/11 12/12
Total sales 19580M 22387M 23946M
Pre-Tax Prof. 2356M 2438M 2461M
Publ. EPS 3.29 3.39 3.39
Cash EPS 4.73 4.80 5.16
Mkt to Bk Val 2.05 1.40 1.82
ROE (%) 12.97 11.86 11.32
No. Shares in Issue 560344(000s)
Volume 1002.9(000s)
Percentage of free float 95%
Volatility 4
Beta 1.092
Correlation 0.790
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
SCHNEIDER ELECTRIC
FTSE MIB INDEX (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 15/10/13 11.06
SOCIETE GENERALEGeography Code - FR Industry Group - BANKS
Local Code - G013080 Exchange - Euronext Paris
Mnemonic - F:SGE
Sector - BANKS
Current Price 41.3900 11:50
12 Mth Range High 41.3900 15/10/13
Low 24.3000 18/ 4/13
Price Change 1mth 3mth 12mth
(E) 12.5% 46.3% 70.0%
Relative to FTSEMIB
4.3% 20.6% 40.1%
Market Value (E) 33056.38M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 0.64 0.81 3.42 4.40
PE 64.7 51.1 12.1 9.4
PE Rel. 284.5%
P/Cash 3.31 (%=Rel to DS Index)
Dividend Rate (E) 0.45
Dividend Yield 1.09
Dividend Cover 1.8Div Last Fin Year 0.45
Last Div Paid YR (E) 0.45 Tax-N
Pay Date 24/06/13 XD Date 29/05/13
(E) 12/10 12/11 12/12
Total sales 52704M 58473M 71506M
Pre-Tax Prof. 5844M 4111M 1542M
Publ. EPS 4.96 3.20 0.64
Cash EPS 21.22 10.99 12.51
Mkt to Bk Val 0.65 0.28 0.44
ROE (%) 8.08 5.06 1.00
No. Shares in Issue 798656(000s)
Volume 2469.2(000s)
Percentage of free float 93%
Volatility 6
Beta 2.370
Correlation 0.912
Price and Index (rebased)
94959697989900010203040506070809101112
0
50
100
150
SOCIETE GENERALE
FTSE MIB INDEX (PI)
Source: Thomson Datastream
Figura 4.7 e 4.8: serie storica dei prezzi titoli francesi in relazione all‟indice di riferimento e dei rendimenti di tali titoli
147
DATASTREAM EQUITIES 11/10/13 11.36
L'OREALGeography Code - FR Industry Group - PRSNL
Local Code - G012032 Exchange - Euronext Paris
Mnemonic - F:OR@F
Sector - PERSG
Current Price 125.8000 12:20
12 Mth Range High 136.6500 16/ 5/13
Low 96.0000 7/11/12
Price Change 1mth 3mth 12mth
(E) 0.9% -2.8% 30.0%
Relative to FRCAC40
-1.5% -10.9% 5.1%
Market Value (E) 76052.50M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 4.79 4.92 5.13 5.52
PE 26.3 25.6 24.5 22.8
PE Rel. 142.4%
P/Cash 20.56 (%=Rel to DS Index)
Dividend Rate (E) 2.30
Dividend Yield 1.83
Dividend Cover 2.1Div Last Fin Year 2.30
Last Div Paid YR (E) 2.30 Tax-N
Pay Date 10/05/13 XD Date 07/05/13
(E) 12/10 12/11 12/12
Total sales 19496M 20343M 22463M
Pre-Tax Prof. 3152M 3467M 3876M
Publ. EPS 3.82 4.11 4.79
Cash EPS 5.41 5.44 6.12
Mkt to Bk Val 3.35 2.75 3.05
ROE (%) 15.74 15.01 14.87
No. Shares in Issue 604551(000s)
Volume 524.7(000s)
Percentage of free float 39%
Volatility 5
Beta 0.597
Correlation 0.642
Price and Index (rebased)
94959697989900010203040506070809101112
0
50
100
150
L'OREAL
FRANCE CAC 40 (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.37
LVMHGeography Code - FR Industry Group - CLTHG
Local Code - G012101 Exchange - Euronext Paris
Mnemonic - F:LVMH
Sector - PERSG
Current Price 146.4500 12:18
12 Mth Range High 149.2500 19/ 9/13
Low 119.2500 24/ 6/13
Price Change 1mth 3mth 12mth
(E) 3.5% 9.6% 19.1%
Relative to FRCAC40
1.0% 0.5% -3.7%
Market Value (E) 74401.81M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 6.86 6.64 7.30 8.30
PE 21.3 22.1 20.1 17.6
PE Rel. 122.8%
P/Cash 14.65 (%=Rel to DS Index)
Dividend Rate (E) 3.00
Dividend Yield 2.05
Dividend Cover 2.2Div Last Fin Year 2.90
Last Div Paid FIN (E) 1.80 Tax-N
Pay Date 25/04/13 XD Date 22/04/13
(E) 12/10 12/11 12/12
Total sales 20320M 23659M 28103M
Pre-Tax Prof. 4781M 4912M 5725M
Publ. EPS 6.36 6.27 6.86
Cash EPS 7.97 9.09 10.00
Mkt to Bk Val 3.51 2.47 2.87
ROE (%) 19.57 15.46 14.57
No. Shares in Issue 508036(000s)
Volume 660.8(000s)
Percentage of free float 54%
Volatility 3
Beta 1.052
Correlation 0.779
Price and Index (rebased)
94959697989900010203040506070809101112
0
50
100
150
LVMH
FRANCE CAC 40 (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.34
SANOFIGeography Code - FR Industry Group - PHRMC
Local Code - G012057 Exchange - Euronext Paris
Mnemonic - F:SQ@F
Sector - PHARM
Current Price 73.1200 12:18
12 Mth Range High 86.6700 28/ 5/13
Low 66.0700 23/10/12
Price Change 1mth 3mth 12mth
(E) -1.6% -8.4% 9.6%
Relative to FRCAC40
-4.0% -16.1% -11.4%
Market Value (E) 97022.94M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 3.76 2.55 5.38 6.05
PE 19.4 28.7 13.6 12.1
PE Rel. 159.6%
P/Cash 11.35 (%=Rel to DS Index)
Dividend Rate (E) 2.77
Dividend Yield 3.79
Dividend Cover 0.9Div Last Fin Year 2.77
Last Div Paid YR (E) 2.77 Tax-N
Pay Date 14/05/13 XD Date 09/05/13
(E) 12/10 12/11 12/12
Total sales 30384M 33389M 34947M
Pre-Tax Prof. 5599M 5319M 5877M
Publ. EPS 4.19 4.31 3.76
Cash EPS 7.69 7.55 6.44
Mkt to Bk Val 1.18 1.35 1.65
ROE (%) 10.78 10.42 8.75
No. Shares in Issue 1326900(000s)
Volume 3036.4(000s)
Percentage of free float 91%
Volatility 4
Beta 0.503
Correlation 0.570
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
100
SANOFI
FRANCE CAC 40 (PI)
Source: Thomson Datastream
DATASTREAM EQUITIES 11/10/13 11.35
TOTALGeography Code - FR Industry Group - OILIN
Local Code - G012027 Exchange - Euronext Paris
Mnemonic - F:TAL
Sector - OILGP
Current Price 43.6500 12:20
12 Mth Range High 43.6750 27/ 9/13
Low 35.2500 17/ 4/13
Price Change 1mth 3mth 12mth
(E) 2.5% 13.4% 12.6%
Relative to FRCAC40
0.0% 3.9% -8.9%
Market Value (E) 103744.4M
Fin.Yr LocStd I/B/E/S
12/12 06/13 12/13 12/14
EPS 4.74 4.21 5.01 5.23
PE 9.2 10.4 8.7 8.3
PE Rel. 57.7%
P/Cash 4.61 (%=Rel to DS Index)
Dividend Rate (E) 2.36
Dividend Yield 5.41
Dividend Cover 1.8Div Last Fin Year 2.34
Last Div Paid INT (E) 0.59 Tax-N
Pay Date 27/09/13 XD Date 24/09/13
(E) 12/10 12/11 12/12
Total sales 140B 167B 182B
Pre-Tax Prof. 21035M 26654M 23907M
Publ. EPS 4.73 5.46 4.74
Cash EPS 8.50 9.47 9.48
Mkt to Bk Val 1.54 1.37 1.27
ROE (%) 18.72 19.11 15.17
No. Shares in Issue 2376734(000s)
Volume 4664.3(000s)
Percentage of free float 100%
Volatility 3
Beta 0.705
Correlation 0.738
Price and Index (rebased)
94959697989900010203040506070809101112
0
20
40
60
80
TOTAL
FRANCE CAC 40 (PI)
Source: Thomson Datastream
148
Figura 4.9: serie storica dei rendimenti dei titoli francesi dal 01/01/2000 al 31/12/2012
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
2001
AXA
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
2001
BNPPARIBAS
-0,25
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
SHNEIDER
-0,2
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
0,25
2001
SOCIETE_GENERAL
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
2001
L_OREAL
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
0,2
2001
LVMH
-0,15
-0,1
-0,05
0
0,05
0,1
0,15
2001
SANOFI
-0,1
-0,05
0
0,05
0,1
0,15
2001
TOTAL
149
Tabella 4.6: statistiche descrittive dei titoli francesi
AXA BNPPARIBAS SHNEIDER SOCIETÉ GÉNÉRALE Media 0,0001 Media 0,0002 Media 0,0003 Media 0,0001
Errore standard 0,0005 Errore standard 0,0005 Errore standard 0,0004 Errore standard 0,0005 Deviazione standard 2,9% Deviazione standard 2,6% Deviazione standard 2,3% Deviazione standard 2,8%
Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1% Varianza campionaria 0,1% Curtosi 7,2519 Curtosi 9,7638 Curtosi 5,9107 Curtosi 7,7416
Asimmetria 0,6701 Asimmetria 0,7049 Asimmetria 0,0033 Asimmetria 0,3889 Intervallo 0,4028 Intervallo 0,3814 Intervallo 0,3677 Intervallo 0,4013 Minimo - 0,1841 Minimo - 0,1724 Minimo - 0,2040 Minimo - 0,1623
Massimo 0,2187 Massimo 0,2090 Massimo 0,1637 Massimo 0,2389 Q-Test Ljung-Box 72,38 Q-Test Ljung-Box 55,4083 Q-Test Ljung-Box 63,5761 Q-Test Ljung-Box 99,4788
p-value 0,0000 p-value 0,0000 p-value 0,0000 p-value 0,0000 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129
L’ORÉAL LVMH SANOFI TOTAL
Media 0,0002 Media 0,0003 Media 0,0003 Media 0,0002 Errore standard 0,0003 Errore standard 0,0004 Errore standard 0,0003 Errore standard 0,0003
Deviazione standard 1,8% Deviazione standard 2,1% Deviazione standard 1,9% Deviazione standard 1,8% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0% Varianza campionaria 0,0%
Curtosi 4,4115 Curtosi 5,3478 Curtosi 3,8290 Curtosi 5,3813 Asimmetria 0,2203 Asimmetria 0,4615 Asimmetria 0,1532 Asimmetria 0,2915 Intervallo 0,2586 Intervallo 0,2917 Intervallo 0,2500 Intervallo 0,2283 Minimo - 0,1112 Minimo - 0,1226 Minimo - 0,1034 Minimo - 0,0919
Massimo 0,1474 Massimo 0,1690 Massimo 0,1466 Massimo 0,1364 Q-Test Ljung-Box 24,266 Q-Test Ljung-Box 10,6150 Q-Test Ljung-Box 20,6299 Q-Test Ljung-Box 34,0545
p-value 0,0069 p-value 0,3880 p-value 0,0238 p-value 0,0002 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129 Conteggio 3.129
150
Le tabelle 4.2;4.4;4.6 mostrano le principali statistiche descrittive della serie storica dei
rendimenti dei titoli esaminati.
Innanzitutto, è possibile notare come, coerentemente con il comportamento di molte varia-
bili finanziarie, i titoli presentino media sostanzialmente nulla ed un eccesso di Curtosi
Inoltre è stato possibile utilizzare la statistica di Ljung-Box per verificare la presenza di au-
tocorrelazione tra i dati.
Tale statistica è definita come
𝐿𝐵 = (𝑛 − 1) 𝑟𝑡
2
𝑛 − 𝑡
𝑘
𝑡=1
Dove 𝑘 è l‟ordine dei ritardi scelto.
Sotto 𝐻0 la statistica si distribuisce come una chi-quadro 𝜒2(𝑘).
Nel caso in esame, la statistica mostra in maniera inoppugnabile una forte autocorrelazione
tra i rendimenti per tutte le serie e, di conseguenza evidenzia indirettamente la non-
indipendenza dei rendimenti.
L‟autocorrelazione dei rendimenti può essere osservata implicitamente nelle figure 4.3; 4.6
e 4.9 dove è possibile constatare che, in corrispondenza di periodi di turbolenza del merca-
to, le serie sono esposte a fenomeni di volatility clustering.
Tale fenomeno, che consiste appunto in una clusterizzazione della volatilità in cui a periodi
di alta volatilità (fenomeni di shock) si alternano periodi di bassa volatilità, è effetto
dell‟autocorrelazione dei rendimenti.
151
Al fine di definire uno studio più vicino alla realtà, il numero di azioni per ogni società
componente i portafogli è stato scelto in maniera casuale, in particolare
Società N° di azioni
Portafoglio Italiano
Assicurazioni Generali 13.585
ENEL Spa 55.367
ENI Spa 12.492
Intesa San Paolo 86.823
Atlantia Spa 13.607
Fiat Spa 28.452
Telecom Italia Spa 191.231
Unicredit Spa 18.909
Portafoglio Tedesco
Allianz Se-Reg 2.121
Bayerische Motoren Werke Ag (BMW) 3.231
Bayer Ag-Reg 5.381
BASF Se 4.512
Daimler Ag 4.224
SAP Ag 4.713
Siemens Ag-Reg 2.268
Volkswagen Ag-Pfd 1.851
Portafoglio Francese
AXA Sa 16.289
BNP Paribas 3.986
Shneider Electic Sa 3.715
Société Générale 4.962
L‟Oréal 2.539
LVMH Moet Hennessy Louis Vuitton 1.969
Sanofi 4.100
Total Sa 5.529
152
4.1.3 Gli indici di mercato adoperati
L‟utilizzo di indici di mercato risulta fondamentale per questo studio.
Nelle pagine successive oltre a rappresentare il risk factor nei modelli Delta-Normal, essi
verranno utilizzati come benchmark dell‟andamento generale del mercato.
Al fine di poter svolgere gli opportuni confronti si è optato per degli indici rappresentativi
dei rispettivi mercati. In particolare per il mercato italiano, tedesco e francese la scelta è ri-
caduta rispettivamente su FTSE MIB, DAX30 e CAC40.
FTSE MIB
Costituito dai 40 titoli più rilevanti per liquidità e capitalizzazione e rappresentante
l‟80% della capitalizzazione di mercato, l‟indice FTSE MIB (Financial Times
Stock Exchange Milano Indice di Borsa) è il principale indice di riferimento della
borsa di Milano e ha l‟obiettivo di replicare la composizione settoriale del mercato
azionario italiano
Il FTSE MIB, che è un indice value-weighted151
, è costituito partendo dall'insieme
di tutte le azioni quotate sul mercato azionario principale MTA large cap e MTA
mid cap ed è calcolato in riferimento al benchmark ICB152
.
Il FTSE MIB è stato introdotto il 31/12/97 con un valore iniziale di 24.402 punti
indice.
DAX30
Il DAX 30 (Deutsche Aktienindex 30) è considerato l‟indice del mercato azionario
tedesco.
Esso misura l‟andamento delle 30 maggiori società tedesche (società con sede giu-
ridica o operativa in Germania con la maggioranza delle azioni scambiate nel Fran-
kfurt Stock Exchange) in termini di scambio e di capitalizzazione e rappresenta
l‟80% dell'‟intera capitalizzazione del mercato tedesco.
151
In un indice value weighted il prezzo del titolo è ponderato per la capitalizzazione di borsa.
In un indice price-weighted, invece, il peso del titolo è funzione del prezzo. 152
L‟ICB (Industry Classification Benchmark) è uno standard industriale creato nel 2005 dal Dow Jones in-
dexes e FTSE e creato per catalogare le società. L‟ICB differenzia le società all‟interno di dieci industrie, di-
ciannove supersettori, quarantuno settori, centoquattordici sottosettori.
153
CAC40
L'indice borsistico CAC 40, è il principale indice di borsa francese e uno dei più
importanti del sistema Euronext.
Nato il 31/12/87 con un valore iniziale di 1000 punti, l'indice è value-weighted ed è
composto da 40 delle 100 società a maggiore capitalizzazione quotate alla Borsa
Euronext di Parigi.
Tabella 4.7: valori di correlazione tra gli indici di mercato scelti
FTSEMIB DAX30 CAC40 1,0000 0,8338 0,9022 FTSEMIB
1,0000 0,8864 DAX30
1,0000 CAC40
4.1.4 Gli shock osservati
Come in precedenza accennato, l‟intento di verificare le performance di diversi modelli
VaR si esplica con la scelta di diversi momenti di shock del mercato finanziario interna-
zionale ed europeo dal 2001 ad oggi.
La scelta di tali momenti nella verifica dei modelli è cruciale, in quanto durante tali periodi
i parametri principali del modello subiscono sensibili variazioni.
In primo luogo è immediato pensare che le elevate fluttuazioni generatesi durante i periodi
di shock producono un incremento della volatilità per i titoli quotati e per gli indici di rife-
rimento del mercato.
In secondo luogo, shock a livello macroeconomico producono una tendenza al ribasso del
mercato, influenzando il secondo parametro di fondamentale importanza nella stima: il va-
lore di mercato dei titoli.
In questo senso, la scelta si è orientata perlopiù su i tre maggiori fenomeni finanziari che
hanno interessato il nuovo millennio:
11/09/2001 Shock Post-Attentato al World Trade Center
L‟attentato al World Trade Center ebbe significativo impatto sui mercati finanziari
mondiali.
Innanzitutto, l‟attacco danneggiò i sette grattacieli facenti parte del complesso e
l‟adiacente World Financial Center causando la distruzione del sistema di contrat-
154
tazioni di Wall Street e il sistema di comunicazione della Bank of New York, uno
dei principali istituti americani.
Inoltre entrambi i complessi erano sede di alcune istituzioni e società finanziarie
mondiali, quali NYMEX (New York Mercantile Exchange), NYBOT (New York
Board of Trade), Lehman Brothers, American Express, Dow Jones, Merril Lynch,
Deloitte, Nomura, il New York Stock Exchange; Morgan Stanley, Deutshe Bank e
il New York Board of Trade.
La chiusura della borsa americana fino al 17 Settembre e l‟immissione di liquidità
da parte della Fed limitarono parzialmente i crolli finanziari del post-attentato.
Nondimeno, l‟incertezza conseguente gli attentati provocarono in ogni modo il
crollo dei corsi azionari: alla riapertura dei mercati, l‟Indice DJIA (Dow Jones In-
dustrial Average) registrò una flessione negativa del 14,3%, e la perdita in USA nei
tre mesi successivi di quasi mezzo milione di posti di lavoro e 27,3 miliardi di dol-
lari di PIL.
Il panico diffusosi nel mercato americano nei mesi successivi si trasmise a tutte le
borse dei paesi occidentali.
Scoppio della bolla153
di Internet
La Bolla speculativa di Internet, detta anche bolla delle Dot.com si è sviluppata du-
rante gli anni della New economy (o, appunto, era delle Dot.com), cioè tra il ‟97 e il
‟01 ed è stata generata da un aumento esponenziale del valore dei titoli delle start-
up legate a internet e al mondo dell' high-tech.
In particolare, la bolla si sviluppò nel 1994 con la quotazione di Netscape, la quale,
creando il primo browser commerciale, provocò un‟esplosione di nascite di
"Dot.com".
Tali società puntavano sull‟espansione della propria base di clienti il più rapida-
mente possibile acquisendo fette di mercato, anche a costo di grandi perdite annua-
li. La frase get big fast, Espandersi o Fallire, diventò il motto dell‟era delle
Dot.com.
153
Una bolla speculativa è un aumento ingiustificato del prezzo delle azioni di una società (o, come nel no-
stro caso, di un settore) e si verifica quando gli investitori, osservato l‟apprezzamento di alcuni titoli azionari,
sono spinti a comprare al fine di speculare in previsione di ulteriori aumenti. Si crea così un processo autoa-
limentato che termina quando la bolla "scoppia" e i prezzi crollano.
155
Ai target ambizioni delle start-up seguì la sovrastima dal parte del mercato, il quale
ignorò i fondamentali e le caratteristiche di tali società (scarsa capitalizzazione, pic-
cole dimensioni) nella convinzione che le start-up avrebbero prodotto profitti in fu-
turo.
La bolla scoppiò tra ‟00 e ‟01: i rapporti annuali e trimestrali pubblicati nel marzo
2000 mostrarono la debolezza dell'“affare Internet” e se il 10 marzo 2000 l'indice
NASDAQ, raggiunse il suo punto massimo a 5048, il 13 marzo cominciarono le
vendite che portarono l‟indice in soli tre giorni a perdere il 9%.
Il calo non fu tuttavia improvviso, ma graduale e si protrasse per i due anni succes-
sivi.
Con lo scoppio della bolla, alcune società come Pets.com, fallirono completamente
mentre altre Dot.com riuscirono a sopravvivere, per essere successivamente acqui-
state dai grandi operatori del mercato come Google, Microsoft e Yahoo!.
Crisi dei mutui Subprime154
e crack della banca Lehman Brothers
Tra il 2001 e il 2005, i bassi tassi di interesse della Fed, la possibilità di conseguire
elevati profitti da parte delle banche e l‟apertura al mercato a soggetti in evidenti
difficoltà economiche stimolarono lo sviluppo dei mutui subprime, che da 145 mi-
liardi di dollari nel 2001, raggiunsero i 635 miliardi nel 2005.
La possibilità di ottenere un mutuo a tassi vantaggiosi stimolò anche il mercato
immobiliare, che agendo di pari passo con lo sviluppo dei subprime, vide accresce-
re il prezzo degli immobili.
Questo mix rischio-profitto cominciò a vacillare nel 2005, quando la Fed, nel tenta-
tivo di frenare questo processo autoalimentato innalzò i tassi di riferimento155
dal
1,5% nel 2005 al 5,25% nel 2007.
154
Per mutui subprime si definiscono quei mutui concessi a soggetti “secondari”, che per le loro caratteristi-
che finanziarie non possono accedere al mercato “regolare” dei mutui. Per questo motivo, tali prestiti si carat-
terizzano per alti tassi, variabili e di conseguenza rappresentano un asset rischioso sia per il prestatore che per
il debitore.
In particolare il prefisso "sub-", fa riferimento appunto a condizioni sub-ottimali rispetto ai prime loan.
Nella categoria dei subprime si trovano innumerevoli strumenti finanziari come ad esempio i mutui subprime
o le carte di credito subprime.
156
Di conseguenza i debitori osservarono un brusco innalzamento del tasso del proprio
mutuo, accrescendo il numero delle insolvenze e dei successivi pignoramenti au-
mentò, a causa
L‟esplosione della bolla immobiliare avvenne nel 2007, quando all‟aumento dei pi-
gnoramenti fece seguito un‟ondata di vendite immobiliari da parte degli intermedia-
ri
Alla svalutazione delle case, nel Luglio 2007 fece seguito la conseguente svaluta-
zione degli strumenti innovativi garantiti da mutui ipotecari, suscitando difficoltà
per i grandi istituti che avevano realizzato grossi margini di profitto con i subprime,
quali Bearn Sterns156
, AIG, Northen Rock157
, Citigroup, UBS e Lehman Brothers
mentre sull‟altro versante i tagli dei tassi da parte della Fed e l‟immissione di liqui-
dità da parte della BCE e della stessa Fed non riuscirono a contenere gli effetti del
crollo.
Il 15 settembre 2008, dopo il ritiro dell'offerta di acquisto da parte di Barclays, la
Lehman Brothers Holdings annunciò il ricorso al Chapter 11158
, causando nella
stessa giornata il crollo dell‟80% del valore delle proprie azioni e il ribasso di 500
punti dell'indice Dow Jones, un crollo ancor maggiore di quello avvenuto 7 anni
prima con l‟attentato al World Trade Center.
Le conseguenze a lungo termine del dissesto causato dalla crisi dei subprime fu la
crisi del debito sovrano per molti paesi europei e l‟attuale crisi economica, ma gli
effetti nei giorni immediatamente successivi furono il tracollo dei corsi azionari,
con la perdita di circa 900 miliardi di euro, ben oltre l‟intera capitalizzazione di
Piazza Affari con le sole perdite europee pari a 125 miliardi.
155
In parole semplici, i tassi di riferimento sono quei tassi di interesse a cui la Federal Reserve concede pre-
stiti alle banche, e, coerentemente ad una logica di rendimento-rischio, rappresentano di fatto i tassi
d‟interesse più bassi del mercato 156
A causa delle evidenti difficoltà finanziarie e per sfuggire al fallimento, il 16 marzo 2008 Jp Morgan ac-
quisì Bear Stearns. 157
Nel Settembre 2007 a causa del suo business incentrato perlopiù sul mercato interbancario (che andò in
crisi alle prime avvisaglie di difficoltà del mercato) la Northern Rock annunciò difficoltà nella liquidità, sca-
tenando una corsa agli sportelli. 158
Il Chapter 11 è appunto il capitolo 11 del Bankruptcy Code USA, (che si avvicina alla legge fallimentare
italiana), che ha come obiettivo la riorganizzazione d‟impresa a fronte di una crisi.
157
Crisi del debito sovrano159
L‟eccessivo intervento pubblico al fine di salvaguardare le istituzioni finanziarie da
un lato e la bassa crescita dall'altro causò l‟innalzamento dell‟esposizione debitoria
degli Stati160
.
Infatti, primi interventi di riduzione dei tassi d‟interesse effettuati dalla Fed e dalla
BCE hanno fatto seguito interventi massici da parte dei Governi che hanno erogato
fondi agli istituti di credito, raccolti accrescendo il debito pubblico.
L‟aumento del debito causò situazioni di difficoltà per molti paesi dell'eurozona: la
Grecia, che sembrava avere attraversato la fase 2007-2008 in maniera meno negati-
va, con uno sviluppo sostenuto negli anni precedenti nell‟Ottobre 2009 ammise di
aver mentito sulla situazione finanziaria degli ultimi anni161
e di aver effettuato ope-
razioni finanziarie spregiudicate con le banche d‟affari Goldman Sachs e JP Mor-
gan Chase per nascondere l‟entità dell‟indebitamento.
Nell‟Aprile dell'‟anno successivo, l‟agenzia di rating S&P declassò i titoli greci al
livello BB+, cioè al livello di obbligazioni spazzatura, seguita a ruota dalle altre a-
genzie.
I piani di risanamento proposti dal Governo greco e gli interventi finanziari della
BCE, come la ristrutturazione del debito e l‟abbattimento forfettario del 50% del
debito a carico dei privati non impedì l‟allargamento della sfiducia nei confronti di
altri paesi “periferici”.
Nell‟Aprile 2010 l‟annuncio da parte delle banche portoghesi di non essere in grado
di acquistare in asta i titoli del debito pubblico portoghese costituì il campanello
d'allarme circa la possibilità di una crisi anche per il Portogallo.
Il Paese approvò il risanamento di bilancio e riduzione delle spese a cui fece seguito
un piano di salvataggio di 80 miliardi da parte dell‟UE.
Quasi contemporaneamente (Agosto 2010) l'Irlanda, dopo esser stata investita dalla
bolla speculativa e dalla successiva crisi finanziaria che causò riduzione del Pil del
7,5%, e l‟incremento del 20% del deficit pubblico accettò anch‟essa un programma
di salvataggio del FMI di 85 miliardi di euro.
159
Si veda anche http://economia.unipv.it 160 Basti pensare che nel 2007 il debito pubblico rappresentava l‟81% del Prodotto interno lordo (Pil) delle
economie avanzate, mentre nel 2015, salirà al 109% (stime del FMI). 161
Il Governo Greco annunciò che il rapporto deficit/Pil avrebbe raggiunto la cifra record di 12,7%
158
Nel Luglio 2011 entrambi i paesi videro un declassamento dei propri titoli al livel-
lo “junk” da parte di Moody‟s
Nell‟estate-Autunno 2011 la speculazione colpì i grandi paesi periferici: Italia e
Spagna.
Già nel 2008 l‟arresto della crescita espose la Spagna all‟attacco degli investitori
sui titoli sovrani: a fronte dell'aumento dello spread Bonos-Bund a quota 500 punti
base, il governo spagnolo decretò elezioni anticipate e a fine 2012 in nuovo esecu-
tivo dette il via alle politiche di austerità richieste dalla BCE
Per quanto riguarda l‟Italia la crisi del debito italiano, a differenza degli altri Paesi
periferici, non si realizzò sulle fondamenta della crisi immobiliare, ma fu causata da
variabili finanziarie che già da anni influenzavano l‟economia del Paese.
In particolare nel decennio 2000-2010 l‟Italia era aggravata da l'alto livello del de-
bito pubblico, e una crescita economica del 4% in tutto il decennio.
Questi fattori spinsero molti investitori a nutrire dubbi sulla reale solvibilità del Pa-
ese: nel Luglio 2011, dopo aver attaccato i titoli spagnoli, la speculazione si con-
centrò sui Btp italiani, raggiungendo uno spread Btp-Bund di 337 punti e un conse-
guente rendimento dei Btp a 15 anni del 5,90%.
L‟ampliamento dello spread comportò un circolo vizioso di allargamento della sfi-
ducia nel sistema-Italia e conseguente ulteriore aumento dello spread, provocando
tra l‟altro forti ribassi nella Borsa di Milano162
.
Nel 2012 dopo l‟abbassamento del merito creditizio italiano da parte di S&P, la
manovra di 20 miliardi di euro e Long Term Refinancing Operation163
attuato dalla
BCE comportò una riduzione dello spread e il conseguente calo del costo
dell‟indebitamento italiano, anche se l'economia reale continuò a peggiorare ed en-
trò in recessione.
162
Bisogna specificare che nonostante le banche italiane non possedessero titoli “tossici” derivanti dai su-
bprime, erano molto esposte sui titoli di Stato italiani.
Infatti in quel periodo circa il 60% del bilancio delle prime 5 banche italiane era costituito da titoli di Stato
italiani 163
Il long term refinancing operation (LTRO, piano di rifinanziamento a lungo termine) è un intervento della
BCE con il quale la Banca Centrale, a fronte di una garanzia (collaterale) composta generalmente da obbliga-
zioni, fornisce un prestito alle banche ad un tasso pari alla media del tasso delle MRO (Main Refafinancing
operation), calcolata durante il periodo dell'‟operazione, che è di 3 anni.
159
La scelta dei momenti shock è avvenuta osservando i periodi di crisi finanziaria di cui si è
discusso.
In particolare, assumendo che l‟indice sia espressivo dell‟andamento generale del merca-
to164
, la scelta è propesa su 5 “osservazioni shock”, nelle quali il FTSE MIB, il DAX30 e il
CAC40 hanno realizzato un crollo nel loro valore.
Per la precisione, sono state scelte le seguenti osservazioni:
1. 21 Settembre 2001
2. 9 Ottobre 2002
3. 20 Marzo 2008
4. 6 Marzo 2009
5. 12 Settembre 2011
Al fine di compiere un‟analisi più ampia del fenomeno di turbolenza, la stima non è stata
calcolata a partire dall‟ “osservazione shock”, bensì in momenti precedenti e successivi a-
gli shock stessi.
Più precisamente, per ogni shock l‟analisi s‟incentra su tre stime del valore a rischio: la
prima si basa su l‟osservazione avvenuta un mese prima lo shock, la seconda su
un‟osservazione avvenuta un mese dopo lo shock e la terza su l‟osservazione avvenuta due
mesi dopo lo shock165
.
164
Nel presente studio si è assunto che l‟indice possa sintetizzare il generale andamento del mercato.
Questa ipotesi verrà più volte giudicata non corretta nel proseguio di questo lavoro 165
Per facilitare la comprensione, nel presente lavoro si indicheranno le osservazioni shock con S1; S2; S3;
S4; S5 secondo l‟ordine cronologico, e l‟osservazione su cui è calcolata la stima con -1M; +1M; +2M a se-
conda che la stima sia calcolata rispettivamente un mese prima, un mese dopo o due mesi dopo la turbolenza.
Per la precisione, si opterà per la stima 21 osservazioni prima dell‟osservazione shock, 21 osservazioni dopo
e 40 osservazioni dopo
160
0
10000
20000
30000
40000
50000
60000P
un
ti In
dic
e
FTSE MIB
DAX30
CAC40
11/09/01 Attentato al WTC
Luglio '07: inizia a crisi dei subrime
15/09/08 Lehman Brothers ricorre
13/03/00: Scoppio della bolla di Internet
Ottobre '09 : inizia la Crisi
08/07/11 comincia la
08/08/11 bocciatura del bilancio Usa. È tracollo
Grafico 4.3: FTSE MIB, DAX30 e CAC40, serie storica dal 1/10/98 al 15/10/13
Fonte: Thimpson Reuters®
161
4.2 Lo studio dei risultati ottenuti: la ricerca del modello ottimo
L‟analisi dei risultati ottenuti passa necessariamente attraverso la determinazione del mo-
dello ottimo.
Su quali basi è possibile determinare se un modello è ottimo?
È pacifico pensare che le variabili che influenzano il giudizio di un modello sono il risulta-
to fornito e la capacità di rispondere ad uno shock di mercato, il quale si manifesta nel crol-
lo dei corsi azionari e nell‟aumento della volatilità.
Banalmente, si potrebbe pensare che quanto maggiore sia il valore stimato, tanto migliore
può essere considerato il modello, in realtà questo non è sempre vero: come visto nel Capi-
tolo 1, nell‟ottica del risk management è indubbio pensare che un modello che fornisca va-
lori eccessivamente alti impone accantonamenti di capitale spesso eccessivi rispetto
all‟effettiva esposizione al rischio, distraendo risorse da un‟allocazione redditizia.
In questo senso, la strada per determinare l‟effettiva validità di un modello passa per i mo-
delli di backtesting, nonostante, come più volte sottolineato, anch‟essi rappresentino un si-
stema approssimativo e spesso inattendibile per determinare la legittimità dell‟approccio
Value at Risk.
Tuttavia, in questo studio l‟analisi empirica si limita all'osservazione dei differenti modelli,
studiandone l‟andamento durante gli shock, verificando, attraverso l‟analisi delle stime
fornite, se, quando e in che misura ognuno dei modelli proposti risponda alle qualità che un
modello di stima del rischio di mercato debba possedere166
.
166
È inoltre opportuno precisare che in questa sede considerare il VaR come valore monetario può risultare
fuorviante, in quanto la massima perdita possibile deve essere rapportata al valore di mercato del portafogli.
In parole più semplici, è più opportuno definire il VaR su base percentuale affinché sia più facile comprende-
re la quota di capitale che ogni modello stima debba essere accantonata a fronte dell'investimento.
162
4.2.1 Il modelli Varianze-Covarianze “ordinari”
Nel Capitolo 2 si è più volte sottolineato che il modello Varianze-Covarianze mostra ec-
cessive approssimazioni assumendo la normalità dei rendimenti.
Preso atto di tale limite, in questo lavoro si è preferito utilizzare dei modelli che incorpo-
rassero almeno in parte la differenza che intercorre tra la vera distribuzione dei rendimenti
e la distribuzione Normale standard.
Alla luce di quanto appreso, è inequivocabile che la scelta del 𝑧𝛼 modificato rappresenta
un significativo miglioramento nella stima, considerando che, come è possibile notare dalla
Tabella 4.8, il valore “modificato” differisce in maniera sostanziale dal corrispettivo previ-
sto dalla Normale Standard al livello di confidenza del 99% (𝑧𝛼 = 2,326).
Tabella 4.8: valore di 𝑧𝛼∗ , calcolato introducendo nel calcolo Curtosi e Asimmetria, per i differenti shock. I valori evi-
denziati in rosa, verde e blu sono rispettivamente inferiori a 2,326 (il percentile della Normale standardizzata al livello di
confidenza del 99%), compresi tra 2,326 e 3 e superiori a 3
Assicurazioni
Generali ENEL ENI Intesa SP Atlantia FIAT Telecom Unicredit
S1
-1M 2,167 2,585 2,093 2,712 2,862 4,224 2,678 2,126
+1M 2,762 2,858 2,122 3,333 3,601 4,584 2,455 4,453
+2M 2,861 2,715 2,043 3,165 3,532 4,228 2,421 3,975
S2
-1M 2,737 2,408 2,182 2,547 3,280 2,950 2,755 3,261
+1M 2,531 2,606 2,223 2,598 7,448 2,720 2,607 3,160
+2M 2,496 2,644 2,289 2,571 7,913 2,685 2,539 3,191
S3
-1M 2,951 2,306 2,482 2,344 2,974 2,069 4,253 2,806
+1M 3,113 2,375 2,449 2,492 3,041 2,103 3,984 2,761
+2M 3,194 2,336 2,447 2,484 3,084 2,101 3,883 2,736
S4
-1M 3,263 4,203 4,616 3,781 3,164 2,953 3,413 3,343
+1M 2,853 4,361 4,250 3,329 3,039 4,087 3,202 3,125
+2M 2,718 4,179 4,186 3,212 2,952 3,983 3,207 3,066
S5
-1M 2,408 2,107 2,286 2,675 3,106 2,159 2,772 2,729
+1M 2,425 2,509 2,798 2,501 3,316 2,504 2,486 2,682
+2M 2,441 2,551 2,718 2,367 3,093 2,336 2,434 2,434
163
Il risultato può essere facilmente allargato agli altri portafogli, giungendo alla conclusione
che nel solo portafogli italiano i casi in cui il valore modificato del percentile si è dimostra-
to prossimo o di poco inferiore al valore “ordinario” fornito dalla Normale Standard è sta-
to solo il 7,8%
È facile intuire come questo risultato sia dovuto a valori di asimmetria e curtosi dei titoli
sensibilmente superiori rispetto a quanto previsto dalla funzione gaussiana.
Un caso emblematico dell'allontanamento delle distribuzioni dei rendimenti dalla normalità
distributiva ci è fornito durante lo shock della banca d‟affari Lehman167
.
Come è possibile constatare dal Grafico 4.4, il crollo causato dalla Lehman si inserisce nel
più ampio fenomeno di crollo dei corsi azionari causato dalla crisi dei mutui subprime, che
raggiunge il valore più basso per i tre indici il 6 Marzo 2009.
Similmente, anche i titoli annessi ai tre portafogli sono soggetti a forti shock dei rendimen-
ti (vedi Figure 4.3,4.6 e 4.9), che portano il più delle volte a valori così eccezionali di cur-
tosi e asimmetria che l‟assunzione di normalità risulta troppo difficile da accettare.
I Grafici 4.4 e 4.5 riportano un caso peculiare di quanto scritto poc‟anzi: a fronte di forti
shock tra l‟Ottobre e il Novembre 2008, il titolo Volkswagen presenta statistiche descritti-
ve sensibilmente diverse da quelle previste per una Normale (0;0), tanto da rendere giusti-
ficabile l‟utilizzo del percentile modificato che includa tali statistiche.
167
Il caso è peculiare, se ne tornerà a parlare più avanti
164
Grafico 4.4 e 4.5: distribuzione dei rendimenti confrontata con la Normale (Grafico 4.4) e serie storica dei rendimenti del
titolo Volkswagen dal 05/02/2008 al 04/02/2009
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1
1,2
1,4
feb mar apr mag giu lug ago set ott nov dic 2009 feb
Rendim
enti
Volkswagen
165
Come controprova della non-normalità dei rendimenti è possibile compiere un test di nor-
malità.
A tal fine si è preferito un test Jarque-Bera, il quale è molto vicino agli obiettivi di questo
lavoro, in quanto verifica la normalità di una distribuzione a partire da Asimmetria e Cur-
tosi.
In particolare:
𝑇𝐽𝐵 =𝑛
6(𝑆2 +
1
4
𝐾 − 3 2
4)
Dove:
𝑛 = Numero di osservazioni
𝑆 = Asimmetria calcolata utilizzando l‟Indice di asimmetria di Fisher in cui 𝑆 =𝑀3
𝜍3
𝐾 = Curtosi calcolata utilizzando l‟indice di Curtosi di Pearson in cui 𝐾 =𝑀4
𝜍4
Sotto l‟ipotesi nulla asimmetria e curtosi sono nulle168
e 𝑇𝐽𝐵~𝜒2(2).
Se 𝑇𝐽𝐵 è prossima allo 0 asimmetria e curtosi sono nulle e la distribuzione può ritenersi
normale.
168
È molto importante rilevare che fino ad ora la Curtosi è stata espressa utilizzando l‟Indice di Curtosi di
Fisher, per cui la distribuzione Normale ha curtosi pari a 0.
Nell‟indice di curtosi di Pearson alla Normale è attribuito un valore di curtosi pari a 3
166
Tabella 4.9: : risultati del test di Jarque-Bera per le distribuzioni dei rendimenti dei titoli italiani, tedeschi e francesi durante lo shock Lehman
Assicurazioni Generali
ENEL ENI Intesa SP Atlantia FIAT Telecom Unicredit
S4 -1M 𝑻𝑱𝑩 92,7353 1182,98 876,144 311,393 125,934 37,9628 133,03 114,804
p-value 7,29E-21 1,32E-257 5,60E-191 2,41E-68 4,51E-28 5,71E-09 1,30E-29 1,18E-25
S4 +1M 𝑻𝑱𝑩 28,2756 571,63 548,636 142,412 69,6461 466,572 81,657 61,5965
p-value 7,24E-07 7,45E-125 7,33E-120 1,19E-31 7,53E-16 4,84E-102 1,86E-18 4,21E-14
S4 +2M 𝑻𝑱𝑩 13,9708 464,599 504,153 111,912 48,2973 395,264 91,7734 51,6641
p-value 0,00092529 1,30E-101 3,35E-110 5,00E-25 3,25E-11 1,48E-86 1,18E-20 6,04E-12
Allianz BMW Bayer BASF Daimler SAP Siemens Volkswagen
S4 -1M 𝑻𝑱𝑩 420,098 156,546 98,0321 344,988 548,309 730,799 512,175 75978,2
p-value 5,98E-92 1,02E-34 5,16E-22 1,22E-75 8,63E-120 2,04E-159 6,06E-112 0
S4 +1M 𝑻𝑱𝑩 206,736 94,9038 116,267 150,039 260,286 611,308 306,794 72638
p-value 1,28E-45 2,47E-21 5,66E-26 2,63E-33 3,02E-57 1,80E-133 2,40E-67 0
S4 +2M 𝑻𝑱𝑩 192,086 82,4389 125,333 127,291 202,352 605,172 257,647 72035,1
p-value 1,95E-42 1,25E-18 6,09E-28 2,29E-28 1,15E-44 3,88E-132 1,13E-56 0
AXA BNPParibas Shneider Societè Gene-
ral L'Oreal LVMH Sanofi Total
S4 -1M 𝑻𝑱𝑩 146,75 234,144 156,92 57,4341 325,595 162,894 305,203 246,851
p-value 1,36E-32 1,43E-51 8,42E-35 3,38E-13 1,99E-71 4,25E-36 5,32E-67 2,50E-54
S4 +1M 𝑻𝑱𝑩 101,914 173,768 117,84 30,7752 352,687 131,261 228,897 171,175
p-value 7,41E-23 1,85E-38 2,58E-26 2,08E-07 2,60E-77 3,14E-29 1,98E-50 6,76E-38
S4 +2M 𝑻𝑱𝑩 71,3002 134,045 98,8216 26,51 346,129 110,776 206,255 162,232
p-value 3,29E-16 7,81E-30 3,48E-22 1,75E-06 6,90E-76 8,82E-25 1,63E-45 5,91E-36
167
Dal risultato così ottenuto, la prova di non normalità dei rendimenti è inoppugnabile169
.
Nel Capitolo 2, inoltre, si è discusso sulle differenze tra modello Delta-Normal e il modello
Asset-Normal, asserendo che il primo rappresenta una versione generica del secondo e in
ogni caso utilizzato per i vantaggi in termini di semplificazione che esso offre.
In tal senso, la prova empirica offre risultati contrastanti: il Grafico 4.6 mostra che per va-
lori di deviazione standard dell‟indice inferiori al 5%, le due si collocano sulla bisettrice
principale del grafico, dimostrando dunque che i due modelli producono stime non molto
dissimili.
Nondimeno, a valori più alti della stima, lo scostamento tra i due modelli tende a farsi più
marcato, generando come risultato finale una retta di regressione170
con pendenza più ele-
vata (1,4591) rispetto a quanto previsto nella perfetta correlazione.
Grafico 4.6: Asset-Normal e Delta-Normal, grafico di dispersione e retta di regressione
169
Volendo essere rigorosi, considerando che il test si distribuisce come una Chi-Quadro bisognerebbe fissa-
re un livello di significatività 𝛼 e verificare che p-value<𝛼.
Tuttavia l‟evidenza dei dati contro 𝐻0 è così palese che non si è ritenuto necessario. 170
I coefficienti della retta di regressione sono stati stimati utilizzando il metodo dei minimi quadrati
y = 1,4591x - 0,0161R² = 0,698
0,00%
5,00%
10,00%
15,00%
20,00%
25,00%
0,00% 5,00% 10,00% 15,00%
Ass
et-
No
rmal
Delta-Normal
Delta-Normal VS Asset-Normal
Delta-Normal VS Asset-Normal
Lineare (Delta-Normal VS Asset-Normal)
168
A fronte di questo risultato inattendibile, si fa pressante un‟analisi più approfondita del ri-
sultato.
In questo senso, può risultare utile analizzare il comportamento dei differenti modelli in re-
lazione alla volatilità dei mercati: se si ipotizzasse che gli indici di riferimento riescano a
sintetizzare la situazione dell'intero mercato, allora risulterebbe sensato analizzare il com-
portamento dei modelli al variare della volatilità degli indici stessi.
A tal proposito, considerando, a prescindere dal tipo di portafoglio, i 10 maggiori e i 10
minori valori di deviazione standard (Grafico 4.7 e 4.8) il comportamento dei due modelli
diviene più chiaro.
Grafico 4.7 e 4.8: Delta-Normal e Asset-Normal per le prime 10 minori deviazioni standard dell‟indice (Grafico 4.8) e
per le 10 maggiori(Grafico 4.9)
y = 1,4216x - 0,0165R² = 0,2244
0,0%
5,0%
10,0%
15,0%
20,0%
25,0%
0,0% 2,0% 4,0% 6,0% 8,0% 10,0% 12,0%
Ass
et-
No
rmal
Delta-Normal
Delta-Normal VS Asset-Normal:volatilità maggiore
Delta-Normal VS Asset-Normal
Lineare (Delta-Normal VS Asset-Normal)
169
Dalla scomposizione è immediato constatare che la volatilità del mercato gioca un ruolo
molto importante nella stima misurata con gli approcci Delta-Normal e Asset-Normal.
In particolare quando l‟indice manifesta maggiore volatilità la retta di regressione presenta
pendenza maggiore (1,4216) ma soprattutto un valore di 𝑅2 basso171
, a dimostrazione che
il modello Asset-Normal può generare stime maggiori rispetto al modello Delta-Normal.
Al contrario, quando la volatilità dell‟indice rimane bassa, i due modelli presentano stime
prossime, com‟è possibile verificare dalla retta di regressione172
.
Se ricordiamo che il modello Delta-Normal è misurato con riferimento alla deviazione
standard dell'indice, mentre il modello Asset-Normal determina la stima partendo dalla vo-
latilità dei titoli, l‟analisi fin qui svolta induce ad un altro risultato: se in momenti di eleva-
ta volatilità le stime Delta-Normal possono differire dalle stime Asset-Normal, allora si
può concludere che durante turbolenze nei corsi azionari i titoli potrebbero seguire anda-
menti differenti rispetto all‟indice di riferimento, come evidenziato nei grafici 4.9-4.11.
171
𝑅2, cioè l‟indice di determinazione individua la proporzione della volatilità di y (stime del modello Asset-
Normal) è spiegata dalla variabile x (stime del modello Delta-Normal).
In parole più semplici se l‟indice presenta valori prossimi ad uno vi è forte dipendenza tra i valori e i punti
sono concentrati sulla retta di regressione, se al contrario presenta valori vicini allo 0 il valore degli errori è
rilevante e i punti sono dispersi attorno alla retta 172
Se la retta di regressione si avvicina alla bisettrice principale 𝑦 = 𝑥 i valori stimati dai due modelli sono
perfettamente correlati e uguali.
Nel nostro caso il valore di pendenza (1,0058) e di intercetta (0,0025) si avvicinano a quelli della bisettrice
y = 1,0058x + 0,0025R² = 0,8863
0,0%
1,0%
2,0%
3,0%
4,0%
5,0%
6,0%
0,0% 1,0% 2,0% 3,0% 4,0% 5,0%
Ass
et-
No
rmal
Delta-Normal
Delta-Normal VS Asset-Normal:volatilità minore
Delta-Normal VS Asset-Normal
Lineare (Delta-Normal VS Asset-Normal)
170
Grafici 4.9-4.11: deviazione standard dell‟indice in relazione alla deviazione standard dei titoli componenti il portafoglio
172
4.2.2 Il VaR e la volatilità: i modelli EWMA e GARCH
Il principale vantaggio dei modelli a volatilità aggiornata, sia essa calcolata utilizzando un
modello a volatilità esponenziale EWMA o un modello GARCH, consiste nella capacità di
generare stime di massima perdita probabile che riflettano al meglio la volatilità dell'indice
(per modelli Delta-Normal) o dei titoli (per i modelli Asset-Normal).
Tali modelli diventano ancor più importanti se si considera che il test di White (Tabella
4.10) mostri che titoli selezionati violino l‟ipotesi nulla di omoschedasticità.
Di conseguenza, il fallimento del test di White porta alla conclusione che i rendimenti pre-
sentano un comportamento eteroschedastico (la volatilità dei titoli varia nel tempo), il che
rende ancor più determinante l‟utilizzo di modelli che assimilino tale mutamento, come
appunto i modelli EWMA e GARCH173
.
Tabella 4.10: test di White sulla serie storica totale per tutti I titoli del campione
ASSICURA-ZIONI GENE-
RALI ENEL ENI INTESA SP
AT-LANTIA
FIAT TELE-COM
UNICRE-DIT
Test White 243,67 217,19 297,37 107,95 159,98 63,51 44,10 121,88
p-value 1,23E-53 6,88E-48 0,00E+
00 0,00E+00
0,00E+00
0,00E+00
0,00E+00
0,00E+00
ALLIANZ BMW BAYER BASF
DAIM-LER
SAP SIE-
MENS VOL-
KSWAGEN
Test White 198,07 223,99 18,05 68,43 177,39 60,27 61,28 80,43
p-value 0 0 0,0001
2 0 0 0 0 0
AXA
BNPPA-RIBAS
SHNEI-DER
SOCIETÉ GÉNÉRALE
L’ORÉAL
LVMH SANO-
FI TOTAL
Test White 166,83 183,49 40,25 505,63 111,23 95,40 45,80 103,34
p-value 0 0 0 0 0 0 0 0
173
La presenza di eteroschedasticità ci porta ad un‟altra importante conclusione: gli stimatori OLS non sono
più adatti per definire una corretta retta di regressione, dovendo preferire altri stimatori, come ad esempio gli
OLS pesati.
Questo particolare, anche se di non poco conto, va oltre le competenze richieste per questo lavoro e pertanto
si continuerà ad usare gli stimatori OLS
173
Infatti, coerentemente con quanto previsto, in quest‟analisi i modelli a volatilità aggiornata
stimano valori di perdita tanto maggiori quanto maggiore è la volatilità di mercato (anche
questa volta espressa dalla volatilità dell'indice di riferimento).
La dimostrazione, come per quanto visto in precedenza, è osservabile nell‟elevata penden-
za delle rette di regressione.
y = 4,6615x - 0,0242R² = 0,9246
y = 4,4814x - 0,0141R² = 0,8399
y = 4,7616x - 0,0171R² = 0,8744
y = 4,7157x - 0,0161R² = 0,8761
y = 4,085x - 0,0144R² = 0,8829
0,00%
2,00%
4,00%
6,00%
8,00%
10,00%
12,00%
0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%
VaR
sti
mat
o
σ_FTSE MIB
VaR Delta_Normal EWMA(0,99) IT VaR Delta_Normal EWMA(0,97) IT
VaR Asset_Normal EWMA(0,99) IT VaR Asset_Normal EWMA(0,97) IT
VaR Delta_Normal GARCH IT Lineare (VaR Delta_Normal EWMA(0,99) IT)
Lineare (VaR Delta_Normal EWMA(0,97) IT) Lineare (VaR Asset_Normal EWMA(0,99) IT)
Lineare (VaR Asset_Normal EWMA(0,97) IT) Lineare (VaR Delta_Normal GARCH IT)
Grafici 4.12-4.14: grafico di dispersione e retta di regressione della relazione tra volatilità dell‟indice e valore di perdita stimato da
differenti modelli.I grafici concernono il portafoglio italiano (Grafico 4.10) il portafoglio Tedesco (Grafico 4.11) e il portafoglio
Francese (grafico 4.12)
174
y = 4,141x - 0,016R² = 0,871
y = 3,813x - 0,003R² = 0,797
y = 10,14x - 0,091R² = 0,514
y = 10,18x - 0,091R² = 0,515
y = 4,013x - 0,014R² = 0,856
0,00%
5,00%
10,00%
15,00%
20,00%
25,00%
30,00%
0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%
VaR
mo
de
llo
σ_DAX30
VaR Delta Normal EWMA(0,99) DE VaR Delta Normal EWMA(0,97) DEVaR Asset-Normal EWMA(0,99) DE VaR Asset-Normal EWMA(0,97) DEVaR Delta-Normal GARCH DE Lineare (VaR Delta Normal EWMA(0,99) DE)Lineare (VaR Delta Normal EWMA(0,97) DE) Lineare (VaR Asset-Normal EWMA(0,99) DE)Lineare (VaR Asset-Normal EWMA(0,97) DE) Lineare (VaR Delta-Normal GARCH DE)
y = 4,363x - 0,017R² = 0,843
y = 3,496x + 0,004R² = 0,672
y = 4,953x - 0,016R² = 0,860
y = 4,937x - 0,015R² = 0,865
y = 3,568x - 0,002R² = 0,683
0,0%
5,0%
10,0%
15,0%
0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%
VaR
re
lati
vo
σ_CAC40
VaR Delta Normal EWMA(0,99) FR VaR Delta Normal EWMA(0,97) FRVaR Asset-Normal EWMA(0,99) FR VaR Asset-Normal EWMA(0,97) FRVaR Delta-Normal GARCH FR Lineare (VaR Delta Normal EWMA(0,99) FR)Lineare (VaR Delta Normal EWMA(0,97) FR) Lineare (VaR Asset-Normal EWMA(0,99) FR)Lineare (VaR Asset-Normal EWMA(0,97) FR) Lineare (VaR Delta-Normal GARCH FR)
175
Focalizzando l‟attenzione su questo particolare, è possibile compiere alcune osservazioni.
Innanzitutto è importante verificare il comportamento di un modello che utilizza la volatili-
tà stimata con modelli GARCH.
Infatti, l‟utilizzo del GARCH dovrebbe portare a stime che meglio riflettono l‟aumento di
volatilità rispetto ad approcci che stimano la volatilità in maniera più approssimativa, come
i modelli EWMA.
Tuttavia, come precedenti prove empiriche hanno già dimostrato, è possibile osservare che
la stima non porta vantaggi significativi rispetto alla volatilità esponenziale, anzi, in alcuni
casi, la perdita stimata per mezzo del GARCH risulta inferiore alla corrispettiva misurata
con modelli EWMA.
Al contrario, focalizzando l‟attenzione sui modelli Asset-Normal, è evidente che essi pre-
sentino generalmente valori più alti di perdita all‟aumentare della volatilità dell‟indice,
come dimostra la maggiore pendenza della retta di regressione.
La spiegazione, come visto a titolo di esempio nei Grafici 4.9-4.11, sta nell‟elevata volati-
lità dei titoli del portafoglio, che in periodi di shock manifestano comportamenti che non
sempre si avvicinano al comportamento dell‟indice.
In questo senso, un caso emblematico, ma anche eccezionale174
è rappresentato dai diversi
portafogli durante lo shock Lehman Brothers.
Nei tre intervalli di analisi, il modello Asset-Normal EWMA calcola valori di perdita di-
scordanti per i portafogli, nonostante i tre mercati175
si muovano pressoché sempre
all‟unisono.
Più precisamente, i grafici 4.15-4.17 mostrano come il modello Asset-Normal EWMA pre-
senti stime incredibilmente elevate, nell‟ordine del 25%, e fortemente disuguali rispetto al-
le stime calcolate con altri approcci.
174
Il caso si presenta eccezionale in quanto i titoli raggiungono livelli di deviazione standard importanti, dal
4% fino all‟11% per tutti i portafogli 175
Ancora una volta si è assunto che l‟andamento del mercato sia ben approssimato dall‟andamento
dell‟indice
176
0,00%
10,00%
20,00%
30,00%VaR Delta-Normal EWMA(0,99)
VaR Delta-Normal EWMA(0,97)
VaR Asset-Normal EWMA(0,99) VaR Asset-Normal EWMA(0,97)
VaR Delta-Normal GARCH
S4 06/03/2009 -1M
Portafoglio Italiano
Portafoglio Tedesco
Portafoglio Francese
0,00%
5,00%
10,00%
15,00%
20,00%
VaR Delta-Normal EWMA(0,99)
VaR Delta-Normal EWMA(0,97)
VaR Asset-Normal EWMA(0,99)
VaR Asset-Normal EWMA(0,97)
VaR Delta-Normal GARCH
S4 06/03/2009 +2M
Portafoglio Italiano
Portafoglio Tedesco
Portafoglio Francese
Grafici 4.15-4.17: stima della perdita per i modelli “a volatilità aggiornata” e per i tre portafogli durante lo Shock Lehman .
177
La spiegazione, come accennato precedentemente, è da attribuirsi al comportamento dei
titoli durante le turbolenza di mercato.
Come dimostra il grafico 4.18, e più in dettaglio il grafico 4.19, l‟indice riesce a esprimere
la volatilità del mercato solo in parte, posto che i titoli in portafoglio presentano volatilità
molto maggiori dell‟indice stesso.
0,00%
5,00%
10,00%
15,00%
20,00%
25,00%
VaR Delta-Normal EWMA(0,99)
VaR Delta-Normal EWMA(0,97)
VaR Asset-Normal EWMA(0,99)
VaR Asset-Normal EWMA(0,97)
VaR Delta-Normal GARCH
S4 06/03/2009 +1M
Portafoglio Italiano
Portafoglio Tedesco
Portafoglio Francese
178
Grafico 4.18: serie storica annuale dei rendimenti dei titoli tedeschi dal maggio ‟08 al maggio ‟09 (shock Lehman)
Grafico 4.17: dettaglio dello shock Lehman, come si può notare la volatilità dell‟indice spiega solo in parte la volatilità
dei titoli
179
In questi casi, il modello Delta-Normal EWMA può fornire stime che sottovalutino il ri-
schio effettivo del portafogli.
Si consideri ora il modello Delta-Normal EWMA nelle sue due versioni: il modello E-
WMA con velocità di decadimento pari a 0,01 e il modello con velocità di decadimento pa-
ri a 0,03.
In virtù di quanto visto, il fattore di decadimento pesa in misura più o meno maggiore i
rendimenti più recenti a fronte di quelli meno recenti.
In sostanza, il modello EWMA (0,97) dovrebbe offrire stime superiori se i rendimenti si
dimostrano particolarmente volatili nel breve periodo, mentre al contrario il modello E-
WMA (0,99) restituisce stime maggiori se la volatilità si è manifestata in misura maggiore
in periodi meno recenti.
La prova di questa teoria è fornita dall‟interessante caso fornito dal portafogli francese, du-
rante lo shock dei mutui subprime.
Nel periodo tra il 17 gennaio 2008 e i primi di febbraio dello stesso anno, l‟indice CAC40
manifesta livelli di volatilità rilevanti, che non si verificheranno nei periodi successivi.
Considerare la stima in periodi prossimi allo shock (un mese prima, un mese dopo e due
mesi dopo) consente di osservare questo shock di volatilità su un holding period annuale,
ma in intervalli di tempo differenti e di conseguenza la stima attribuirà maggiore o minore
peso a tale shock.
Come‟è possibile notare nella prima stima lo shock si manifesta recentemente, e questo fa
si che il modello EWMA (0,97) presenti un risultato maggiore rispetto all‟EWMA(0,99).
Nondimeno, l‟analisi delle stime successive comporta lo spostamento di questo shock ver-
so periodi più lontani.
Il modello EWMA(0,99) pone maggior peso a queste osservazioni rispetto al modello
EWMA (0,97) non a caso la forbice tra i due modelli si assottiglia nella seconda stima,
mentre nell‟ultima il primo genera risultati maggiori del secondo (Grafici 4.18- 4.21).
180
Grafici 4.18-4.20: volatilità dei rendimenti del CAC40 misurata su orizzonte annuale un mese prima dello shock (Grafi-
co 4.13) un mese dopo (Grafico 4.14) e due mesi dopo (Grafico 4.15)
-8,00%
-6,00%
-4,00%
-2,00%
0,00%
2,00%
4,00%
6,00%
8,00%
Rendimenti CAC40febbraio '07-febbraio '08
Rendimenti CAC40EWMA (0,99): 5,34%EWMA (0,97): 6,69%
-8,00%
-6,00%
-4,00%
-2,00%
0,00%
2,00%
4,00%
6,00%
8,00%
Rendimenti CAC40aprile '07-aprile'08 Rendimenti CAC40
EWMA (0,99): 5,28%EWMA (0,97): 5,56%
181
La tabella 4.11 e il grafico 4.21 consentono di approfondire l‟analisi, mostrando il peso
fornito alle osservazioni shock per i tre periodi e i due modelli.
-8,00%
-6,00%
-4,00%
-2,00%
0,00%
2,00%
4,00%
6,00%
8,00%
Rendimenti CAC40maggio '07-maggio'08
Rendimenti CAC40EWMA (0,99): 4,86%EWMA (0,97): 4,51%
182
A conferma di quanto detto, è possibile notare come il peso fornito alle osservazioni shock
decade molto più velocemente nel modello EWMA (0,97) rispetto al modello EWMA
(0.99), fornendoci stime via via sempre minori.
Tabella 4.11: peso assegnato alle osservazioni shock da parte dei due modelli
S3) -1M S3) +1M S3) +2M
EWMA(0,99) EWMA(0,97) EWMA(0,99) EWMA(0,97) EWMA(0,99) EWMA(0,97)
21/01/2008 81,0% 52,7% 52,0% 13,8% 43,0% 7,7%
22/01/2008 81,8% 54,4% 52,6% 14,2% 43,4% 8,0%
23/01/2008 82,6% 56,1% 53,1% 14,7% 43,9% 8,2%
24/01/2008 83,5% 57,8% 53,6% 15,1% 44,3% 8,5%
25/01/2008 84,3% 59,6% 54,2% 15,6% 44,8% 8,7%
28/01/2008 85,1% 61,4% 54,7% 16,1% 45,2% 9,0%
29/01/2008 86,0% 63,3% 55,3% 16,6% 45,7% 9,3%
30/01/2008 86,9% 65,3% 55,8% 17,1% 46,1% 9,6%
31/01/2008 87,8% 67,3% 56,4% 17,6% 46,6% 9,9%
01/02/2008 88,6% 69,4% 57,0% 18,2% 47,1% 10,2%
04/02/2008 89,5% 71,5% 57,5% 18,7% 47,5% 10,5%
05/02/2008 90,4% 73,7% 58,1% 19,3% 48,0% 10,8%
06/02/2008 91,4% 76,0% 58,7% 19,9% 48,5% 11,2%
07/02/2008 92,3% 78,4% 59,3% 20,5% 49,0% 11,5%
08/02/2008 93,2% 80,8% 59,9% 21,2% 49,5% 11,9%
11/02/2008 94,1% 83,3% 60,5% 21,8% 50,0% 12,2%
12/02/2008 95,1% 85,9% 61,1% 22,5% 50,5% 12,6%
183
Grafico 4.21: peso assegnato alle osservazioni shock nei diversi modelli e durante i diversi periodi
Ai fini del nostro studio e da quanto visto finora, sarebbe immediato pensare che i due mo-
delli presentano sempre una relazione inversamente proporzionale al trascorrere del tempo,
in cui il modello EWMA(0,97) è maggiore quando stimato in un momento immediatamen-
te successivo allo shock, scemando nel tempo e divenendo minore all‟EWMA(0,99) quan-
do la stima “scorre” nel tempo.
Questo assunto è in parte vero: teoricamente è credibile l‟ipotesi di “debolezza” di modelli
con maggior fattore di decadimento quanto più ci si allontana dalle osservazioni critiche,
ma nella pratica l‟ipotesi richiede un‟analisi caso per caso.
Infatti il Grafico 4.3 mostra come periodi ad alta volatilità si manifestano per lassi di tempo
prolungati, a differenza di quanto osservato in questo caso, e quindi generalmente il model-
lo EWMA(0,97) potrebbe prestarsi meglio a catturare ampi fenomeni di volatilità all'epi-
centro del fenomeno di shock.
In conclusione, la scelta del decay factor impone l‟analisi preventiva del periodo in cui si
realizza la valutazione, ma in termini generali è possibile affermare che il caso di studio di
cui sopra, in cui lo shock dei rendimenti è rilevante e breve allo stesso tempo, rappresenti
un caso particolare e che dunque la stima della perdita in periodi prossimi ad uno shock
dovrebbero essere misurati adoperando un modello a minor decay factor.
0,00%
10,00%
20,00%
30,00%
40,00%
50,00%
60,00%
70,00%
80,00%
90,00%
100,00%
21
/01
/20
08
22
/01
/20
08
23
/01
/20
08
24
/01
/20
08
25
/01
/20
08
26
/01
/20
08
27
/01
/20
08
28
/01
/20
08
29
/01
/20
08
30
/01
/20
08
31
/01
/20
08
01
/02
/20
08
02
/02
/20
08
03
/02
/20
08
04
/02
/20
08
05
/02
/20
08
06
/02
/20
08
07
/02
/20
08
08
/02
/20
08
09
/02
/20
08
10
/02
/20
08
11
/02
/20
08
12
/02
/20
08
EWMA(0,99) -1M EWMA(0,97) -1M EWMA(0,99) +1M
EWMA(0,97) +1M EWMA(0,99) +2M EWMA(0,97) +2M
184
4.2.3 Simulazioni Storiche
I due approcci di Simulazioni Storiche sono stati costruiti su due fattori di rischio, il mo-
dello “risk factor” stima il valore di perdita a partire dalla serie storica dell‟indice, analo-
gamente a quanto svolto per i modelli Delta-Normal, il modello “per titoli” misura la stima
partendo direttamente dalla distribuzione dei rendimenti dei titoli, costruendo una serie sto-
rica dei rendimenti del portafoglio definita in proporzione al peso dei titoli sul valore di
mercato totale del portafoglio.
L‟analisi svolta in questo lavoro mostra come i modelli di simulazione storica si mostrino
inadeguati a misurare un livello di perdita che rappresenti una proxy del vero livello di ri-
schio di mercato.
Se ai fini di questa analisi ci si limita a considerare corretto un modello che presenta un va-
lore della stima elevato, è possibile notare come entrambi i modelli falliscano la prova,
manifestando stime in generale più basse rispetto ai modelli Varianze-Covarianze.
Coerentemente ad una comparazione basata sul fattore di rischio, il modello di Simulazioni
Storiche “per indice” viene confrontato con modelli Delta-Normal, mentre il modello di
Simulazioni Storiche “per titoli” viene confrontato con modelli Asset-Normal.
La tabella 4.12 mostra un confronto tra i modelli a Simulazioni Storiche e Varianze-
Covarianze
Tabella 4.12: approccio delle e Varianze-Covarianze, percentuale di casi in cui la stima calcolata con l‟ausilio delle Si-
mulazioni Storiche è maggiore di quella calcolata utilizzando il modello Varianze-Covarianze
Portafoglio IT Portagolio DE Portafoglio FR
Simulazione Storica "titoli"
Asset-Normal 33,3% 20% 20,0%
AssetNormal EWMA(0,99) 0,0% 0% 0,0%
AssetNormal EWMA(0,97) 0,0% 0% 0,0%
Simulazione Storica "risk factor"
DeltaNormal 53,3% 20% 20,0%
DeltaNormal EWMA(0,99) 6,7% 7% 6,7%
DeltaNormal EWMA(0,97) 13,3% 13% 6,7%
DeltaNormal GARCH 13,3% 20% 6,7%
185
Per di più, i modelli a Simulazione Storica presentano una reazione all‟aumento di volatili-
tà più bassa rispetto ai corrispettivi modelli EWMA o GARCH, come dimostrato nei grafi-
ci 4.18-4.20, in cui la retta di regressione presenta valori di pendenza inferiori rispetto agli
altri modelli discussi (Grafici 4.22,4.23 e 4.24).
Grafico 4.22-4.24: VaR stimato con l‟approccio delle Simulazioni storiche in relazione alla deviazione standard
dell‟indice di riferimento
y = 1,538x + 0,020R² = 0,609
y = 2,157x + 0,007R² = 0,804
0,00%
1,00%
2,00%
3,00%
4,00%
5,00%
6,00%
7,00%
0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%
VaR
σ_DAX30
SS"titoli"
SS"RiskFactor"
Lineare (SS"titoli")
Lineare (SS"RiskFactor")
y = 2,402x + 0,004R² = 0,761
y = 2,3767x + 0,0044R² = 0,9205
0,0%
1,0%
2,0%
3,0%
4,0%
5,0%
6,0%
7,0%
8,0%
0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00%
VaR
σ_FTSE
SS"titoli"
SS"RiskFactor"
Lineare (SS"titoli")Lineare (SS"RiskFactor")
186
Il modello ibrido rappresenta un caso a sé.
Se la sua creazione aveva l‟obiettivo di definire un modello che combinasse i vantaggi di
Varianze-Covarianze e Simulazioni Storiche, il risultato in questa analisi è la creazione di
un approccio che fornisce stime incorrelate agli altri approcci e al generale andamento di
mercato.
La tabella 4.13 mostra come il confronto con altri modelli presenta fluttuazioni anche no-
tevoli a seconda dello shock osservato, ma ancora più rilevante è notare come le fluttua-
zioni più marcate si osservano nei confronti di modelli che compiono stime della volatilità
più attendibili, come i modelli EWMA.
Se quindi, l‟intento dell‟approccio ibrido è di creare un modello di Simulazioni Storiche
che incorpori la volatilità del periodo di stima, questo studio dimostra che tale approccio
non segue l‟andamento di altri approcci analoghi, come appunto gli EWMA.
y = 2,314x + 0,008R² = 0,862
y = 2,426x + 0,001R² = 0,904
0,00%
1,00%
2,00%
3,00%
4,00%
5,00%
6,00%
7,00%
8,00%
0,0% 0,5% 1,0% 1,5% 2,0% 2,5% 3,0%
VaR
σ_CAC40
SS"titoli"
SS"RiskFactor"
Lineare (SS"titoli")
Lineare (SS"RiskFactor")
187
Grafico 4.25-4.27: stime realizzate con differenti approcci per il portafogli italiano, durante lo shock dell‟attentato al
WTC, durante lo scoppio della bolla di Internet e durante la crisi dei subprime
0,00%
2,00%
4,00%
6,00%
8,00%
10,00%
21/09/2001 -1M 21/09/2001 +1M 21/09/2001 +2M
0,00%1,00%2,00%3,00%4,00%5,00%6,00%7,00%
09/10/2002 -1M 09/10/2002 +1M 09/10/2002 +2M
0,0%
1,0%
2,0%
3,0%
4,0%
5,0%
6,0%
20/03/2008 -1M 20/03/2008 +1M 20/03/2008 +2M
188
Tabella 4.13: differenze di stima tra il modello ibrido e gli altri approcci. Le celle seguono la seguente formattazione:
giallo se la differenza è maggiore del 2%, verde se compresa tra 1% e 2%, bianca se compresa tra 1% e -1%, blu se com-
presa tra -1% e- 2%, rossa se maggiore di -2%
VaR HA (0,99) IT VaR HA (0,99) DE VaR HA (0,99) FR
Shock 1 -1M +1M +2M -1M +1M +2M -1M +1M +2M
VaR Delta-Normal 0,11% 2,83% 2,55% 0,59% 3,11% 2,55% 0,38% 2,00% 1,49%
VaR Asset-Normal -0,23% 2,43% 2,17% 0,03% 2,61% 2,08% -0,20% 1,54% 1,09%
VaR Delta-Normal EWMA(0,99) 0,31% 1,85% 1,76% 0,82% 2,57% 2,07% 0,57% 1,62% 1,13%
VaR Delta-Normal EWMA(0,97) 0,51% 0,06% 0,67% 0,92% 1,42% 1,27% 0,61% 0,68% 0,44%
VaR Asset-Normal EWMA(0,99) -1,01% 0,19% 0,24% -0,66% 0,94% 0,60% -0,89% 0,16% -0,20%
VaR Asset-Normal EWMA(0,97) -0,93% 0,09% 0,14% -0,63% 0,84% 0,47% -0,93% 0,09% -0,26%
VaR SS (261 gg) "titoli" 0,03% 2,17% 1,72% 0,55% 2,64% 2,27% 0,17% 0,79% 0,42%
VaR SS (261 gg) "risk factor" -0,13% 2,81% 2,69% 0,60% 3,77% 3,39% 0,15% 1,90% 1,61%
VaR Delta-Normal GARCH 0,35% 1,63% 2,01% 0,94% 2,42% 2,38% 0,57% 1,63% 1,33%
Shock 2 -1M +1M +2M -1M +1M +2M -1M +1M +2M
VaR Delta-Normal -0,82% -0,04% -0,12% 0,52% -0,12% -0,19% 0,46% -0,17% -0,25%
VaR Asset-Normal -1,00% -0,22% -0,29% 0,05% -0,61% -0,68% 0,23% -0,39% -0,47%
VaR Delta-Normal EWMA(0,99) -0,56% -0,70% -0,59% -0,01% -1,34% -1,05% -0,18% -1,26% -0,97%
VaR Delta-Normal EWMA(0,97) -1,43% -1,66% -0,97% -1,50% -2,83% -1,59% -1,64% -2,43% -1,19%
VaR Asset-Normal EWMA(0,99) -0,98% -1,59% -1,51% -0,65% -2,56% -2,21% -0,91% -2,06% -1,71%
VaR Asset-Normal EWMA(0,97) -1,09% -1,65% -1,50% -0,74% -2,56% -2,22% -0,99% -2,14% -1,73%
VaR SS (261 gg) "titoli" -0,08% 0,93% 0,79% 0,03% 1,08% 0,96% 0,28% 0,48% 0,46%
VaR SS (261 gg) "risk factor" -0,28% 0,80% 0,65% 0,71% 1,22% 1,13% 0,94% 1,07% 1,07%
VaR Delta-Normal GARCH -0,77% -0,92% -0,40% -0,43% -1,82% -0,70% -0,53% -1,48% -0,62%
Shock 3 -1M +1M +2M -1M +1M +2M -1M +1M +2M
VaR Delta-Normal 2,5% 1,4% 1,1% 3,2% 1,7% 1,1% 2,9% 0,75% 0,1%
VaR Asset-Normal 2,4% 1,3% 1,0% 2,7% 1,2% 0,6% 2,7% 0,54% -0,1%
VaR Delta-Normal EWMA(0,99) 2,2% 1,1% 1,0% 2,7% 1,4% 1,0% 2,2% 0,39% 0,1%
VaR Delta-Normal EWMA(0,97) 1,5% 0,7% 1,1% 1,5% 1,0% 1,2% 0,8% 0,12% 0,4%
VaR Asset-Normal EWMA(0,99) 1,5% 0,4% 0,3% 1,6% 0,3% 0,0% 1,3% -0,63% -0,9%
VaR Asset-Normal EWMA(0,97) 1,4% 0,4% 0,3% 1,5% 0,3% 0,0% 1,3% -0,63% -0,8%
VaR SS (261 gg) "titoli" 2,4% 1,6% 1,3% 3,2% 1,9% 1,3% 4,1% 1,28% 0,6%
VaR SS (261 gg) "risk factor" 2,3% 1,4% 1,0% 3,8% 1,9% 1,2% 4,3% 2,17% 1,4%
VaR Delta-Normal GARCH 2,2% 0,7% 1,2% 2,4% 0,7% 1,3% 1,9% -0,11% 0,5%
189
Il risultato è visibile anche studiando il grafico di dispersione per i tre portafogli (Grafico
4.28-4.30), in relazione alla deviazione standard della distribuzione di rendimenti del por-
tafoglio.
Il portafoglio tedesco testimonia l‟inefficienza del modello ibrido in quest‟analisi, da un
lato il coefficiente di determinazione risulta molto basso, segno che in teoria è possibile ot-
tenere stime diverse, anche con la medesima volatilità; dall‟altro, la retta presenta penden-
za negativa (anche se di poco), dimostrando come l‟aumento della volatilità comporti per-
fino la riduzione della stima.
Grafico 2.8-4.30: grafico di dispersione tra la deviazione standard della distribuzione aggregata dei rendimenti e il VaR
stimato con approccio ibrido
y = 1,506x + 0,032R² = 0,280
0,0%1,0%2,0%3,0%4,0%5,0%6,0%7,0%8,0%9,0%
0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00%
VaR
σ_Distr.Rend (ITA)
HA
Lineare (HA)
y = -0,037x + 0,065R² = 0,000
0,0%
2,0%
4,0%
6,0%
8,0%
10,0%
0,00% 1,00% 2,00% 3,00% 4,00% 5,00%
VaR
σ_Distr.Rend (GER)
HA
Lineare (HA)
190
y = 1,009x + 0,041R² = 0,299
0,0%
2,0%
4,0%
6,0%
8,0%
10,0%
0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00% 3,50%
VaR
σ_Distr.Rend (FRA)
HA
Lineare (HA)
191
4.3 Lo studio dei risultati ottenuti: le anomalie dei modelli Value at Risk
Nel Capitolo 1 è stata fornita una delucidazione sui principali difetti derivanti dai modelli
VaR.
Lo studio empirico svolto, consente di studiare più approfonditamente quanto discusso
dapprima, potendo confermare o confutare attraverso un riscontro reale quanto specificato.
- I modelli VaR forniscono risultati inesatti
La critica svolta da numerosi autori, come Beder176
o Jordan e Mackay, specifica che
spesso tali approcci forniscono output fortemente divergenti a seconda del modello
optato.
È ovvio che , se la critica fosse veritiera, le stime fornite dall‟approccio VaR sareb-
bero inaffidabili, posto che nella realtà una misura di rischio parsimoniosa dovrebbe
fornire lo stesso valore di perdita (o quantomeno valori di perdita prossimi) a pre-
scindere dalla misura utilizzata.
La tabella 4.14 mostra come, limitatamente alla ricerca svolta, gli output forniti dai
differenti approcci esibiscono uno scostamento rilevante tra la stima maggiore e
quella minore, che nel 64% dei casi è compreso tra il 2% e il 5% (in giallo), mentre
nel 13% dei casi è addirittura superiore al 5% (in rosso).
In accordo con Beder (1995), è possibile affermare che questo risultato è figlio delle
differenti assunzioni che stanno dietro gli approcci utilizzati.
In particolare, è stato possibile constatare che le principali differenze scaturiscono tra
modelli EWMA e GARCH, più reattivi alla deviazione standard del risk-factor, e
modelli si simulazione, che invece hanno fornito risultati distorti, perlopiù a causa
dell‟ipotesi di base, e cioè che il valori passati siano buoni predittori dei valori futuri,
ipotesi che, in momenti shock come quelli studiati, è difficilmente accettabile.
176
T.Beder, VaR: seductive but dangerous; Association of investment management and Research; 1995
192
Tabella 4.14: valore minimo e Massimo di stima per tutti i periodi e i portafogli. La stima è marcata verde se minore del
2%, gialla se compresa tra il 2% e il 5% e rossa se maggiore del 5%
S1
-1M +1M +2M
Max Min Diff Max Min Diff Max Min Diff
Portafoglio ITA 3,6% 2,1% 1,5% 7,8% 4,9% 2,8% 7,7% 5,0% 2,7%
Portafoglio GER 4,7% 3,1% 1,6% 7,9% 4,2% 3,8% 7,6% 4,2% 3,4%
Portafoglio FRA 4,1% 2,6% 1,5% 5,9% 3,9% 2,0% 5,8% 4,0% 1,9%
S2
-1M +1M +2M
Max Min Diff Max Min Diff Max Min Diff
Portafoglio ITA 6,1% 4,7% 1,4% 6,6% 4,0% 2,6% 6,3% 4,0% 2,3%
Portafoglio GER 7,9% 5,7% 2,2% 9,3% 5,3% 4,1% 8,6% 5,3% 3,3%
Portafoglio FRA 7,8% 5,2% 2,6% 8,7% 5,2% 3,5% 8,0% 5,2% 2,8%
S3
-1M +1M +2M
Max Min Diff Max Min Diff Max Min Diff
Portafoglio ITA 5,5% 3,0% 2,5% 4,7% 3,1% 1,6% 4,4% 3,1% 1,3%
Portafoglio GER 6,8% 3,0% 3,8% 5,2% 3,3% 1,9% 4,6% 3,2% 1,4%
Portafoglio FRA 7,5% 3,3% 4,3% 6,3% 3,5% 2,8% 5,8% 3,5% 2,3%
S4
-1M +1M +2M
Max Min Diff Max Min Diff Max Min Diff
Portafoglio ITA 10,8% 6,3% 4,6% 11,2% 6,4% 4,8% 10,5% 6,5% 4,0%
Portafoglio GER 27,0% 5,5% 21,4% 22,5% 5,4% 17,1% 19,9% 5,3% 14,6%
Portafoglio FRA 12,6% 6,4% 6,2% 11,9% 6,4% 5,5% 11,3% 6,4% 5,0%
193
S5
-1M +1M +2M
Max Min Diff Max Min Diff Max Min Diff
Portafoglio ITA 7,6% 3,6% 4,0% 7,4% 4,9% 2,5% 7,4% 5,0% 2,4%
Portafoglio GER 8,5% 3,1% 5,4% 7,5% 4,1% 3,4% 6,9% 4,4% 2,6%
Portafoglio FRA 6,6% 2,7% 3,9% 7,7% 4,7% 2,9% 7,2% 4,6% 2,5%
- Mancata sub additività
Tra i principali difetti del VaR, che teoricamente ne farebbero una misura non utiliz-
zabile nel contesto di risk management e che hanno spinto alla definizione di altre
misure quali l‟Expected Shortfall, si ricorda la mancata sub additività.
Ricordando quanto descritto sopra177
, il VaR potrebbe considerarsi una misura su-
badditiva se:
𝑉𝑎𝑅 𝑥 + 𝑉𝑎𝑅 𝑦 < 𝑉𝑎𝑅(𝑥 + 𝑦)
Dove 𝑥 e 𝑦 sono due generiche posizioni di rischio.
Nella realtà, la mancata sub-additività del VaR è un‟ipotesi remota, e che all‟interno
dello stesso modello è possibile verificare solo per i modelli di simulazioni storiche,
considerando che nei modelli Delta-Normal il VaR di portafoglio è sempre uguale al-
la somma del VaR dei titoli, mentre nei modelli Asset-Normal la correlazione è sem-
pre minore di 1, il che rende il VaR del portafogli sempre minore del VaR “somma”.
La Tabella 4.15 mostra il confronto tra la somma dei VaR e il VaR di portafoglio,
per un campione di portafogli random.
A dimostrazione di quanto descritto poc‟anzi, cioè che la violazione della subadditi-
vità è un‟ipotesi remota, come è possibile constatare, nessuna stima viola tale assunto
177
Si veda Capitolo 1 e Capitolo 3
194
Tabella 4.15: confronto tra il VaR di portafoglio e la somma dei VaR dei singoli titoli per un campione random
ITA S1) -1M ITA S3)+1M ITA S5)+2M GER S2) +1M GER S5) +2M FRA S4) -1M FRA S3) +2M
SS
𝑉𝑎𝑅𝑖8
𝑖=1 € 115.046,13 € 109.264,01 € 76.977,19 € 59.934,97 € 85.423,60 € 105.035,21 € 90.633,04
𝑉𝑎𝑅𝑝𝑜𝑟𝑡𝑎𝑓 . € 71.702,48 € 81.272,32 € 65.331,56 € 47.946,61 € 75.679,00 € 81.422,20 € 86.561,55
HA
𝑉𝑎𝑅𝑖8
𝑖=1 € 180.927,20 € 136.124,61 € 94.749,59 € 71.030,26 € 114.147,81 € 129.618,90 € 127.571,58
𝑉𝑎𝑅𝑝𝑜𝑟𝑡𝑎𝑓 . € 72.490,06 € 123.345,15 € 87.649,32 € 57.474,14 € 109.248,07 € 96.494,36 € 98.517,13
197
- “Il VaR viene sempre in ritardo quando il danno è già fatto”
In un‟ottica superficiale, in precedenza si è affermato come l‟approccio VaR possa
trovare difficile implicazioni pratiche, in quanto esso è passibile di fornire una mi-
sura di perdita alta, che rifletta uno shock in corso, solo quando il fenomeno è pas-
sato, rivelandosi quindi inutile per un‟azione preventiva di allocazione del capitale.
La risposta a questa critica è stata ampliamente discussa nel Paragrafo 4.2, potendo
constatare che tale critica è solo in parte vera.
Infatti, se da un lato gli approcci di simulazione storica e gli approcci Delta-Normal
e Asset-Normal si sono dimostrati meno reattivi all‟aumento di volatilità del merca-
to, dall‟altro gli approcci “eteroschedastici” EWMA e GARCH hanno ampliamente
dimostrato la loro efficienza proprio in periodi di turbolenza.
198
4.4 Risultato dello studio
L‟obiettivo del presente lavoro è quello di individuare un modello che possa svolgere in
modo ottimale il compito di stima della massima perdita possibile durante periodi di cri-
si.
Al fine di compiere uno studio il più possibile esaustivo, l‟analisi si è focalizzata su più
periodi di crisi e su più portafogli.
Nondimeno, e come probabilmente ci si aspettava, la scelta del modello ottimo non può
dirsi definitiva e certa, ma senza alcun dubbio si possono individuare modelli che più di
altri hanno prodotto una stima alta, ma soprattutto sensibile all‟andamento del mercato.
Innanzitutto in questo studio è stato possibile constatare come alcuni “bug”
dell‟approccio Value at Risk sono in parte giustificabili, potendo verificare e in alcuni
casi motivare tali fenomeni
Focalizzando l‟attenzione sui modelli, si è appurato che i modelli Varianze-Covarianze
hanno avuto un ruolo fondamentale nell‟analisi, grazie anche alla semplice ma impor-
tante introduzione del percentile “modificato” che attenua il principale difetto di tali ap-
procci: l‟imposizione della distribuzione gaussiana dei rendimenti.
Tra gli approcci Varianze-Covarianze è stato possibile constatare che sia per i modelli a
volatilità storica che per i modelli EWMA/GARCH in periodi di forti turbolenze
l‟indice segue un andamento meno volatile dei titoli di mercato, e di conseguenza in
questi casi la stima di perdita basata sul risk factor appare avventata.
In linea con quanto esplicitato nel Capitolo 2, se i modelli EWMA si sono presentati più
precisi dei corrispettivi con volatilità “storica”, perlopiù a causa dell‟elevata eterosche-
dasticità presente nei dati, rimane ancora aperto il problema della scelta del decay fac-
tor.
Da quanto visto, è possibile azzardare che la scelta di decay factor più bassi risulti mag-
giore in momenti di shock, in cui la turbolenza nel breve periodo risulta maggiore della
turbolenza a lungo.
199
Procedendo con lo studio, i risultati delle Simulazioni Storiche sono apparsi mediocri,
mantenendo la stima pressoché invariata al variare della deviazione standard, probabil-
mente a causa dell‟approccio troppo semplicistico nella stima dei risultati.
Sulla stessa linea, la stima dell‟approccio ibrido, in cui il tentativo di creare un modello
che valuti la deviazione standard, naufraga in stime influenzate dal ranking di singole
osservazioni, e che quindi non tengono conto del generale andamento del mercato, pro-
ducendo misure eccessivamente prudenziali, o eccessivamente basse.
200
CONCLUSIONI
Dall‟analisi svolta in questo lavoro, in cui si è cercato di offrire una panoramica più am-
pia possibile dell‟approccio VaR, si desume un‟importante considerazione: la metodo-
logia Value at Risk ha avuto un impatto importante all‟interno degli intermediari finan-
ziari, divenendo de facto lo standard per la misurazione del rischio di mercato e trovan-
do vasta diffusione della letteratura accademica.
A questo punto, preso quindi atto del boom conosciuto dal VaR negli ultimi decenni,
occorre mettere in guardia sulle conseguenze dannose dello stesso e di qualunque gene-
rico modello di misurazione del rischio.
Come più volte specificato, il VaR rappresenta sostanzialmente un numero, che incor-
pora l‟esposizione a una o più posizioni di rischio. Da questo, è possibile trarre due con-
clusioni: innanzitutto, essendo racchiuso in una semplice formula, il VaR non é garanzia
di congruenza e correttezza.
In secondo luogo, come più volte specificato, il VaR non serve a combattere né ad an-
nullare i rischi, ma al limite è in grado di indicare la massima esposizione ad essi.
Da quanto detto sinora, si desume quindi che i modelli non riescono da soli a catturare
una pluralità di elementi, che invece insistono sull‟operatività dell‟intermediario, come
ad esempio il contesto in cui il Value at Risk è stimato o le variabili esogene che influi-
scono.
L‟intervento dell‟uomo appare, quindi, condizione necessaria per l‟utilizzo del VaR.
In questo senso, la valutazione dello specialista, come visto nel secondo capitolo, divie-
ne fondamentale già nella fase iniziale, per quanto concerne i fattori riguardanti le ipote-
si alla base dei modelli, come la normalità storica dei dati, la scelta del decay factor o la
lunghezza della base storica.
201
Ancora, la scelta del modello non esaurisce i compiti dell‟analista: come si è implicita-
mente specificato nel quarto capitolo, il fattore umano diventa importante nella capacità
di interpretare il risultato e in alcuni casi, anche di rivederlo.
Non a caso, sempre più spesso, le stime VaR sono accompagnate da simulazioni e ana-
lisi di scenario e analisi di stress, nelle quali le variabili di mercato non sono evinte dai
parametri statistici, ma definite in base ad aspettative soggettive.
La conclusione di questo lavoro e di quanto detto sopra, è lasciata a Philippe Jorion, uno
dei massimi esperti al mondo di risk management, il quale in poche righe è riuscito a ri-
assumere la vera essenza dell‟approccio VaR:
“il più grande vantaggio del VaR risiede nell‟imposizione di una metodologia impostata
per riflettere criticamente sul rischio. Le Istituzioni che passano attraverso il processo di
stima del VaR sono costrette a confrontarsi con la loro esposizione ai rischi finanziari e
a definire una vera e propria funzione di risk management.
Così, il processo di stima del VaR può divenire importante quanto il numero stesso”.
202
Appendice A
Il calcolo del VaR di portafoglio nell‟approccio
Varianze-Covarianze
È stato visto come il calcolo del VaR di un titolo parta dalla volatilità dello stesso, mol-
tiplicata per il percentile associato al livello di confidenza scelto e al valore di mercato,
dalla (2.3):
𝑉𝑎𝑅 = 𝑊0|𝑧𝛼 |𝜍
ma come calcolare il VaR di un portafoglio di titoli?
Si indica con wi la variazione percentuale del rendimento178
di un i-esimo generico tito-
lo:
𝑊1 −𝑊0
𝑊0=∆𝑊
𝑊= ∆𝑤𝑖
Similmente a quanto visto per il singolo titolo, anche il VaR di portafoglio sarà calcola-
to come
(A.1) 𝑉𝑎𝑅𝑁 = 𝑧𝛼 × 𝜍𝑊𝑁
Come calcolare la deviazione standard della distribuzione del rendimento?
Il modello Varianze-Covarianze assume che i rendimenti ∆wi si distribuiscono normal-
mente, quindi il rendimento di portafoglio, essendo combinazione di variabili casuali
normali, si distribuirà anch‟esso come una normale.
178
Per la precisione piuttosto che parlare di rendimento, bisognerebbe parlare di “variazione di valore”.
Tuttavia parlare di rendimento non è errato, potendo pensare al rendimento come una variazione di valore
in quanto un rendimento “negativo” altro non è che una perdita.
203
La variazione ex post di un portafoglio composto da N titoli sarà data dalla somma dei
rendimenti dei titoli, pesata per il valore di mercato
∆𝑊𝑁 = 𝑊𝑖 × ∆𝑤𝑖
𝑁
𝑖=1
Dove:
∆𝑤𝑖= rendimento osservato degli i-esimi titoli in portafoglio
𝑊𝑖=peso di ogni singolo titolo (valore di mercato)
Mentre ex ante, analogamente a quanto accade nei modelli basati sulla teoria Marko-
witz179
, il rendimento di un portafoglio è una variabile casuale con media:
𝐸 𝑊𝑁 = 𝑊𝑖 × 𝐸(∆𝑤𝑖)
𝑁
𝑖=1
E varianza:
𝜍∆𝑊𝑁
2 = 𝑊𝑖 × 𝑊𝑗 × 𝜍∆𝑤 𝑖∆𝑤𝑗2
𝑁
𝑗=1
𝑁
𝑖=1
Da cui la deviazione standard è data da:
(A.2) 𝜍∆𝑊𝑁= 𝑊𝑖 × 𝑊𝑗 × 𝜍∆𝑤 𝑖∆𝑤𝑗
2𝑁𝑗=1
𝑁𝑖=1
Dove:
𝜍∆𝑤𝑖 ,∆𝑤𝑗2 = Covarianza tra i due titoli
179
Vedi anche: “La teoria della selezione di portafoglio di Markowitz”, << www.unibg.it>>
204
Inoltre considerando la correlazione tra ∆𝑤𝑖 e ∆𝑤𝑗 :
(A.3) 𝜌∆𝑤 𝑖 ,∆𝑤𝑗 =𝜍∆𝑤𝑖 ,∆𝑤𝑗
2
𝜍∆𝑤𝑖×𝜍∆𝑤𝑗→ 𝜍∆𝑤 𝑖 ,∆𝑤𝑗
2 = 𝜌𝑖 ,𝑗 × 𝜍∆𝑤 𝑖 × 𝜍∆𝑤𝑗
Utilizzando la (A.1) e la (A.2) si ottiene:
𝑉𝑎𝑅𝑁 = 𝑧𝛼 × 𝜍∆𝑊𝑁= 𝑧𝛼2 ×𝑊𝑖 ×𝑊𝑗 × 𝜍∆𝑤 𝑖∆𝑤𝑗
2
𝑁
𝑗=1
𝑁
𝑖=1
E considerando la (A.3)
𝑉𝑎𝑅𝑁 = 𝑧𝛼2 × 𝑊𝑖 × 𝑊𝑗 × 𝜌∆𝑤 𝑖 ,∆𝑤𝑗 × 𝜍∆𝑤 𝑖 × 𝜍∆𝑤𝑗
𝑁
𝑗=1
𝑁
𝑖=1
= (𝑧𝛼 × 𝑊𝑖 × 𝜍∆𝑤 𝑖) × (𝑧𝛼 ×𝑊𝑗 × 𝜍∆𝑤𝑗 ) × 𝜌∆𝑤 𝑖 ,∆𝑤𝑗
𝑁
𝑗=1
𝑁
𝑖=1
= 𝑉𝑎𝑅𝑖 × 𝑉𝑎𝑅𝑗 × 𝜌∆𝑤 𝑖 ,∆𝑤𝑗
𝑁
𝑗=1
𝑁
𝑖=1
Ottenendo il Valore a rischio del portafoglio.
205
Appendice B
Il modello Capital Asset Pricing Model e l‟applicazione nel
modello Delta-Normal
Il modello CAPM di Sharpe (1964) si basa sulla teoria di scelta di portafoglio di Mar-
kowitz, secondo il quale nella scelta dei titoli da inserire in portafoglio, un investitore
considera solamente due variabili: il rendimento atteso e il rischio intrinseco.
Se il rendimento atteso è rappresentato dalla media, mentre il rischio intrinseco è rap-
presentato dalla varianza, l‟investitore sceglierà il portafoglio che a parità di rendimento
minimizza la varianza, o che, analogamente, a parità di varianza massimizza il rendi-
mento atteso.
Dunque, il modello di Markowitz si basa sulle seguenti ipotesi:
gli investitori sono avversi al rischio e massimizzano la propria utilità attesa
gli investitori selezionano i portafogli adottando il criterio della media – varian-
za: queste due variabili sono le sole che influenzano il portafoglio
tutti gli investitori decidono sulla base di un orizzonte temporale uni periodale,
cioè da t a t+1
Quindi, nel mercato ci saranno titoli che a parità di rischio presentano un rendimento
maggiore e viceversa a parità di rendimento presentano rischio differente: l‟insieme dei
titoli scelti all'investitore formerà la frontiera efficiente.
Considerati gli studi di Markowitz, Sharpe assume la linearità tra rischio e rendimento
considerando la presenza di un tasso risk free al quale è possibile indebitarsi o investire
(acquistando titoli risk-free).
Consideriamo un portafogli, aggregato di due titoli: un titolo a basso rischio e basso
rendimento e un titolo a elevato rischio e elevato rendimento.
𝐸(𝑟)𝑝 = 𝑤1𝐸(𝑟)1 + 𝑤2𝐸(𝑟2)
206
Come specificato in Figura B.1:
Figura B.1: relazione rischio-rendimento tra due titoli
Fonte: Laura Magazzini; Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione Lineare; Uni-
versità di Verona, 2008-09
Per effetto della diversificazione, la correlazione tra i due titoli sarà 𝜌12 < 1, quindi il
rischio totale di portafoglio sarà inferiore alla media pesata del rischio dei due titoli.
Il livello di rischio e rendimento (atteso) che caratterizza diverse combinazioni dei titoli
1 e 2 è definito frontiera efficiente e Figura B.2, mentre la Figura B.3 definisce la fron-
tiera equivalente per n titoli.
207
Figura B.2: Frontiera efficiente per i due titoli.
Fonte: Laura Magazzini; Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione Lineare; Uni-
versità di Verona, 2008-09
Figura B.3: Frontiera efficiente e Capital Market Line per n titoli
Fonte: Laura Magazzini, Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione Lineare, Uni-
versità di Verona, 2008-09
208
Sulla retta tangente tra il titolo risk free e il portafoglio di mercato gli investitori investi-
ranno quote diverse di titolo risk free e di titolo rischioso in base alla loro avversione al
rischio.
Questa retta è la capital market line, definita dall'‟equazione:
(B.1) 𝐸(𝑟𝑝) = 𝑟𝑓 +(𝐸(𝑟𝑥 )−𝑟𝑓)
𝜍𝑥× 𝜍𝑝
Dove:
𝐸(𝑟𝑓) = rendimento atteso dei titoli risk-free
𝐸(𝑟𝑥) = rendimento atteso del portafoglio (nel nostro caso a, b, c o d)
𝜍𝑥 = volatilità del portafoglio
𝜍𝑝 = volatilità del portafoglio complessivo (portafoglio titoli + titoli risk-free)
Infatti, fissato livello di rischio al portafoglio a, otterremmo un rendimento atteso 𝐸(𝑟𝑎)
e rischio 𝜍∗, mentre il compenso per il rischio sostenuto è la pendenza della retta che
unisce il portafoglio a al portafoglio privo di rischio con rendimento atteso 𝐸(𝑟𝑓).
Tuttavia tale strategia non è ottima: a parità di rischio l‟investitore potrebbe ottenere un
rendimento maggiore dando in prestito una proporzione dei suoi fondi, (1− 𝑤𝑝) al tas-
so 𝑟𝑓 (tasso risk-free) e investendo la quota rimanente 𝑤𝑝 in altri titoli.
Similmente, si può evidenziare la relazione rischio-rendimento e l‟investimento in titoli
privi di rischio considerando il portafoglio d. In questo caso l‟intercetta resta pari a 𝑟𝑓 ,
mentre la pendenza aumenta il suo valore (cioè (𝑟𝑑−𝑟𝑓)
𝜍𝑑).
I punti sulla retta che unisce 𝑟𝑓 a d, indicano i diversi livelli di rendimento 𝑟𝑝 che è pos-
sibile ottenere per un dato livello di rischio.
Inoltre la retta 𝑟𝑓 − 𝑑 è tangente alla frontiera di rischio-rendimento: non esistono porta-
fogli superiori a d (ogni altra retta con intercetta rf e pendenza superiore non avrebbe
punti di intersezione con la frontiera di rischio-rendimento e non sarebbe dunque realiz-
zabile all‟interno del mercato). Il portafoglio d è detto efficiente180
.
180
La teoria microeconomica insegna che se la capital market line è tangente alla frontiera efficiente si
raggiunge l‟ottimo paretiano.
209
Lo studio può essere generalizzato a n titoli: quindi l‟obiettivo è detenere gli n titoli in
proporzione ottimale sulla frontiera di rischio-rendimento e poi modificare il proprio li-
vello di rischio finanziandosi/investendo al tasso risk-free.
In questo modo, ogni investitore allocherà il portafoglio scegliendo tra titoli rischiosi e l
titoli privi di rischio in funzione delle sue preferenze in rischio/rendimento.
Il CAPM e il modello Delta-Normal
Quando si definisce il rendimento di un titolo, si fa riferimento a due componenti: la
componente mercato, e la componente specifica dell'impresa, entrambe esplicitate dalla
formula:
𝑟𝑗 = 𝛽𝑗𝑟𝑚 ,𝑡 + r 𝑗 + 휀𝑗
Dove:
𝛽𝑗 = Beta del titolo
𝑟𝑚 ,𝑡 = Rendimento del mercato di riferimento
r 𝑗 = Rendimento Atteso
휀𝑗~𝑖𝑖𝑑 𝑁(0,𝜍2) = elemento random specifico dell'‟impresa.
Analogamente il rischio totale del titolo può essere spiegato dal rischio di mercato (o ri-
schio sistematico) e il rischio specifico, che interessa solamente il titolo.
Se indichiamo il rischio di un titolo con la varianza, si avrà:
𝜍𝑗2 = 𝛽 × 𝜍𝑚
2 + 𝜍휀2
Dove
𝜍𝑗2 = Varianza del titolo
𝛽 = indicatore che individua la reattività del rendimento del titolo a variazioni del ren-
dimento del portafoglio, ed è definito come 𝛽 = 𝜍𝑘𝑝 𝜍𝑝2 , dove il numeratore è la cova-
rianza tra il titolo k e il suo portafoglio, mentre il denominatore è la varianza del porta-
foglio.
Sostanzialmente, il Beta rappresenta la sensibilità del titolo alle variazioni di mercato.
210
𝜍휀2 = rischio specifico del titolo
Una delle implicazioni del CAPM, riguardante il modello Delta-Normal, è che il rischio
di un portafoglio ben diversificato è associato al solo rischio di mercato, in quanto teori-
camente la diversificazione comporta la compensazione tra i rischi specifici dei singoli
titoli, e di conseguenza
𝜍𝑗2 = 𝛽𝜍𝑚
2
Da cui
𝜍𝑗 = 𝛽𝜍𝑚
E sostituendo nella (2.6) si ottiene:
𝑉𝑎𝑟 = 𝑊0𝑧𝛼𝛽𝜍𝑚
Quindi la diversificazione non può eliminare il rischio nella sua totalità: la componente
indiversificabile è il rischio di mercato (o rischio sistematico), legato alle oscillazioni a
livello macroeconomico, che hanno effetto su tutte le industrie e quindi su tutto il mer-
cato.
Partendo da questa ipotesi, è possibile spiegare perché, nel calcolo del VaR con
l‟approccio Delta-Normal, il rischio del titolo venga approssimato come prodotto tra il
rischio di mercato e un fattore correttivo, a condizione che il portafoglio sia composto
da più titoli eterogenei, in quanto solo così l‟eliminazione del rischio specifico risulta
ragionevole.
Infine, dalla (B.1), è possibile ricavare la formula finale del CAPM, che definisce il ren-
dimento atteso di un titolo, dato il rendimento di titoli risk-free e il rendimento di mer-
cato
(B.2) 𝐸 𝑟𝑗 = 𝑟𝑓 + (𝐸(𝑟𝑚) − 𝑟𝑓)𝛽𝑗
211
In questo caso, il calcolo del Beta viene effettuato considerando non più la reattività del
rendimento del titolo a variazioni del rendimento di un generico portafoglio, bensì pen-
sando a quest‟ultimo in termini del mercato nel suo complesso
𝛽𝑗 =𝜍𝑗𝑚
𝜍𝑚2=𝐶𝑜𝑣(𝑗,𝑚𝑒𝑟𝑐𝑎𝑡𝑜)
𝑉𝑎𝑟(𝑚𝑒𝑟𝑐𝑎𝑡𝑜)
Se 𝛽𝑗>1 il titolo amplifica la volatilità di mercato, e per questo si dice “aggressivo”, in-
vece se 𝛽𝑗<1 il titolo riduce la volatilità di mercato, e si dice “difensivo”, se𝛽𝑗= 1il titolo
si muove in perfetta sintonia con il mercato, è “neutrale”.
Dalla (B.2) è immediato notare che il rendimento atteso del titolo è dunque uguale al
rendimento sulle attività prive di rischio, più il prodotto tra il grado di sensitività del ti-
tolo al mercato, misurato con il Beta, e il premio a rischio (𝐸(𝑟𝑚)− 𝑟𝑓) che il mercato
paga agli investitori.
212
Appendice C
La scomposizione di Cholesky
La scomposizione di Cholesky permette di creare due matrici triangolari positive, origi-
nate da una matrice definita positiva Σ in formule:
(C.1) Σ = 𝐴𝐴′
Dove
Σ = Matrice di Varianze-Covarianze
𝐴 = Matrice triangolare inferiore
𝐴′ = Matrice trasposta di 𝐴
Ad esempio, consideriamo una generica matrice Σ 3x3:
Σ =
𝜖11 𝜖21 𝜖31
𝜖21 𝜖22 𝜖32
𝜖31 𝜖23 𝜖33
Secondo la scomposizione di Cholesky, questa matrice è scomponibile in due matrici
triangolari, di cui una è la trasposta dell'altra, da cui
𝐴 =
𝑎11 𝑎21 𝑎31
0 𝑎22 𝑎32
0 0 𝑎33
𝐴′ = 𝑎11 0 0𝑎21 𝑎22 0𝑎31 𝑎32 𝑎33
Dunque per la (C.1):
𝜖11 𝜖21 𝜖31
𝜖21 𝜖22 𝜖32
𝜖31 𝜖23 𝜖33
=
𝑎11 𝑎21 𝑎31
0 𝑎22 𝑎32
0 0 𝑎33
𝑎11 0 0𝑎21 𝑎22 0𝑎31 𝑎32 𝑎33
213
Da cui è possibile calcolare il valore di ogni elemento della matrice:
𝜖11 = 𝑎112 ⟹ 𝑎11 = 𝜖11
𝜖21 = 𝑎21𝑎11 ⟹ 𝑎21 =𝜖21
𝑎11
𝜖22 = 𝑎212 + 𝑎22
2 ⟹ 𝑎22 = 𝜖22 + 𝑎212
𝜖31 = 𝑎31𝑎11 ⟹ 𝑎31 =𝜖31
𝑎11
In generale, è possibile identificare gli elementi delle matrici triangolari attraverso le
formule:
𝑎𝑖𝑖 = 𝑠𝑖𝑖 − 𝑎𝑖𝑘2
𝑖−1
𝑘=1
𝑎𝑖𝑗 =1
𝑎𝑖𝑖 𝑠𝑖𝑗 + 𝑎𝑖𝑘𝑎𝑗𝑘
𝑖−1
𝑘=1
𝐽 = 𝑖 + 1…𝑁
Di conseguenza, data una matrice Varianze-Covarianze per i generici titoli i,q e r
Σ =
𝜍𝑝2 𝜍𝑞𝑝
2 𝜍𝑟𝑝2
𝜍𝑝𝑞2 𝜍𝑞
2 𝜍𝑟𝑞2
𝜍𝑝𝑟2 𝜍𝑞𝑟
2 𝜍𝑟2
Otterremo le matrici triangolari trasposte:
𝐴 =
𝜍𝑝 𝜍𝑝𝑞2 𝜍𝑝 𝜍𝑝𝑟
2 𝜍𝑝
0 𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2 𝜍𝑞𝑟
2 − 𝜍𝑝𝑞2 𝜍𝑝𝑟
2 − 𝜍𝑝𝑟2 𝜍𝑝𝑟
2
𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2
0 0 𝜍𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝2 2−
𝜍𝑞𝑟2 − 𝜍𝑝𝑞2 𝜍𝑝𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝𝑟2
𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2
2
214
𝐴′
=
𝜍𝑝 0 0
𝜍𝑝𝑞2 𝜍𝑝 𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝
20
𝜍𝑝𝑟2 𝜍𝑝
𝜍𝑞𝑟2 − 𝜍𝑝𝑞
2 𝜍𝑝𝑟2 − 𝜍𝑝𝑟
2 𝜍𝑝𝑟2
𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2
𝜍𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝2 2−
𝜍𝑞𝑟2 − 𝜍𝑝𝑞2 𝜍𝑝𝑟2 − 𝜍𝑝𝑟2 𝜍𝑝𝑟2
𝜍𝑞2 − 𝜍𝑝𝑞2 𝜍𝑝 2
2
Da cui 𝐴′ verrà moltiplicata per il vettore di valori della funzione di densità normale v,
ottenendo il vettore dei rendimenti per ogni scenario generato.
215
Appendice D
La regolamentazione antecedente al Market Risk Amen-
dment: l‟Accordo di Basilea e il documento di consultazione
Il primo Accordo di Basilea
Lo stimolo alla regolamentazione internazionale, al rafforzamento del sistema bancario
e alla prevenzione di ulteriori fallimenti dopo la Herstatt Bankhaus, il Banco Ambrosia-
no e la Franklin National Bank181
spinsero il Comitato di Basilea182
ad emanare nel
1988 l‟Accordo di Basilea183
, detto anche Basilea I, con l‟intento di “rafforzare la soli-
dità e stabilità del sistema bancario internazionale; (e) essere equo e possedere un ele-
vato grado di coerenza nella sua applicazione alle banche di differenti paesi, al fine di
ridurre un fattore di disuguaglianza concorrenziale presente tra le banche internazio-
nali”184
.
In questo modo l‟obiettivo esplicito di definire un level playing field, ciò un accordo che
consentisse a tutti gli intermediari di “giocare alla pari”, evitando che regolamentazioni
più favorevoli di alcuni Stati potessero dar luogo a concorrenza sleale si congiungeva
con il secondo obiettivo, implicito, di ridurre il moral hazard, in quanto l‟assicurazione
dei depositi sottoscritta dalle banche spingeva i manager all‟assunzione di rischi ecces-
sivi, che ricadevano poi sull' inconsapevole assicuratore.
181
Nel 1974 fallirono la Bankhaus Herstatt (un istituto di medie dimensioni molto attivo sui mercati valu-
tari) a causa del mancato regolamento di transazioni valutarie che ebbe forti ripercussioni su sistema fi-
nanziario internazionale; e la Franklin National Bank, (a quel tempo la ventesima banca per volume d'af-
fari negli USA) per bancarotta fraudolenta.Nel 1982 fallì invece il Banco Ambrosiano a causa di un crack
finanziario. 182
Il Comitato di Basilea per la vigilanza bancaria è stato costituito nel dicembre 1974 daiGovernatori
delle banche centrali dei paesi del G-10 (Belgio, Canada, Francia, Germania,Giappone, Gran Bretagna,
Italia, Paesi Bassi,Svezia, Svizzera e Stati Uniti) con lo scopo di incrementare la collaborazione interna-
zionale per arrivare ad una vigilanza sovranazionale sul sistema bancario. la sede è stata stabilita presso la
Banca dei Regolamenti Internazionali (BRI), a Basilea in Svizzera.Nondimeno, è importante sottolineare
che il Comitato di Basilea è un organo consultivo, e come tale le sue delibere non hanno valenza di legge,
ma devono essere recepite dai singoli Stati. 183
L‟Unione Europea ha recepito l‟Accordo con la direttiva 89/299 e 89/647, mentre in Italia è stato ac-
colto con i dls 301-302/91 184
Comitato per la Regolazione Bancaria e le Procedure di Vigilanza; Convergenza internazionale della
misurazione del capitale e dei coefficienti patrimoniali minimi; 1988
216
Le finalità appena descritte sono state raggiunte proprio con Basilea I che, imponendo il
requisito patrimoniale a fronte dei rischi finanziari solo alle banche che operavano a li-
vello internazionale185
, indicò cosa era ammesso nella composizione del capitale, la
ponderazione dei crediti che tenesse conto del “fattore rischio” e il conseguente rapporto
minimo tra capitale e crediti ponderati.
In particolare, l‟Accordo di Basilea definì tre elementi su cui comporre il requisito di
capitale a fronte del solo rischio di credito:
1. Patrimonio di Vigilanza: capitale la cui composizione era definito da Basilea I.
Nella fattispecie, visto l‟orizzonte di medio termine legato al rischio di credito, le
componenti utilizzabili come patrimonio di vigilanza sono state individuate
anch‟esse in un‟ottica di medio periodo. Senza entrare nel dettaglio186
si distingue:
Patrimonio di base o Primario (Tier 1 capital)
Il Tier 1 è la componente migliore del capitale, creata con elementi maggiormen-
te liquidi e finanziariamente più solidi.
Essa è composta di capitale azionario e riserve palesi (riserve generali e legali).
Patrimonio di secondo livello o Supplementare (Tier 2 capital)
È costituito da riserve occulte, riserve da rivalutazione, strumenti ibridi di capi-
tale (strumenti con caratteristiche degli strumenti di capitale e degli strumenti di
debito, accettati in quanto strumenti analoghi alle azioni e atti a coprire perdite
nell‟ambito della gestione corrente), accantonamenti, debiti subordinati187
(stru-
menti di capitale che in sede di liquidazione prevedono il soddisfacimento del
possessore in seguito ai creditori, ma prima degli azionisti).
Il patrimonio supplementare contribuisce al Patrimonio di Vigilanza per un am-
montare pari al massimo al patrimonio di base188
.
185
Tuttavia molte Autorità di Vigilanza ampliarono l‟obbligo a tutte le banche 186
L‟esplicitazione dettagliata degli elementi del Patrimonio di Vigilanza ha natura più contabile che fi-
nanziaria, e quindi esula dalle competenze di questo lavoro. 187
Sono accettati solamente i debiti subordinati con scadenza originaria minima superiore ai 5 anni e non
oltre il 50% del capitale di base. 188
In parole più semplici, il Patrimonio di Vigilanza può comporsi al limite di un 50% di Patrimonio di
Base e 50% di Patrimonio Supplementare.
217
2. La ponderazione per il rischio
L‟elemento peculiare di Basilea I era l‟introduzione degli attivi ponderati per il
rischio (RWA, Risk Weighted Assets): i crediti vengono raggruppati in quattro
classi, (a loro volta basate su tre variabili: natura del debitore, rischio paese, ga-
ranzie ricevute), e successivamente ogni credito era sottoposto a ponderazione
sulla base del valore di ponderazione della classe di appartenenza.
In particolare si distingueva:
- Ponderazione dello 0% per valori particolarmente liquidi e/o sicuri, come ad
esempio valori per cassa, titoli del debito sovrano e obbligazioni emesse ban-
che centrali (denominate in moneta del paese debitore), altre attività emesse
dalle amministrazioni centrali o dai paesi dell'area OCSE, attività garantite da
garanzie reali e attività delle amministrazioni pubbliche interne (in questo ca-
so i singoli stati possono optare per una diversa ponderazione);
- Ponderazione del 20% per attività verso banche dell'area OCSE, attività verso
enti del settore pubblico di Paesi esteri compresi nell‟area OCSE, prestiti ga-
rantiti da banche dell'area OCSE, attività verso banche di sviluppo o attività
da queste garantite;
- Ponderazione del 50% per prestiti garantiti da ipoteca su immobili
- Ponderazione del 100% per tutte le attività del settore privato, tutte le proprie-
tà immobiliari, attività verso imprese commerciali a capitale pubblico, attività
di amministrazioni centrali di paesi esterni all‟OCSE.
3. Coefficiente di solvibilità minimo
La regolamentazione patrimoniale imposta da Basilea terminava con la defini-
zione del requisito di solvibilità (da raggiungere entro il 1992) pari all‟8% del
rapporto tra il Patrimonio di Vigilanza e gli attivi ponderati per il rischio
𝑃𝑎𝑡𝑟𝑖𝑚𝑜𝑛𝑖𝑜 𝑑𝑖 𝑉𝑖𝑔𝑖𝑙𝑎𝑛𝑧𝑎
𝑅𝑊𝐴𝑟 .𝑐𝑟𝑒𝑑𝑖𝑡𝑜≥ 8%189
189
In cui il Patrimonio di Base doveva pesare almeno per il 4%.
218
Dove 𝑅𝑊𝐴 = 𝑝𝑖𝐴𝑖𝑖 e 𝑝𝑖 è la ponderazione per l‟i-esima attività 𝐴𝑖
L‟introduzione dell'Accordo di Basilea costituì l‟epilogo di una rivoluzione del sistema
di Vigilanza bancaria iniziata negli anni „70, segnando passaggio definitivo da vincoli di
tipo strutturale orientati alla verifica del grado di concentrazione e di articolazione dei
circuiti finanziari, a vincoli di tipo prudenziali, indirizzati alla verifica della stabilità e
della rischiosità.
Invero, dagli anni Trenta190
(nei quali gli Stati realizzarono che il crack di un interme-
diario è capace di produrre effetti su tutto il sistema finanziario) fino agli anni „70, la
Vigilanza dei principali Paesi industrializzati afferiva alla dimensione e alla conforma-
zione del mercato, imponendo obblighi di separazione tra aziende di credito e altri in-
termediari191
, vincoli e proibizioni in tema di nuove filiali o sportelli o la determinazio-
ne ex ante di prezzi e condizioni.
Tale regolamentazione rigida frenò l‟operatività bancaria, permettendo da un lato di ar-
ginare fenomeni di crisi, e dall'altro di causare un rallentamento dell'operatività banca-
ria.
Dagli anni ‟70 e con la successiva introduzione di Basilea I la Vigilanza si spostò su
vincoli prudenziali: diminuiscono le regole di specializzazione e le restrizioni sull'ope-
ratività e sulla dimensione, a favore di una maggiore autonomia.
Da quel momento la Vigilanza si orienta perlopiù sulla gestione dell‟impresa bancaria,
“misurata” in termini di coefficienti di capitale, sulla maggiore trasparenza e informa-
zione per i mercati.
Non a caso, è con Basilea I che viene introdotto il concetto di “adeguatezza patrimonia-
le”: le autorità creditizie cessano di influire su importo e composizione del Patrimonio
bancario, ma al contrario stabiliscono un livello minimo di operatività sotto il quale la
banca non agisce nel rispetto del vincolo di sana e prudente gestione limitandosi a veri-
ficare la coerenza delle scelte degli intermediari con le variabili economico-gestionali.
190
Si ricorda che nel 1929 avvenne il crollo di Wall Street che portò alla grande crisi degli anni „30 191
Basti ricordare che dal 1933 vigeva negli Stati Uniti il Glass Steagall Act che imponeva la separazione
tra banche commerciali e banche d‟investimento; abrogato poi nel 1999.
219
Nondimeno, il primo Accordo di Basilea non trovò forte accoglimento, innanzitutto
l'approccio troppo semplicistico nel calcolo delle ponderazioni ebbe l‟effetto di amplifi-
care l‟assunzione di rischio invece di mitigarla.
In questo senso, limitare a quattro l‟universo di controparti economiche consentì alle
banche di produrre distorsioni del sistema finanziario al fine di ridurre l‟onere della re-
golamentazione: con Basilea I, infatti, le banche si orientarono verso controparti più ri-
schiose all‟interno della medesima categoria, o all‟assunzione di maggiori rischi di cre-
dito liberati poi con la diversificazione.
In secondo luogo, l‟Accordo considerava solo in parte le operazioni di mitigazioni del
rischio messe in atto dalla banca: Basilea I non computava l‟effetto diversificazione,
l‟utilizzo di derivati creditizi e considerava superficialmente l‟utilizzo di garanzie con-
nesse al credito; ma tuttavia, la critica più rilevante rimane l‟omissione dei rischi
d‟interesse e di mercato.
Quest‟ultima anomalia portò alla definizione del documento di consultazione del ‟93 e
successivamente al Market Risk Amendment del ‟95-‟96.
Il documento di consultazione del „93
La crescente evoluzione dei mercati finanziari, lo sviluppo dei derivati e la “mobilizza-
zione” dei crediti rese sempre più sentita la mancanza di un requisito a fronte del rischio
di mercato.
In tal senso lo stesso Comitato di Basilea nel 1993 scriveva: “la deregolamentazione dei
tassi d‟interesse e dei movimenti di capitali, la liberalizzazione della sfera operativa
delle banche e il rapido sviluppo dei mercati finanziari hanno accresciuto per le banche
le opportunità di assumere rischi di mercato”192
.
A tal proposito, il Comitato di Basilea fu stimolato al raggiungimento di un nuovo o-
biettivo: stabilire i requisiti patrimoniali per il rischio di mercato e le modalità cui as-
solvervi e di creare “standard” patrimoniali-economici che evitassero concorrenza sleale
tra intermediari.
192
Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basilea per la Vigilanza banca-
ria; 1993.
220
In questo senso il Comitato propose sempre nel 1993 un metodo “standard” per il calco-
lo del rischio di mercato193
generato dalle posizioni facenti parte del trading book, cioè
di quel portafoglio titoli detenuti a breve termine e al fine di ottenere un capital gain
dalla compravendita o per fini di negoziazione con la clientela194
.
Tale metodologia consentiva di definire il requisito di capitale con riferimento ad un
holding period di 2 settimane, per un portafoglio rappresentativo degli ultimi cinque an-
ni con un intervallo di confidenza elevato e per tre tipi di rischio di mercato: rischio di
tasso d‟interesse, rischio azionario e rischio cambio.
Oltre a tale obbligo il documento di consultazione prevedeva, per quanto riguarda posi-
zioni azionarie e obbligazionarie, l‟utilizzo di un “approccio a blocchi” calcolando sia il
rischio specifico, che insiste sul singolo titolo, che il rischio generico, causato da varia-
zioni sfavorevoli del mercato nella sua interezza.
Nella fattispecie,195
si distingueva un differente metodo di calcolo per ognuno dei tre ti-
pi di rischio:
Rischio di Tasso: si calcolava per titoli di debito a tasso fisso, variabile nonché per
“valori aventi comportamento analogo” come obbligazioni convertibili, derivati cre-
ditizi e derivati su tasso di interesse (FRA, Swap, cap, collar). Il requisito per il ri-
schio specifico è definito da ponderazioni sul valore netto dell'emissione obbligazio-
193
Nel 1993 anche l‟UE emanò una direttiva, la 93/6/CEE detta anche CAD I (Capital Adequacy Directi-
ve) che differisce in minima parte dal quanto proposto da Basilea. 194
Come noto, al trading book si oppone il banking book, costituito da posizioni detenute a medio-lungo
termine con obiettivi diversi dal puro trading. In questo senso, lo stesso Comitato invitava le autorità di
Vigilanza a costituire regole contabili o procedure oggettive per disciplinare il trasferimento delle posi-
zioni dal trading book al banking book al fine di evitare l‟elusione del requisito.
Se questa distinzione può apparire ovvia, meno ovvie sono le sue ripercussioni: per quanto riguarda i titoli
azionari e obbligazionari, il loro computo nel trading book comporta la loro “fuoriuscita” dal banking
book, mentre per posizioni in commodities e in cambi il requisito può riguardare sia il banking book che
il trading book.
In poche parole, le obbligazioni facenti parte del banking book sono considerate nel computo del rischio
di credito, se invece sono computate nel trading book vengono utilizzate per misurare il rischio di tasso.
Le azioni invece vengono computate solo se facenti parte del trading book. 195
Per motivi di brevità non verranno trattati nel dettaglio e i requisiti e le ponderazioni applicate alle sin-
gole tipologie di titoli, volendo fornire un quadro generale del documento di consultazione.
Per maggiori dettagli, si veda Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basi-
lea per la Vigilanza bancaria; 1993.
221
naria196
e dipendeva dal tipo e dal rating dell'emittente, e dalla maturity obbligazione
(Tabella D.1).
196
È possibile la compensazione tra posizioni lunghe e corte della stessa emissione ma non per lo stesso
emittente.
222
Tabella D.1: ponderazioni per il rischio specifico di tasso d‟interesse
Tipologia di titolo Ponderazione
Vita residua
≤ 6 mesi
Vita residua tra
6 e 24 mesi
Vita residua ≥
24 mesi
Governo centrale:
-Titoli di Stato 0%
Qualificati:
-Titoli del settore pubblico e di banche di
sviluppo
-Titoli giudicati investment grade per al-
meno due agenzie di rating
-Titoli giudicati investment grade per
un‟agenzia e qualità adeguata per un‟altra.
-Titoli di banche di Paesi che aderiscono
all‟accordo di Basilea197
0,25% 1% 1,60%
Altri 8%
Fonte: Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basilea per la Vigilanza bancaria; 1993
Il requisito per il rischio generico era definito suddividendo i titoli in 15 Zero cou-
pon, definiti in base alla duration.
Successivamente alla compensazione tra posizioni lunghe e corte in ogni fascia, si
definivano tre macro-fasce a cui seguiva la compensazione tra i titoli della stessa ma-
cro-fascia. Le posizioni nette delle tre zone vengono compensate, generando il requi-
sito netto totale per il rischio generico di tasso d‟interesse198
.
Nondimeno, il Comitato consentiva agli intermediari di utilizzare un metodo alterna-
tivo, in cui si misura la duration di ogni titolo, anziché la duration media per ogni fa-
scia.
197
Solo se autorizzato dalle autorità di Vigilanza. 198
Per l‟esattezza, ogni compensazione era sottoposta a una disallowance che tenesse conto della non per-
fetta compensazione che si manifesta durante la misurazione.
In particolare nella compensazione all‟interno delle fase si aggiungeva al valore netto la vertical disallo-
wance (pari al 10% della minore tra la posizione netta positiva e la posizione netta negativa), nella com-
pensazione tra le tre macrofasce si applica la horizontal disallowance (moltiplicando il coefficiente del
40% per la prima fascia e del 30% per seconda e terza; alla minore tra la posizione netta positiva e la po-
sizione netta negativa) e la vertical disallowance nella compensazione tra macrofasce (del 40% per posi-
zioni adiacenti e del 100% altrimenti, moltiplicata per la posizione più bassa).
223
Rischio azionario: in tale tipologia di rischio si annoveravano azioni ordinarie con o
senza diritto di voto, obbligazioni convertibili, warrant, e derivati aventi come sotto-
stante indici o azioni.
Il requisito per il rischio specifico veniva calcolato sommando le posizioni lunghe e
corte (è possibile compensazione solo per lo stesso titolo), calcolando così la posi-
zione generale lorda. Il requisito è calcolato come l‟8% della posizione generale lor-
da.
Nondimeno il Comitato ammette che la ponderazione deve poter cogliere la diversi-
ficazione e la liquidità del portafoglio azionario ma al contempo riconosce come sia
difficile definire dei requisiti che indichino se e in che misura un portafoglio sia ben
diversificato.
Di conseguenza, il Comitato lascia questa competenza alle autorità di Vigilanza dei
singoli Paesi, consentendo alle stesse di ridurre la ponderazione per portafogli liquidi
e ben diversificati non al disotto del 4%.
Per quanto riguarda il rischio generico, esso è formulato come l‟8% della posizione
generale netta, misurata dalla compensazione all‟interno dello stesso mercato tra po-
sizioni corte e lunghe, di conseguenza la posizione generale netta totale è data dalla
somma algebrica delle posizioni generali nette dei mercati.
Rischio di cambio199
Come per le altre posizioni, è necessario calcolare la posizione netta per ogni valuta,
formata dalla somma algebrica tra posizioni a pronti e a termine, le garanzie di certa
escussione e qualsiasi altra voce rappresentativa di profitti/perdite su valute.
Una volta calcolata la posizione netta per ogni valuta, si effettuava la somma tra tutte
le posizioni positive e negative e il requisito è calcolato come l‟8% del maggiore tra
la posizione netta positiva e la posizione netta negativa200
.
Ai fini dell'‟assolvimento degli ulteriori requisiti patrimoniali derivanti dai rischi di
mercato, il Comitato propose, se consentito dalle autorità di Vigilanza nazionali, di dare
199
Le posizioni in oro vengono incluse nel computo dei requisiti patrimoniali per le posizioni in valuta 200
Il Comitato consentiva anche l‟utilizzo di un metodo di simulazione, mediante il quale, sulla base
dell'andamento passato del rischio tasso, venivano determinati i profitti/perdite simulate. Il coefficiente
veniva fissato in rapporto alla perdita maggiore.
224
vita ad una nuova componente del Patrimonio di Vigilanza, chiamata Tier 3201
, costitui-
ta interamente per assolvere al rischio azionario e di tasso (il rischio di cambio doveva
essere coperto dal Patrimonio di classe 1 e 2) e limitato al 250% del Patrimonio di base
destinato alla copertura dei rischi di mercato.
Esso era composto da prestiti subordinati differenti rispetto a quelli componenti il Tier
2, in quanto dovevano possedere alcuni requisiti quali:
Essere garantiti;
Avere una scadenza iniziale di almeno due anni;
Essere assoggettati alla clausola d‟immobilizzo secondo cui non possono essere
pagati interessi agli obbligazionisti se tali pagamenti comportano la riduzione
del capitale a rischio assegnato al portafoglio di negoziazione fino alla soglia del
requisito patrimoniale, aumentato del 20%;
Non essere redimibili prima della scadenza pattuita.
201
Il Comitato specifica che alcune autorità non acconsentono alla creazione del Tier 3 e quindi il Comi-
tato stesso propone di mantenere il principio secondo cui il Tier 1 sia almeno pari alla somma tra Tier 2 e
Tier 3.
Nel successivo emendamento del 1996, il Comitato deciderà di lasciare l‟applicazione di tale regola a di-
screzione delle autorità nazionali.
225
Appendice E:
Analisi empirica: stime prodotte dai modelli utilizzati
Di seguo si specificano tutte le stime di Value at Risk prodotte durante lo studio empiri-
co, per ognuno dei modelli utilizzati, dei portafogli e degli shock scelti.
226
S1) 21/09/2001
PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE
S1) -1M S1) +1M S1) +2M S1) -1M S1) +1M S1) +2M S1) -1M S1) +1M S1) +2M
VM TOT 2.777.954 2.329.725 2.429.406 1.584.526 1.373.231 1.519.175 1.924.450 1.709.361 1.774.911
VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)
VaR Delta-Normal 69.333 2,50 115.305 4,95 124.102 5,11 54.402 3,43 66.166 4,82 76.069 5,01 54.170 2,81 66.041 3,86 72.454 4,08
VaR Asset-Normal 79.010 2,84 124.623 5,35 133.518 5,50 63.270 3,99 73.087 5,32 83.146 5,47 65.356 3,40 73.805 4,32 79.493 4,48
VaR Delta-Normal EWMA(0,99)
63.968 2,30 138.077 5,93 143.465 5,91 50.747 3,20 73.534 5,35 83.303 5,48 50.591 2,63 72.551 4,24 78.804 4,44
VaR Delta-Normal EWMA(0,97)
58.359 2,10 179.947 7,72 169.803 6,99 49.132 3,10 89.416 6,51 95.444 6,28 49.763 2,59 88.592 5,18 91.130 5,13
VaR Asset-Normal EWMA(0,99)
100.575 3,62 176.859 7,59 180.307 7,42 74.194 4,68 96.017 6,99 105.735 6,96 78.643 4,09 97.427 5,70 102.378 5,77
VaR Asset-Normal EWMA(0,97)
98.365 3,54 179.281 7,70 182.741 7,52 73.677 4,65 97.309 7,09 107.618 7,08 79.360 4,12 98.644 5,77 103.496 5,83
VaR SS (261gg) "titoli"
71.702 2,58 130.704 5,61 144.391 5,94 55.049 3,47 72.601 5,29 80.258 5,28 58.296 3,03 86.722 5,07 91.429 5,15
VaR SS (261 gg) "risk factor"
76.070 2,74 115.752 4,97 120.704 4,97 54.269 3,42 57.173 4,16 63.249 4,16 58.636 3,05 67.690 3,96 70.286 3,96
VaR Delta-Normal GARCH
62.677 2,26 143.241 6,15 137.348 5,65 48.866 3,08 75.713 5,51 78.681 5,18 50.541 2,63 72.262 4,23 75.312 4,24
VaR HA (0,99) 72.490 2,61 181.276 7,78 186.149 7,66 63.714 4,02 108.889 7,93 114.806 7,56 61.504 3,20 100.157 5,86 98.862 5,57
227
S2) 09/10/2002
PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE
S2) -1M S2) +1M S2) +2M S2) -1M S2) +1M S2) +2M S2) -1M S2) +1M S2) +2M
VM TOT 1.886.196 1.765.628 1.911.082 968.232 883.761 929.356 1.396.063 1.341.069 1.353.885
VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)
VaR Delta-Normal 103.937 5,51 87.950 4,98 94.027 4,92 57.431 5,93 58.543 6,62 61.371 6,60 79.952 5,73 86.923 6,48 88.911 6,57
VaR Asset-Normal 107.292 5,69 91.143 5,16 97.220 5,09 61.981 6,40 62.876 7,11 65.845 7,09 83.185 5,96 89.888 6,70 91.927 6,79
VaR Delta-Normal EWMA(0,99)
98.996 5,25 99.669 5,64 103.097 5,39 62.535 6,46 69.349 7,85 69.286 7,46 88.906 6,37 101.545 7,57 98.597 7,28
VaR Delta-Normal EWMA(0,97)
115.412 6,12 116.611 6,60 110.269 5,77 76.942 7,95 82.511 9,34 74.342 8,00 109.326 7,83 117.197 8,74 101.581 7,50
VaR Asset-Normal EWMA(0,99)
106.916 5,67 115.388 6,54 120.542 6,31 68.720 7,10 80.081 9,06 80.084 8,62 99.060 7,10 112.211 8,37 108.635 8,02
VaR Asset-Normal EWMA(0,97)
108.973 5,78 116.457 6,60 120.338 6,30 69.641 7,19 80.066 9,06 80.183 8,63 100.236 7,18 113.304 8,45 108.956 8,05
VaR SS (261gg) "titoli"
90.000 4,77 70.944 4,02 76.616 4,01 62.139 6,42 47.947 5,43 50.616 5,45 82.526 5,91 78.156 5,83 79.279 5,86
VaR SS (261 gg) "risk factor"
93.715 4,97 73.254 4,15 79.288 4,15 55.608 5,74 46.702 5,28 49.111 5,28 73.225 5,25 70.341 5,25 71.013 5,25
VaR Delta-Normal GARCH
102.994 5,46 103.536 5,86 99.433 5,20 66.633 6,88 73.572 8,32 66.101 7,11 93.851 6,72 104.437 7,79 93.890 6,93
VaR HA (0,99) 88.417 4,69 87.304 4,94 91.745 4,80 62.462 6,45 57.474 6,50 59.567 6,41 86.402 6,19 84.649 6,31 85.516 6,32
228
S3) 20/03/2008
PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE
S3) -1M S3) +1M S3) +2M S3) -1M S3) +1M S3) +2M S3) -1M S3) +1M S3) +2M
VM TOT 2.714.208 2.609.185 2.639.379 1.738.995 1.745.765 1.798.956 1.906.733 1.966.384 1.989.125
VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)
VaR Delta-Normal 81.833 3,0 86.412 3,3 87.991 3,3 62.410 3,6 61.320 3,5 62.389 3,5 88.589 4,6 96.906 4,93 96.982 4,9
VaR Asset-Normal 83.970 3,1 88.132 3,4 89.869 3,4 71.073 4,1 70.349 4,0 71.531 4,0 92.143 4,8 101.006 5,14 101.058 5,1
VaR Delta-Normal EWMA(0,99)
89.842 3,3 94.119 3,6 89.350 3,4 71.260 4,1 67.290 3,9 63.534 3,5 101.766 5,34 103.850 5,28 96.658 4,86
VaR Delta-Normal EWMA(0,97)
109.178 4,0 104.431 4,0 87.197 3,3 91.667 5,3 73.631 4,2 60.207 3,3 127.620 6,69 109.307 5,56 89.722 4,51
VaR Asset-Normal EWMA(0,99)
107.846 4,0 112.103 4,3 107.756 4,1 89.469 5,1 85.734 4,9 82.688 4,6 118.183 6,2 123.954 6,30 116.172 5,8
VaR Asset-Normal EWMA(0,97)
109.743 4,0 112.275 4,3 107.427 4,1 91.506 5,3 86.344 4,9 82.181 4,6 118.708 6,2 124.071 6,31 114.707 5,8
VaR SS (261gg) "titoli"
82.881 3,1 81.272 3,1 82.846 3,1 62.446 3,6 57.485 3,3 59.483 3,3 65.776 3,4 86.384 4,39 86.562 4,4
VaR SS (261 gg) "risk factor"
85.253 3,1 88.105 3,4 89.125 3,4 51.455 3,0 58.664 3,4 60.451 3,4 62.096 3,3 68.988 3,51 69.786 3,5
VaR Delta-Normal GARCH
89.428 3,3 104.782 4,0 84.152 3,2 76.537 4,4 78.637 4,5 58.281 3,2 107.032 5,6 113.803 5,79 89.172 4,5
VaR HA (0,99) 148.954 5,5 123.345 4,7 115.882 4,4 117.623 6,8 91.005 5,2 82.076 4,6 143.156 7,5 111.595 5,68 98.517 5,0
229
S4) 06/03/2009
PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE
S4) -1M S4) +1M S4) +2M S4) -1M S4) +1M S4) +2M S4) -1M S4) +1M S4) +2M
VM TOT 1.382.176 1.266.779 1.493.384 1.350.015 1.291.499 1.376.539 1.201.086 1.145.374 1.318.367
VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)
VaR Delta-Normal 123.479 8,93 121.000 9,55 141.928 9,50 118.056 8,74 121.082 9,38 128.883 9,36 118.395 9,86 112.595 9,83 131.057 9,94
VaR Asset-Normal 125.601 9,09 122.673 9,68 143.780 9,63 260.357 19,29 248.336 19,23 248.644 18,06 122.034 10,16 116.767 10,19 136.689 10,37
VaR Delta-Normal EWMA(0,99)
135.117 9,78 128.477 10,14 141.687 9,49 131.424 9,73 125.182 9,69 125.680 9,13 130.079 10,83 112.677 9,84 123.059 9,33
VaR Delta-Normal EWMA(0,97)
130.728 9,46 137.376 10,84 138.597 9,28 132.945 9,85 124.453 9,64 116.689 8,48 127.841 10,64 106.759 9,32 108.520 8,23
VaR Asset-Normal EWMA(0,99)
149.956 10,85 142.447 11,24 157.202 10,53 363.856 26,95 288.329 22,33 270.270 19,63 151.525 12,62 135.435 11,82 149.517 11,34
VaR Asset-Normal EWMA(0,97)
147.661 10,68 142.027 11,21 156.813 10,50 363.065 26,89 291.028 22,53 274.055 19,91 151.305 12,60 135.958 11,87 148.785 11,29
VaR SS (261gg) "titoli"
86.556 6,26 81.584 6,44 97.196 6,51 74.431 5,51 69.836 5,41 73.412 5,33 81.422 6,78 74.810 6,53 89.981 6,83
VaR SS (261 gg) "risk factor"
86.530 6,26 83.267 6,57 98.162 6,57 87.650 6,49 83.851 6,49 89.372 6,49 76.637 6,38 73.083 6,38 84.121 6,38
VaR Delta-Normal GARCH
127.780 9,24 121.459 9,59 130.787 8,76 130.742 9,68 118.253 9,16 117.477 8,53 125.662 10,46 107.007 9,34 115.572 8,77
VaR HA (0,99) 90.318 6,53 92.030 7,26 104.995 7,03 93.923 6,96 75.745 5,86 76.552 5,56 96.494 8,03 78.382 6,84 92.281 7,00
230
S5) 12/09/2011
PORTAFOGLIO ITALIANO PORTAFOGLIO TEDESCO PORTAFOGLIO FRANCESE
S5) -1M S5) +1M S5) +2M S5) -1M S5) +1M S5) +2M S5) -1M S5) +1M S5) +2M
VM TOT 1.173.955 1.279.044 1.188.398 1.522.928 1.521.911 1.577.235 1.370.206 1.447.550 1.378.294
VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%) VaR (€) VaR (%)
VaR Delta-Normal 42.279 3,6 62.135 4,9 59.145 5,0 48.491 3,2 63.026 4,1 68.999 4,4 45.641 3,3 70.627 4,9 63.496 4,6
VaR Asset-Normal 43.169 3,7 63.141 4,9 60.033 5,1 53.640 3,5 67.531 4,4 73.905 4,7 46.721 3,4 72.352 5,0 66.811 4,8
VaR Delta-Normal EW-MA(0,99)
50.701 4,3 75.475 5,9 71.038 6,0 57.646 3,8 79.430 5,2 84.487 5,4 51.851 3,8 86.616 6,0 76.505 5,6
VaR Delta-Normal EW-MA(0,97)
69.900 6,0 94.412 7,4 86.910 7,3 80.039 5,3 103.872 6,8 103.950 6,6 70.414 5,1 111.112 7,7 94.168 6,8
VaR Asset-Normal EW-MA(0,99)
56.488 4,8 82.288 6,4 75.902 6,4 68.141 4,5 87.680 5,8 92.177 5,8 55.846 4,1 95.369 6,6 97.798 7,1
VaR Asset-Normal EW-MA(0,97)
57.352 4,9 82.691 6,5 76.611 6,4 70.157 4,6 88.823 5,8 93.265 5,9 56.657 4,1 96.297 6,7 98.600 7,2
VaR SS (261gg) "titoli" 47.534 4,0 69.590 5,4 65.332 5,5 49.608 3,3 72.999 4,8 75.679 4,8 45.140 3,3 76.496 5,3 64.180 4,7
VaR SS (261 gg) "risk factor"
45.423 3,9 63.088 4,9 61.352 5,2 48.565 3,2 76.360 5,0 79.135 5,0 37.127 2,7 68.499 4,7 72.365 5,3
VaR Delta-Normal GARCH 66.388 5,7% 72.717 5,7% 69.794 5,9% 46.772 3,1% 88.610 5,8% 79.237 5,0% 90.685 6,6% 77.485 5,4% 73.036 5,3%
VaR HA (0,99) 89.018 7,6% 84.295 6,6% 87.649 7,4% 129.078 8,5% 114.211 7,5% 109.248 6,9% 90.725 6,6% 92.020 6,4% 84.084 6,1%
231
BIBLIOGRAFIA
Adrian T., Brunnermeier M.; CoVaR; Federal Reserve Bank of New York, Staff Reports; 2009
Acerbi C., Nordio C., Sirtori C.; Expected Shortfall as a Tool for Financial Risk Manage-
ment; Abaxbank; 2008.
Albergo F., Strumenti di controllo e analisi del rischio; 2011.
Ambrozewicz M.; A critical note on ΔCoVaR; HTW University of Applied Science
Berlin; 2013.
Artzner P., Delbaen F., Eber J., Carnegie D.; Coherent Measures Of Risk; Mathematical Finance; 1998.
Barone-Adesi G., Giannopoulos K., Vosper L.; Filtering HiStorical Simulation. Backtest Analysis; 2000.
Barone-Adesi G., Giannopoulos, K. Vosper; Non-parametric VaR techniques. Myths and
Realities; 2000.
Bazzana F.; I modelli interni per la valutazione del rischio di mercato secondo l‟approccio
del Value at Risk; ALEA Tech Reports; 2001.
232
Beder T., VaR: seductive but dangerous; Association of investment management ad
Research; 1995.
Bee M.; Elementi di Risk Management Quantitativo; 2006.
Bollerslev T.; Glossary to ARCH (GARCH); Duke University; 2008.
Boudoukh J., Richardson M., Whitelaw R.; A Hybrid Approach to Calculating Value at Risk; Stern School
of Business, NYU; 1998.
Campbell S.; A Review of Backtesting and Backtesting Procedure; Federal Reserve Board;
2005.
Candelon B., Colletaz G., Hurlin C., Tokpavi S.; Backtesting Value-at-Risk: A GMM Du-
ration-Based Test; University of Orléans; 2008.
Chen S.; Nonparametric Estimation of Expected Shortfall; Iowa State University.
Cheung Y., Powell R.; Anybody can do Value at Risk: A Nonparametric Teaching Study;
Australasian Accounting Business and Finance Journal, 2012
233
Cheung Y., Powell R.; Anybody can do Value at Risk: A Teaching Study using Parametric
Computation and Monte Carlo Simulation; Australasian Accounting Business and Finance;
2012.
Christoffersen P., Pelletier D.; Backtesting Portfolio Risk Measures; 2002.
Christoffersen P.; Evaluating Interval Forecasts; International Economic Review; 1998.
Comitato di Basilea; Convergenza internazionale della misurazione del capitale e dei coef-
ficienti patrimoniali; 2004.
Comitato di Basilea; Proposte a fini di consultazione del Comitato di Basilea per la Vigi-
lanza bancaria; 1993.
Comitato di Basilea; Supervisory framework for the use of "backtesting" in conjunction
with the internal models approach to market risk capital requirements; 1996.
Comitato di Basilea; Un approccio basato su modelli interni per l‟applicazione dei requisi-
ti patrimoniali a fronte dei rischi di mercato; 1995.
Comitato di Basilea; Emendamento sull'‟accordo dei requisiti patrimoniali per incorpo-
rarvi i rischi di mercato; 1996.
234
Comitato per la Regolamentazione Bancaria e le procedure di Vigilanza; Convergenza in-
ternazionale della misurazione del capitale e dei coefficienti patrimoniali minimi; 1988.
Danielsson J., de Vries G.; Value–at–Risk and Extreme Returns; 2000.
Diebold F.,Hickman A., Inoue A., Schuermann T.; Converting 1-Day Volatility to h-Day
Volatility: Scaling by is Worse than You Think; University of Pennsylvania; 1997.
Drost F., Nijman T.; Temporal Aggregation of GARCH processes, Econometrica; 1993.
Duffie D.; Pan J.; An Overview of Value at Risk; 1997
Engle R.; Manganelli S.; CAViaR: Conditional Autoregressive Value at Risk by Regres-
sion Quantiles; 2002.
Flood M.; A brief history of financial risk and information; 2012.
Frye J.; Principals of Risk: Finding Value-at-Risk Through Factor-Based Interest Rate Scenarios; Nations-
Banc; 1997.
Girardi G., Ergün A.; Systemic Risk Measurement: Multivariate GARCH Estimation of
CoVaR; 2012.
235
Goodhart C.; The Basel Committee on Banking Supervision: A History of the Early Years,
1974–1997; Cambridge University Press; 2011.
Haas M.; New Methods in Backtesting; Research center Caesar; 2001.
Hull J., White A.; Incorporating volatility updating into the historical simulation method for value-at-risk;
Journal of Risk; 1998.
Inui K., Kijima M.; On the significance of expected shortfall as a coherent risk measure;
Journal of Banking & Finance; 2004.
Jamshidian F., Zhu Y.; Scenario Simulation: Theory and methodology; 1997.
JP Morgan, RiskMetrics™,Technical Document; 1996.
Jorion P.; Value at Risk; McGraw-Hill; 2007.
Karabey U.; Risk Measures and Risk Capital Allocation; Hacettepe University, Department
of Actuarial Sciences.
Khindanova I.; Value at Risk; University of California, Santa Barbara; 1998
236
KPMG; Financial Risk Management Backtesting Value at Risk Models; 2011.
Koenker R.; Bassett G.; Regression Quantiles; Econometrica; 1978.
Kupiec P.; Techniques for verifying the accuracy of risk measurement models; 1995.
Lanci G.; I sistemi di controllo nelle banche; Aracne editore; 2006.
Li L.; A Realistic Approach to Calculate VaR; International Journal of Economics and
Finance; 2009.
Löfler G., Raupach P.; Robustness and informativeness of systemic risk measures;
Deutsche Bundesbank; 2013.
Lopez J.; Methods for EvaluatingValue-at-Risk Estimates; 1999.
Lopez J.; Regulatory Evaluation of Value-at-Risk Models; Federal Reserve Bank of New
York; 1997.
Lucchetti R.; Appunti di analisi delle Serie Storiche; 2011.
237
MacKenzie D., Millo Y.; The usefulness of inaccurate models: financial risk management
“in the wild”; Department of Accounting, London School of Economics and Political
Science; 2009.
Magarelli S., Engle R., Value at risk models in Finance; 2001.
Magazzini L.; Il Capital Asset Pricing Model: un‟Applicazione del Modello di Regressione
Lineare; Università di Verona; 2008.
Marshall C.; Siegel M.; Value at Risk:Implementing a Risk Measurement Standard; Finan-
cial Institutions Center
Mishkin F., Eakins S.; Financial Markets and Institutions; Pearson/Prentice Hall; 2012.
NYU Stern School of Business; VAR; <www.stern.nyu.edu>.
Pederzoli C.; Torricelli C.; Una rassegna sui metodi di stima del value at risk (VaR);
Dipartimento di Economia Politica, Università degli Studi di Modena e Reggio Emilia.
Pelessoni R.; Misure di rischio e coerenza; Dipartimento di Matematica Applicata,
Università di Trieste.
238
Pritsker M.; The Hidden Dangers of HiStorical Simulation; 2001.
Resti A., Sironi A.; “Rischio e valore nelle banche”; Egea, 2008
Sarcinelli V.; La vigilanza sul sistema finanziario: obiettivi, assetti e approcci; Moneta e
Credito; 2004.
Schachter B., An Irreverent Guide to Value at Risk; 1997.
Tasche D.; Expected Shortfall and Beyond; 2002.
Trenca I.; The use in banks of value at risk method in market risk management; Università
III Alexandru Ioan Cuza; 2009
West K., Cho D.; The predictive ability of several models of exchange rate volatility;
Jurnal of Econometrics; 1995.
Yamai Y., Yoshiba T.; On the Validity of Value-at-Risk: Comparative Analyses with Ex-
pected Shortfall; Monetary And Economic Studies; 2002.
239
SITOGRAFIA
indices.nyx.com
it.finance.yahoo.com
www.bis.org
www.bloomberg.com
www.borsaitaliana.it
www.chicagofed.org
www.deutsche-boerse.com
www.gloriamundi.org
www.icbenchmark.com
240
www.ideas.repec.org
www.londonstockexchange.com
www.msci.com
www.performancetrading.it
www.ssrn.org
www.unipd.it
241
RINGRAZIAMENTI
Dopo cinque anni di studio matto e disperatissimo, sembra difficile scrivere dei ringrazia-
menti e nondimeno lo devo a chi ha seguito da vicino questo percorso accademico.
Per prima cosa, mi dispiace dover ammettere che ringraziare ognuno di voi sarebbe im-
possibile, un po‟ perché alcuni non sono più qui, e un po‟ perché per farlo, non bastereb-
bero cinque tesi e, almeno per ora, non ho intenzione di buttarmi nuovamente in questa
impresa!
Ma torniamo ai ringraziamenti: in quel lontano autunno del 2008, in cui per la prima volta
varcai la soglia di un‟università nessuno, me compreso, avrebbe scommesso un soldo bu-
cato sulla mia capacità di superare gli studi universitari in così breve tempo e con questi
risultati.
Ed è per questo che sento di dire che la prima persona da ringraziare sono io, per la vo-
lontà titanica, l‟impegno e lo spirito di sacrificio dimostrato e che mai avrei immaginato di
possedere.
In seconda battuta vorrei ringraziare la mia famiglia, per l‟aiuto morale e finanziario of-
fertomi, senza i quali quest‟impresa si sarebbe dimostrata più impegnativa di quanto lo sia
stata.
Prima che questi ringraziamenti perdano di rigore accademico, è doveroso ringraziare il
mio relatore, Professor Pomante, i suoi chiarimenti, i suoi consigli e la sua (forse incon-
scia) capacità di infondere calma e fiducia sono stati fondamentali nel fermento intellettu-
ale e psicologico causato da una tesi di laurea.
Non posso non ringraziare i miei colleghi universitari, sia quelli “della triennale” che
quelli “della specialistica”: se questi cinque anni sono stati una guerra, loro sono stati i
migliori compagni d‟arme che potessi mai avere.
242
Ed infine, i ringraziamenti vanno ai miei amici tutti, tolleranti per le mie assenze causa-
studio e per l‟esaurimento che accompagnava ogni esame, ma sempre pronti a condividere
ogni successo con un cocktail, una torta (il riferimento non è casuale) o una festa.
È dunque la fine?
Probabilmente è la fine di quest‟avventura, ma sicuramente il viaggio continuerà;
d‟altronde, come dicono gli americani: “the best, is yet to come!”
Top Related