ANALISI DELLE SERIE STORICHE - Strumenti Econometrici Utilizzati in Finanza - Di Stefano Caprioli
Transcript of ANALISI DELLE SERIE STORICHE - Strumenti Econometrici Utilizzati in Finanza - Di Stefano Caprioli
ANALISI DELLE SERIE STORICHE:Strumenti econometrici utilizzati in finanza
Capitolo I
di Stefano Caprioli [email protected]
TUTTI I DIRITTI RISERVATI
3
CAPITOLO I ........................................................................................................................... 5
Analisi delle serie storiche .................................................................................................................. 5 - Introduzione ................................................................................................................................... 5 1.1 - Identificazione e Previsione ..................................................................................................... 6 1.2 - Strumenti di analisi per l’identificazione e la previsione: le medie mobili e lo smorzamento esponenziale ..................................................................................................................................... 9 1.2.1 - Smussamento singolo .......................................................................................................... 10 1.2.2 - Smorzamento doppio (ad un parametro) ............................................................................. 14 1.2.3 - Smorzamento moltiplicativo ............................................................................................... 14 1.2.4 - Smorzamento additivo (tre parametri) ................................................................................ 15 1.2.5 - Smorzamento non stagionale a due parametri ..................................................................... 15 1.3 - Momenti di un processo stocastico ....................................................................................... 16 1.3.1 - Valore medio atteso ............................................................................................................. 16 1.3.2 - Varianza ............................................................................................................................. 17 1.3.3 - Autocovarianza ................................................................................................................... 17 1.4 – Una breve analisi delle funzioni di autocorrelazione ............................................................ 17 1.5 - Ergodicità ............................................................................................................................... 18 1.6 - Stazionarietà dei processi stocastici ....................................................................................... 19 1.7 - Invertibilità dei processi stocastici ......................................................................................... 21 1.8 - I modelli stocastici di Box e Jenkins ..................................................................................... 21 1.8.1 - Modello autoregressivo di ordine p (AR(p)) ....................................................................... 22 1.8.2 -Processo AR(1) .................................................................................................................... 22 1.8.3 - Modello a media mobile ...................................................................................................... 23 1.8.4 - Processo MA(1) ................................................................................................................. 24 1.8.5 - Stazionarietà ed invertibilità per processi AR(p) ed MA(q) ............................................... 25 1.8.6 - Il modello ARMA(p,q) ........................................................................................................ 26 1.9 - Significatività statistica del coefficiente di autocorrelazione ................................................. 27 1.10 - Differenze successive e Modelli ARIMA ............................................................................ 28
4
Capitolo I
Analisi delle serie storiche
- Introduzione
Si definisce una serie storica una successione ordinata di numeri reali che misura un certo
fenomeno seguendo un preciso ordine temporale. Lo studio di tale successione trova la propria
ragion d'essere nel fatto che la conoscenza di quanto è avvenuto determina ciò che avverrà secondo
un principio generale di inerzia e di stabilità delle leggi che conosciamo. Nel caso in cui la serie
storica oggetto di studio non è di tipo deterministico ma si basa su una certa distribuzione di
probabilità, sarà chiamata processo stocastico.
Si definisce processo stocastico una famiglia di variabili casuali caratterizzate da un parametro "t"
(nel caso delle serie storiche tale parametro consiste nell'unità di tempo considerata). Tali variabili
casuali sono definite tutte nel medesimo spazio fondamentale "S"1.
In altre parole si può affermare che una data serie temporale è una particolare realizzazione di un
processo stocastico.
Figura 1.1 Esempio di una serie storica: serie osservata dei prezzi di riferimento giornalieri del titolo B.di Roma dal 4/02/’99 all’1/12/’99.
1 Lo spazio fondamentale è l’insieme degli eventi possibili. Quando si parla di variabili casuali esso coincide con il campo di esistenza di una funzione, la variabile casuale appunto, la quale va da SàR con R insieme dei numeri reali.
5
Figura 1.2: Serie osservata dei prezzi di riferimento settimanali2 del titolo B.Roma nel periodo Febbraio /Dicembre ’99.
1.1 - Identificazione e Previsione
Prima di approfondire l’analisi dell’investigazione di una serie storica, vanno sottolineate le due
principali finalità da perseguire allorquando si studia una sequenza di dati osservati nel corso del
tempo: innanzitutto va identificata la natura del fenomeno rappresentato dalla sequenza di
osservazioni a disposizione3; il secondo aspetto da valutare è la possibilità di operare previsioni
attendibili di sequenze di dati futuri sulla base delle informazioni disponibili dalla sequenza
osservata. Tali fattori vengono riportati in letteratura rispettivamente con i termini di identificazione
e previsione. Per perseguire entrambi molto spesso si assume che i dati siano la realizzazione di una
combinazione nota di un set di componenti predefinite più un termine di errore di natura stocastica
che normalmente crea delle difficoltà di identificazione del modello che si presta meglio a spiegare
il fenomeno osservato. In generale va detto che la maggior parte delle serie storiche possono essere
descritte in termini di due componenti fondamentali: il trend e la stagionalità. Il primo rappresenta
una componente della serie che cambia nel corso del tempo senza tuttavia presentare dei cicli
prevedibili a priori; la componente stagionale, al contrario, esprime delle variazioni riscontrabili ad
intervalli regolari e sistematici. Per quanto riguarda l’analisi del trend va sottolineato che non
esistono tecniche sempre valide ed “immediate” per evidenziare un trend, tuttavia laddove il trend è
monotono crescente o decrescente l’analisi risulta piuttosto facilitata. Molto spesso una semplice
osservazione visiva della serie permette di diagnosticare la presenza di un trend, tuttavia, laddove
2 I grafici delle figure 1.1 ed 1.2 riportano l’andamento dei prezzi del medesimo titolo e nel medesimo arco temporale, tuttavia l’unità temporale di riferimento che caratterizza il parametro t è giornaliera nel primo grafico, settimanale nel secondo. Risulta in tal modo chiaro quanto possa essere determinante la scelta del parametro temporale per descrivere un fenomeno oggetto di studio.3Il processo di identificazione comporta un’attenta analisi della serie osservata volta a delineare la giusta relazione funzionale da associare alla serie:l’impatto che le variabili esaminate hanno sulla serie nel corso del tempo.
6
non si è certi di poter fare affidamento su semplici impressioni, può essere utile analizzare le
funzioni di autocorrelazione in seguito specificate4. Spesso è necessario, al di là della mera
evidenziazione, rimuovere la componente di trend. A riguardo esistono varie metodologie, tra tutte
la più usata, nonché la più facile da utilizzare, risulta essere quella delle differenze successive5. Tale
approccio si rivela molto conveniente allorquando si rimane nell’ambito della modellistica ARIMA
in seguito analizzata. In generale risulta utile “ridurre” la presenza di fattori di “disturbo” che
possono “nascondere” la componente di trend: tale obiettivo può essere raggiunto attraverso
l’utilizzo di opportune medie mobili. La componente stagionale è invece facilmente riscontrabile
osservando l’eventuale correlazione tra un elemento della serie e gli elementi successivi. Da un
punto di vista formale ciò è possibile attraverso l’analisi della funzione di autocorrelazione: un utile
strumento sia per l’analisi del trend che per l’analisi di fattori stagionali. Va sottolineato inoltre che,
anche per “smussare” le componenti stagionali, le medie mobili rappresentano un metodo efficace
in quanto, per costruzione, tendono a ridimensionare eventuali “outperformance”.
020406080100120140160180
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29
Figura 1.3: Esempio di serie storica con una chiara presenza di una componente di trend definita e crescente.
4 In particolare, se la funzione di Autocorrelazione globale tende a zero molto lentamente e con un andamento rettilineo, si può essere certi della presenza di una componente di trend che caratterizza la serie di dati esaminata.Ulteriori importanti indicazioni si possono dedurre dall’analisi della funzione di autocorrelazione parziale che, in presenza di trend, fornirà valori prossimi a uno e molto più vicini a zero per K>1.5 Una definizione completa delle differenze successive è presente nel paragrafo 1.10.
7
0
20
40
60
80
1001 3 5 7 9 11 13 15 17 19 21 23 25 27 29
Figura 1.4: Evidenziazione del trend nella serie della figura 1.3 attraverso una media mobile esponenziale con peso pari a 2/(n+1) dove n è la numerosità della serie osservata.
Figura 1.5: Esempio di come detrendizzare (o eliminare la componente di trend) la serie della figura 1.3. Per ottenere la serie detrendizzata è stata applicata una differenza prima alla serie della figura 1.3. In altre parole il valore assunto dalla serie detrendizzata al tempo t è dato dalla differenza tra il valore della serie della figura 1.3 al tempo t, meno il valore della serie in figura 1.3 al tempo t-1. In tal modo si ottiene una serie priva della componente di trend lineare.
8
1.2 - Strumenti di analisi per l’identificazione e la previsione: le medie mobili e lo smorzamento esponenziale
La figura 1.4 rappresenta in concreto come evidenziare la componente di trend di una serie
osservata utilizzando le medie mobili. In generale le tecniche di smussamento rappresentano il
primo passo per individuare un opportuno modello di previsione da applicare alla serie oggetto di
studio. La serie smussata attraverso l’utilizzo di una media mobile evidenzia un andamento
chiaramente lineare crescente, lasciando presupporre che un buon modello di previsione capace di
prevedere al meglio i valori futuri della serie potrebbe essere un modello lineare in funzione del
tempo: l’unità temporale diventa regressore del modello adottato. Le medie mobili vengono
calcolate su un insieme di osservazioni di numerosità costante e predeterminata, da aggiornarsi nel
tempo mediante l’eliminazione dei dati più vecchi e l’introduzione di quelli più recenti: in tal modo
si ottiene, così come si vede nella figura 1.4, una serie storica appiattita, caratterizzata da un ritardo
temporale rispetto a quella originaria, alla quale di solito viene affiancata. Un’ulteriore decisione
riguarda la metodologia di computo della media; di solito si utilizzano la media semplice, quella
ponderata o quella esponenziale. La media mobile semplice è quella più utilizzata:
n
inPnMMS
n
i∑
−
=−
=
1
0)(
)(
In questo caso ai dati della serie viene attribuito un identico peso, 1/n, che si annulla
istantaneamente nel momento in cui gli stessi vengono gradualmente eliminati. Tale indicatore è
caratterizzato dal fatto di presentare una scarsa sensibilità ai dati più recenti. La media mobile
ponderata viene invece utilizzata allorquando si vuole conservare il più possibile l’informazione
derivante dai dati più recenti. Essa può essere sintetizzata nella formula seguente:
∑∑
−
=
−
=
−
−−= 1
0
1
0
)(
)()()( n
i
n
i
inW
inWinPnMMP
in cui W è un opportuno fattore di ponderazione. Tali sistemi non riducono il rischio di perdita
istantanea delle informazioni meno recenti; per tale scopo vengono utilizzate le medie mobili
esponenziali, le quali assegnano pesi più alti ai dati più recenti mantenendo comunque un peso
consistente per i dati passati. Dalle medie mobili esponenziali si ottengono delle curve vicine alle
serie storiche originarie da cui scaturiscono le sequenze di medie mobili. La formula per calcolare la
media mobile esponenziale con numerosità n è la seguente:
9
∑
∑−
=
−
−
=
−−= 1
0
)(
1
0
)()()( n
i
in
n
i
in
W
WinPnMME
Con 0<W<1 in modo da attenuarne gradualmente l’effetto senza mai annullarlo. Per il calcolo di
tale media risulta molto utile la seguente relazione ricorsiva:
MME(t)=MME(t-1)(1-W)+Pt(W) .
- Lo smorzamento esponenziale
L’Exponential Smoothing rappresenta un utile strumento di previsione puntuale, soprattutto quando
si hanno a disposizione pochi dati. Esso si rivela un utile metodo per la previsione sotto ipotesi di
aspettative adattive. Tale procedura si basa sull’idea che una ragionevole previsione del valore di
una serie X al tempo t possa essere costituita da una combinazione lineare della previsione fatta
sulla stessa serie nell’istante precedente. Tale combinazione lineare deve però tener conto della
variazione registrata nell’unità temporale precedente tra l’effettivo valore della serie e la previsione
realizzata. Di solito si sceglie tra cinque metodi di smussamento:
• Parametro singolo
• Doppio smussamento
• Moltiplicativo
• Additivo
• Non stagionale.
1.2.1 - Smussamento singolo
Tale metodo si rivela particolarmente appropriato per serie che si muovono casualmente attorno ad
un valore medio costante senza trend o componenti stagionali.
10
. Figura 1.6: La serie in rosso è un tipico esempio di serie da “smorzare” attraverso lo smussamento singolo
Lo smorzamento esponenziale rappresenta il primo strumento da utilizzare per poter eventualmente
“decomporre”6 la serie originaria in un set di componenti predefinito e conseguentemente per
spiegare la serie osservata attraverso un opportuno modello sufficientemente esplicativo ed
efficiente da un punto di vista previsionale. Nell’esempio relativo alla serie ottenuta dal modello
moltiplicativo della figura 1.7 si può riscontrare la capacità dello smorzamento esponenziale di
evidenziare eventuali componenti stagionali da riportare allorquando si vuole costruire un modello
sufficientemente esplicativo per la serie osservata. Se, infatti, si applica a tale serie uno
smussamento esponenziale con costante di smussamento a=0,3, si ottiene il grafico della figura 1.9
dove risulta evidente un aumento repentino dei valori osservati dalla ventisettesima osservazione in
poi, a testimonianza della presenza di una componente di segno positivo che caratterizza l’intervallo
temporale che va dalla ventisettesima osservazione alla sessantesima.
6 Il termine non è stato usato a caso in quanto in questi casi si parla di metodi di decomposizione della serie osservata: si cerca cioè di individuare ed isolare le componenti di trend, stagionalità ed eventuali componenti cicliche e si analizza il tipo di relazione che intercorre tra queste stesse componenti (additiva, moltiplicativa, etc.).
11
-4
-2
0
2
4
6
81 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58
Figura 1.7: Esempio di serie storica con una componente di trend moltiplicata per una componente stagionale più una componente casuale di tipo normale.
La serie della figura 1.7 è stata ottenuta moltiplicando una componente di trend per una componente
stagionale più un termine di errore di natura stocastica. In pratica tale serie è la risultante di tre
componenti: trend, stagionalità e fattore casuale. La relazione è di tipo moltiplicativo, sintetizzabile
con il seguente modello:
tttt tBSX ε+= **
con tS componente stagionale pari ad 1 per t che va da 1 a 27, uguale a 2 per le restanti
osservazioni. La componente di trend è stata posta pari a 0,3 mentre il termine di errore è stato
ottenuto attraverso l’uso di un generatore di numeri casuali provenienti da una distribuzione
normale standard. Applicando una media mobile di tipo esponenziale a otto termini con peso W=2/
(n+1), così come si può osservare nella figura 1.8, vengono maggiormente messi in risalto sia il
trend crescente che la componente stagionale che fa “lievitare” la serie dalla ventisettesima
osservazione in poi. Da notare che in questo caso basta applicare una trasformazione logaritmica
alla serie originaria per avere le tre componenti (trend, stagionalità e componente casuale) legate da
una reazione puramente additiva di facile approccio. In questo caso si è usato il metodo dello
smussamento singolo poiché la componente di trend non era particolarmente rilevante. In generale,
se il campione di osservazioni va da 1 a T, la previsione per il valore futuro della serie al tempo
(T+k), con K>0, risulta essere: TkT FF =+ . Da sottolineare infine che molto spesso risulta
particolarmente conveniente attuare delle trasformazioni di tipo logaritmico o di tipo esponenziale
per “facilitare” il compito di un’esatta identificazione.
12
-1
-0,50
0,51
1,52
2,53
3,54
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55
Figura 1.8: Sequenza di medie mobili esponenziali di otto termini applicata alla serie della figura 1.6.
-2-101234567
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58
Figura 1.9: Smussamento esponenziale della serie della figura 1.3 con costante di smorzamento a=0,3. Lo smussamento evidenzia il fattore stagionale dalla ventisettesima osservazione in poi.
13
Figura 1.10: La serie in blu rappresenta la serie originaria costituita da un trend lineare più un termine di errore proveniente da una popolazione con distribuzione normale con media zero e varianza uno. La serie verde rappresenta la serie blu smussata attraverso il metodo dello smussamento singolo, quella in rosso rappresenta la serie smussata attraverso il metodo dello smussamento doppio.
1.2.2 - Smorzamento doppio (ad un parametro)Tale approccio risulta molto efficace allorquando si analizza una serie con trend chiaramente
lineare. In questo caso si effettua uno smorzamento preventivo. Per ulteriori dettagli su tale metodo
vedi il paragrafo 1 dell’Appendice.
1.2.3 - Smorzamento moltiplicativoTale metodo è appropriato per serie con trend lineare e variazione stagionale moltiplicativa. La serie
smussata F sarà data dalla seguente relazione:
kcbkaF tkT ++=+ )(
con a intercetta o componente permanente, b trend della serie, tc fattore moltiplicativo stagionale.
Questi tre coefficienti sono definiti in maniera formale nell’appendice, paragrafo A1.
14
Figura 1.10: L’efficacia dello smussamento doppio per serie con trend lineare evidente è riscontrabile in tale figura.
1.2.4 - Smorzamento additivo (tre parametri)Tale metodo è appropriato per serie con un trend lineare nel corso del tempo ed una variazione
stagionale additiva. La serie smussata è data dalla seguente relazione:
ktkt cbkaF ++ ++=
con a intercetta o componente permanente, b componente di trend, tc fattore stagionale additivo di
trend. Le formule relative a tali coefficienti sono riportate in appendice.
In questo caso una previsione al tempo (T+k) è data da:
sktkT ckTbTaF −++ ++= )()(
1.2.5 - Smorzamento non stagionale a due parametri7
Tale metodo risulta appropriato per serie con trend lineare e senza variazioni stagionali. Esso è
simile al metodo dello smorzamento doppio ma rispetto a questo utilizza si differenzia poiché
utilizza due parametri invece che uno. La serie smussata è data da:
bkaF kT +=+
7 Oltre ai suddetti metodi ne esistono molti altri (tra gli altri va ricordato il filtro di Hodrick-Prescott), la conoscenza dei quali porta ad un approfondimento dell’argomento al di sopra del livello necessario di conoscenze per lavorare con serie storiche di tipo finanziario.
15
con a intercetta e b componente di trend. Le relazioni analitiche relative ai parametri della serie
smussata vengono, come al solito, riportate in Appendice.
1.3 - Momenti di un processo stocastico Finora si è implicitamente assunto che, nello studio di una serie storica osservata, si lavora in realtà
con due serie: quella empirica e quella desunta dal modello scelto da associare alla sequenza
osservata. Se per esempio guardiamo ai vari metodi di smussamento esponenziale esposti in
precedenza, si può vedere come alla fine le serie siano sempre due: X ed F, dove F è la serie X
"smorzata" o serie delle previsioni (Forecast). La differenza tra le due serie risulta essenziale se si
vuole avere un'idea sulla bontà della scelta effettuata per quanto riguarda il modello da associare
alla serie empirica. In quest'ottica risulta fondamentale studiare i momenti della serie scaturita dal
modello scelto, i cosiddetti momenti teorici, attraverso i quali si possono accettare determinate
ipotesi, come ad esempio la stazionarietà, che facilitano enormemente lo studio di una serie. Lo
studio dei momenti, ed in particolare di alcuni momenti della serie, deriva dal fatto che tutti i
modelli stocastici sono in grado di generare una serie temporale di lunghezza infinita, di
conseguenza è necessario riassumere le informazioni a disposizione attraverso poche grandezze
caratteristiche. Tale compito può essere svolto in due modi: o attraverso la specificazione della
distribuzione di probabilità congiunta della serie nel corso del tempo, o attraverso il calcolo dei
momenti del processo teorico. La prima opzione risulta piuttosto complicata, di conseguenza si
analizzano i momenti teorici, in particolare i momenti di primo e second'ordine. Di seguito verranno
esposte le relazioni formali che esprimono i momenti teorici di primo e second'ordine sottolineando
come essi siano tutti in funzione dell'unità temporale.
1.3.1 - Valore medio attesoUna volta assunto il modello da "associare" alla sequenza di valori osservati, si assume che i valori
generati da tale modello appartengano ad un processo stocastico che chiameremo tZ . Il valore
medio atteso del processo stocastico suddetto sarà espresso dalla relazione:
)()( tZEt =µ
dove E sta per Expected value. Tale terminologia sta a sottolineare che il valore espresso è il valore
che si attende dovrebbe realizzarsi nel lungo periodo. In realtà la relazione suddetta è un vero e
proprio "artificio teorico" poiché, essendo la serie di lunghezza infinita, probabilmente non si
arriverà mai al valore suddetto. Il valore medio costituisce il momento di prim'ordine della serie
teorica studiata e si differenzia notevolmente dal momento di prim'ordine della serie osservata: in
16
quest'ultimo caso infatti il valore non è nient'altro che la media dei valori osservati. Da notare che,
così come evidenziato dalla formula, il valore atteso è espresso in funzione del parametro
temporale.
1.3.2 - Varianza In formulae si ha:
[ ] )var()()( 22tt ZtZEt =−= µσ
Anche in questo caso la relazione evidenzia la dipendenza della varianza dal tempo. La varianza è
un momento di second'ordine che esprime una misura della dispersione media della variabile Z
rispetto al suo valore atteso nel corso del tempo. La radice quadrata della varianza si definisce come
scarto quadratico medio.
1.3.3 - AutocovarianzaL’autocovarianza è la covarianza tra valori della serie Z in istanti temporali diversi. Normalmente la
covarianza misura la tendenza di due grandezze a variare nello stesso senso, in questo caso si
utilizza un’unica variabile misurata in due istanti temporali diversi. In formulae si ottiene:
[ ] )cov())())(((),( kttktt ZZtZtZEktt ++ =−−=+ µµγ
Da notare che l’autocovarianza è funzione di due istanti temporali, t e (t+k). In quest’ottica la
varianza risulta essere un caso particolare dell’autocovarianza, ponendo k=0.
1.4 – Una breve analisi delle funzioni di autocorrelazioneSempre nell’ottica del perseguimento di un’esatta identificazione del modello più appropriato da
associare alla serie osservata, risulta molto importante l’analisi delle funzioni di autocorrelazione e
di autocorrelazione parziale. L’autocorrelazione supera, rispetto all’autocovarianza, il limite di
quest’ultima di non essere compresa fra limiti fissi in quanto compresa tra i valori estremi di –1 e
+1. L’autocorrelazione si ottiene semplicemente dividendo l’autocovarianza per il prodotto degli
scarti quadratici medi di tZ e ktZ − .
La “funzione di autocorrelazione globale” )(kρ del processo stocastico tX è il coefficiente di
correlazione lineare tra le variabili casuali tZ ed ktZ − calcolato al variare di k=0,1,2,….
17
)()(),()()(
ktt
kttktt ZVarZVar
ZZCovZZCorrk−
−− ==ρ ;
Lo strumento utilizzato per visualizzare le eventuali correlazioni seriali tra i termini della serie è il
correlogramma. Esso rappresenta l’insieme dei coefficienti di autocorrelazione per k=0,1, 2,3,…..
riportati su di un sistema di assi cartesiani che vede sull’asse delle ascisse il lag K8 e sull’asse delle
ordinate )(kρ . I valori ottenuti saranno tutti compresi tra –1 e +1. Molto spesso la morfologia
assunta dal correlogramma aiuta nel processo di identificazione del giusto modello da associare alla
sequenza osservata. Va sottolineato inoltre che l’eventuale presenza di una forte correlazione
seriale rende impossibile assumere l’ipotesi di indipendenza dei valori osservati, ponendo non pochi
problemi per quanto riguarda l’identificazione di un modello significativo. Un altro utile metodo per
esaminare la dipendenza seriale tra i termini della serie in esame è la funzione di Autocorrelazione
parziale. Essa rappresenta un’estensione della funzione di Autocorrelazione globale. La funzione di
autocorrelazione parziale kkφ viene definita come la correlazione lineare tra tZ e ktZ − al netto delle
correlazioni lineari intermedie. Un’analisi più dettagliata di tale funzione verrà fatta allorquando si
tratteranno i modelli di Box & Jenkins.
1.5 - Ergodicità La stima della funzione di autocorrelazione globale a partire da una serie storica richiede il
concetto di ergodicità9. Formalmente un P.S. temporale si dice ergodico se la media di insieme
tende alla media temporale al divergere delle osservazioni dove per media d’insieme si deve
intendere n
tztz
n
jij
i
∑== 1
)()(
, la media cioè nella medesima unità temporale it di n manifestazioni del
processo stocastico z; la media temporale risulta invece essere la media dei valori riscontrati su z
per più unità temporali:
n
tztz
i
n
ik )(
)( 1∑
== .
8 Per lag k si intende il ritardo di ordine k. Se k=1, allora si ha k=t-(t-1), se k=2, k=t-(t-2).9 Il fatto che si possa ottenere una stima consistente delle proprietà statistiche di un P.S. stazionario dallo studio di un solo campione temporale di lunghezza finita non è per nulla ovvio; quello che si ricerca è un P.S. nel quale la rilevazione effettuata su una singola manifestazione temporale in un gran numero di punti successivi porta alle stesse distribuzioni statistiche che si otterrebbero considerando un gran numero di valori riferiti allo stesso istante t. Se viene riscontrato ciò allora risulta molto conveniente considerare una singola manifestazione in tempi successivi piuttosto che ricorrere a più manifestazioni dello stesso processo.
18
1.6 - Stazionarietà dei processi stocasticiTutte le relazioni analizzate finora risultano funzioni del tempo comportando notevoli problemi di
analisi. Se ad esempio si afferma che il valore medio atteso )()( tZE t µ= , implicitamente si assume
che al variare del tempo il valore atteso di Z sarà quasi sempre diverso rispetto al periodo
precedente. Tale relazione “perennemente mutabile” potrebbe continuare all’infinito visto che la
relazione è in funzione del tempo ed inoltre anche le grandezze descritte precedentemente,
autocovarianza, autovarianza e funzioni di autocorrelazione, avrebbero lo stesso problema. Tale
inconveniente viene in qualche modo aggirato introducendo l’ipotesi di stazionarietà di opportune
trasformazioni del processo stocastico analizzato.
Da un punto di vista formale si considerano due definizioni di stazionarietà: in senso debole ed in
senso forte.
Un processo stocastico tX si dice stazionario in senso debole di ordine10 due se sono rispettate le
seguenti condizioni:
µ=)( tXE
+ ∞<=−= 22 ])[()( σµtt XEXV
)()])([(),( kXXEXXCov kttktt γµµ =−−= −− per ogni K≠0;
Con μ, 2σ e )(kγ indipendenti dal tempo; 2σ con un valore finito; )(kγ dipendente solo da K.
La stazionarietà in senso forte di un P.S. è invece una condizione molto più restrittiva, difficilmente
riscontrabile e, di conseguenza, poco utile da un punto di vista operativo: essa poggia sull'assunto
che tX abbia associata una forma di distribuzione che non varia nel tempo.
Un semplice esempio di P.S. stazionario è il White Noise (WN), o Rumor Bianco, nel quale le
variabili casuali hanno una distribuzione indipendente ed egualmente distribuita (i.i.d.):
0)( =tE ε ;
;)()( 22 + ∞<== σεε tt EV
)(0)(),( kECov kttktt γεεεε === −− per ogni K≠0.
10 Si è specificata la stazionarietà in senso debole di ordine due poiché è la più usata, in generale l’ordine coincide con il numero di momenti che si richiede debbano essere indipendenti dal tempo.
19
Figura 1.11: Visualizzazione di una sequenza di dati generati da un processo stocastico stazionario.Si può osservare come vi sia un continuo ritorno al valore medio, continue oscillazioni attorno ad esso.
Figura 1.12: Correlogramma di un processo AR(1) stazionario con parametro positivo.
20
Figura 1.13: Correlogramma di un processo AR(1) non stazionario. Da notare come il correlogramma decresca molto lentamente nel tempo.
1.7 - Invertibilità dei processi stocasticiUna seconda proprietà molto importante non sempre riscontrabile nei processi stocastici è
l’invertibilità. Nello studio dei modelli econometrici molto spesso si trova, tra le ipotesi di base dei
modelli, oltre alla stazionarietà, anche l’invertibilità. Tale ipotesi viene richiesta per evitare la
molteplicità dei modelli applicabili al fenomeno oggetto di studio: può accadere infatti che ad
uguali strutture statistiche possano corrispondere due o più modelli diversi. Per quanto riguarda i
modelli comunemente utilizzati nel campo finanziario, tale problema si incontra per i processi a
media mobile11 mentre per quanto riguarda quelli autoregressivi tale condizione è sempre verificata.
Vedremo come tale proprietà sia facilmente riscontrabile allorquando si lavora con i modelli di Box
& Jenkins.
1.8 - I modelli stocastici di Box e JenkinsI modelli di Box e Jenkins sono numerosi ma tutti derivano da due fondamentali:
il modello autoregressivo ed il modello a media mobile. Vi è poi il modello misto che comprende i
due precedenti. Nella descrizione dei modelli di Box & Jenkins, senza perdita di generalità, verrà
posta µ=0 (assenza di intercetta).
11 I modelli Autoregressivi, a media mobile ed i modelli misti vengono analizzati nei paragrafi successivi.
21
1.8.1 - Modello autoregressivo di ordine p (AR(p))
tptpttt azzzz ++++= −−− φφφ .....2211
I parametri pφφφ ,......,, 21 costituiscono i coefficienti della regressione lineare della variabile casuale
tz rispetto ai suoi stessi valori passati, ta , processo WN, è il termine di errore. In modo sintetico il
modello autoregressivo viene indicato con AR(p). Da rilevare che la presenza come regressori di
valori passati della variabile dipendente fa si che la teoria classica della regressione non si possa
applicare completamente al modello esaminato12.
Si può sottolineare come un AR(1) possa essere derivato dalla decomposizione di Wold (Vedi
Appendice: Il teorema di Wold) scegliendo opportunamente i pesi13; se infatti si pone jj φψ = , il
processo { }tX potrà essere scritto come:
ttttttttt aXaaaaaaX +=+++=+++= −−−−− 12122
1 ...)(.... φφφφφ
In generale, lavorando con processi AR(p), risulta conveniente utilizzare l’operatore backshift B,
denominato anche lag operator, che semplifica notevolmente determinate relazioni. Tale operatore
si definisce come segue:
1−= tt XBX
ed in generale si ha:
mttm XXB −=
mentre se si ha a che fare con una costante µ si ha:
µµ =mB .
1.8.2 -Processo AR(1)Utilizzando il lag operator, il processo autoregressivo di ordine uno potrà essere espresso nel
seguente modo:
tt aXB =− )1( φ
in modo tale da avere:
......)1()1( 22
1221 +++=+++=−= −−
−tttttt aaaaBBaBX φφφφφ
Quest’ultima relazione convergerà solo se 1<φ (condizione di stazionarietà per il processo X).
12 La presenza di variabili ritardate comporta una distorsione (Bias) delle stime dai parametri φ per piccoli campioni.13 Tale assunzione vale per processi stocastici AR(p) di tipo stazionario.
22
Un processo AR(1) ha, così come si è dimostrato in Appendice, una funzione di autocorrelazione
globale data da kk φρ = . In tal modo si può affermare che per φ>0 la funzione di autocorrelazione
globale tende a zero in modo monotono, mentre per φ<0 essa varierà tra –1 ed 1 a segni alterni.
In definitiva, osservando anche i correlogrammi riportati nelle figure 1.12, 1.13, 1.14, un andamento
monotono decrescente chiaro e rilevabile già dopo pochi lag indica che il processo analizzato
potrebbe essere un AR(1) stazionario con parametro positivo, un correlogramma che presenta un
andamento altalenante del tipo della figura 1.12 suggerisce che il processo in esame può essere un
AR(1) stazionario con parametro negativo; infine un correlogramma che presenta un andamento
decrescente “slowly” come quello in figura 1.11 suggerisce di considerare il processo in esame
come un AR(1) non stazionario.
Figura 1.14: Correlogramma di un AR(1) stazionario con parametro φ<0.
1.8.3 - Modello a media mobile
qtqttt aaaz −− −−−= θϑ ....11
I parametri qθθ ,.......,1 sono costanti, a è il termine di errore, questa volta presente come regressore
nelle q unità temporali considerate. In questo caso, da un punto di vista formale, il modello viene
denominato MA(q): Moving Average di ordine q.
Essendo q un numero reale, il processo è costituito da un numero finito di termini q. Quest’ultima
considerazione permette di assicurare la stazionarietà di un MA(q) senza nessuna restrizione per
quanto riguarda i parametri del processo.
23
La media di un MA(q) è zero poiché tale processo, senza intercetta, non è altro che una
combinazione lineare di variabili casuali di tipo WN con media zero.
Le autocovarianze di un MA(q) sono espresse dalla seguente relazione:2
2211 )...( akqqkkkk σθθθθθθθγ −−− ++++−= (k=1,2,3,…,q)
0=kγ (k>q)
Come al solito la varianza si ottiene dall’autocovarianza ponendo k=0:222
22
10 )...1( aq σθθθγ ++++=
Tali relazioni confermano la stazionarietà di un processo MA(q) poiché nessuna delle grandezze
descritte dipende da t.
1.8.4 - Processo MA(1)Un processo del tipo:
11 −−= ttt aaz ϑ
si definisce MA(1). Anche in questo caso si può esprimere il processo suddetto in funzione del lag
operator, ottenendo la seguente relazione:
tt aBZ )1( θ−= .
Figura 1.15: Correlogramma di un processo MA(1) con parametro –0,4.
24
Come si può osservare dalla figura 1.15, il processo MA(1) presenta una spiccata correlazione tra le
osservazioni immediatamente successive (o precedenti) (K=1) mentre per le altre osservazioni il
processo non ha memoria, determinando un correlogramma sostanzialmente diverso da quelli
analizzati per i processi autoregressivi. Tali difformità morfologiche aiutano nel processo di
identificazione di una serie storica. Un’altra caratteristica rilevante per un processo MA(1) si ottiene
osservando la funzione di autocorrelazione globale per k=1: da essa si ricava infatti la seguente
equazione:
0112 =++ ρθρθ
Dalla quale si ricava, per valori del parametro θ reali, 21
21
1 <<− ρ . L’equazione suddetta lascia
spazio ad un’ulteriore considerazione che richiama il concetto di invertibilità precedentemente
espresso: essa infatti ha come soluzioni reali sia θ che 1/θ, il che equivale a dire che per ogni
correlogramma come quello espresso nella figura 1.15, corrispondono due processi MA(1), uno con
parametro θ e l’altro con parametro 1/θ. In questi casi si privilegia il processo MA(1) con parametro
–1<θ<1 poiché in tal modo si lavora con un processo MA(1) che può essere trasformato in un
processo autoregressivo stazionario di ordine infinito (AR(∞)):
tttt aZZZ +++= −− ...2211 ππ
con ∞<∑ jπ (pesi convergenti).
1.8.5 - Stazionarietà ed invertibilità per processi AR(p) ed MA(q)Le due condizioni di stazionarietà e di invertibilità per i processi stocastici sopra descritti vengono
presentate congiuntamente poiché si può dimostrare che la condizione di stazionarietà per un AR(p)
coincide con la condizione di invertibilità di un MA(p). Si è già visto come un processo MA(q) è
sempre stazionario, analogamente un processo AR(p) è sempre invertibile. L’invertibilità, è bene
ribadirlo, consente di far corrispondere ad una certa funzione di autocorrelazione uno ed un solo
modello esplicativo. Un processo MA(q) non è invece sempre invertibile. Nell’Appendice viene
riportata la condizione di Box & Jenkins per l’invertibilità di un MA(q) (o per la stazionarietà di un
AR(q)).
25
1.8.6 - Il modello ARMA(p,q)Il terzo modello fondamentale di B&J è una combinazione tra il processo autoregressivo e quello a
media mobile. Si può considerare, ad esempio, la combinazione tra un AR(1) ed un MA(1), noto
come ARMA(1,1):
111 −− −=− tttt aaZZ θφ ,
Il modello ARMA(1,1) porta quindi sia ad una rappresentazione infinita di un processo
autoregressivo che di un processo a media mobile sempre con infiniti pesi.
In generale, generalizzando ad un processo ARMA(p,q), le condizioni viste nei paragrafi precedenti
e nell’Appendice riguardanti la stazionarietà dei processi AR e l’invertibilità dei processi MA
valgono anche per i processi ARMA.
Per le determinazioni delle funzioni di Autovarianza, Autocovarianza ed Autocorrelazione vedi
l’Appendice. In generale un processo ARMA(p,q) può essere ottenuto dalla combinazione tra un
AR(p) ed un MA(q):
qtqttptptt aaaZZZ −−−− −−−=−−− θθφφ ...... 1111
o, alternativamente, espresso dalla relazione:
tq
qtp
p aBBZBB )...1()...1( 11 θθφφ −−−=−−−
sinteticamente esprimibile come:
tt aBZB )()( θφ = .
Le condizioni di stazionarietà e di invertibilità associate rispettivamente ai processi AR(p) e MA(q)
permangono per il processo ARMA(p,q). Il correlogramma di un processo ARMA(p,q) conserva le
stesse caratteristiche di un correlogramma di un AR(p) tranne che per i primi q-p valori iniziali. La
funzione di autocorrelazione parziale, per k>p-q, si comporta come un processo MA(q).
I tre correlogrammi di seguito evidenziati rappresentano, rispettivamente, partendo da sinistra ed
andando in senso orario, i correlogrammi di un AR(1) stazionario, di un MA(1) e di un ARMA(1,1)
stazionario. I parametri dei tre processi non sono uguali tuttavia risulta lo stesso visibile quanto
esposto in precedenza: il processo ARMA(1,1) ha una funzione di correlazione globale simile a
quella di un processo AR(1) e le funzioni di autocorrelazioni parziali simili a quelle di un processo
MA(1).
26
1.9 - Significatività statistica del coefficiente di autocorrelazioneL’importanza dei correlogrammi è stata ampiamente evidenziata nei paragrafi precedenti. La forma
assunta da questi permette di associare un modello ad una serie empirica di osservazioni da
esaminare. I grafici riportati presentano tuttavia, oltre alla rappresentazione delle determinazioni
assunte dalle funzioni di autocorrelazione all’aumentare del lag k, anche delle “bande di
oscillazione” tratteggiate volte a determinare l’intervallo di confidenza entro cui non si rifiuta
l’ipotesi di assenza di autocorrelazione. Il correlogramma di un processo WN, ad esempio, presenta
una serie di valori giacenti tutti all’interno degli intervalli tratteggiati, in linea con una caratteristica
fondamentale del WN, l’assenza di autocorrelazione per ogni k. La costruzione dei suddetti
intervalli di confidenza si basa su una intuizione di Bartlett, il quale ha dimostrato che un WN ha un
coefficiente di autocorrelazione la cui distribuzione è riconducibile ad una normale con media zero
e varianza 1/n, con n numerosità campionaria. Sotto tale ipotesi è possibile costruire gli intervalli
di confidenza come quelli tratteggiati delle figure presentate precedentemente. In particolare gli
27
intervalli evidenziati graficamente corrispondono ad un livello di significatività del 95% con i due
estremi14 pari a n
196,1 ⋅± .
1.10 - Differenze successive e Modelli ARIMAL’operatore differenza è simile al lag operator, presentando proprietà simili a quest’ultimo. Si
definisce l’operatore differenza D( tY )= 1−− tt YY . Analogamente, come per il lag operator, si ha:
)()()( 12
tttt YDDYYDYD ⋅=−= − ; in generale: )()(...)( 11 t
mttt
m YDDYYDDDYD ⋅=−⋅⋅= −− .
Tale operatore risulta molto spesso fondamentale allorquando si ha a che fare con serie non
stazionarie che, una volta applicato il D-operator, diventano stazionarie. In quest’ottica un modello
ARMA applicato ad una serie tW ottenuta come differenza d-esima di una serie tX viene definito
processo ARIMA(d,p,q) dove d è il numero di differenze per rendere la serie stazionaria, p sono i
termini della parte autoregressiva del processo e q sono i termini della parte a media mobile del
modello. Da sottolineare che l’operatore di differenziazione tende a rendere la serie fortemente
regolare. In sintesi si ha un processo stazionario se d=0, se d=1 il processo è tale che i suoi
incrementi sono stazionari, se d=2 il processo ha livello e pendenza che si modificano nel tempo.
14 Un’analisi dei principali test statistici volti ad individuare l’eventuale presenza di stazionarietà è riportata nel capitolo successivo.
28
29
ANALISI DELLE SERIE STORICHE:Strumenti econometrici utilizzati in finanza
Capitolo II
di Stefano Caprioli [email protected]
TUTTI I DIRITTI RISERVATI
3
CAPITOLO II .......................................................................................................................... 5
Serie non stazionarie .......................................................................................................................... 5 - Introduzione ................................................................................................................................... 5 2.1 - Test per la correlazione seriale ................................................................................................. 5 2.1.1 - Test di Durbin-Watson (DB) ................................................................................................. 6 2.1.2 - Test Q di Ljung-Box ............................................................................................................. 6 2.1.3 - Il test di Dickey e Fuller ...................................................................................................... 10 2.1.4 - Il test di Phillips-Perron ...................................................................................................... 11 2.2 - Identificazione e verifiche di stazionarietà: un caso pratico .................................................. 12
2.3 - L’Analisi di Cointegrazione ................................................................................................... 17 2.4 - Ulteriori considerazioni sulla Cointegrazione ....................................................................... 18 2.5 - Test per la verifica della presenza di cointegrazione tra variabili .......................................... 19 2.6 - Caratteristiche ed interpretazione del test di Johansen ........................................................... 20 2.7 - Un caso pratico: Mibtel e Mib30 ........................................................................................... 23
4
Capitolo II
Serie non stazionarie
- Introduzione
Vi sono importanti differenze tra serie stazionarie e non stazionarie. Uno shock ad una serie
stazionaria è necessariamente di natura temporanea poiché nel corso del tempo esso si annullerà e la
serie tornerà al suo livello medio di lungo periodo. Viceversa, una serie di tipo non stazionario,
avendo media e varianza in funzione del tempo, non ritorna necessariamente a livelli già raggiunti.
Volendo riassumere le principali caratteristiche tipiche di una serie non stazionaria, si può affermare
che:
- essa non presenta un valore medio atteso verso cui la serie tende nel lungo periodo;
- la varianza risulterà dipendente dal tempo ed andrà all’infinito al tendere dell’arco temporale
all’infinito;
- il correlogramma non presenterà un andamento decrescente, al più, per campioni finiti, esso
decrescerà molto lentamente.
In generale l’analisi della funzione di autocorrelazione serve per vedere se la serie presenta una
componente di trend: se così fosse la serie non potrebbe considerarsi stazionaria poiché i suoi
momenti sarebbero in funzione dell’unità temporale t. Un andamento decrescente “slowly” della
funzione di autocorrelazione è un ottimo indicatore della presenza di un trend. Esistono test formali
che possono aiutare a determinare se una serie contiene o no un trend e se il trend è di tipo
deterministico (in funzione di t) o stocastico (in funzione di una variabile casuale). Va tuttavia
sottolineato come i test disponibili presentano una scarsa capacità nel distinguere tra processi non
stazionari e processi che somigliano a processi non stazionari. Tale difetto è dovuto al fatto che
alcuni “falsi” processi non stazionari presentano un correlogramma molto simile a quello di un
processo realmente non stazionario.
2.1 - Test per la correlazione seriale
Esistono numerosi test finalizzati a verificare l’eventuale stazionarietà dei dati osservati. Per quanto,
così come si è visto nel capitolo precedente, la prima verifica da fare è quella di un’attenta
osservazione del correlogramma della serie, risulta sempre opportuno applicare un test che accerti
5
formalmente l’eventuale stazionarietà della serie in esame. Si è già parlato (vedi par. 1.9)
dell’intuizione di Bartlett, tuttavia risulta più conveniente verificare congiuntamente l’assenza di
autocorrelazione seriale per più lag. In quest’ottica vanno considerati i test successivamente
riportati: essi sono solo alcuni dei tanti a disposizione, tuttavia tutti conservano la logica sottostante
i test riportati.
2.1.1 - Test di Durbin-Watson (DB)Il test di Durbin-Watson parte da un processo autoregressivo di ordine uno del tipo:
ttt aYY += − 1φ .
Il sistema di ipotesi è il seguente:
≠=
1:0:
11
1
φφ
HHo
Il test viene utilizzato di solito per verificare l’eventuale natura autoregressiva del termine di errore
di un modello di regressione lineare: ipotesi quest’ultima che comporta seri problemi di stima e di
inferenza nell’implementazione di un modello significativo. In questo caso il test può, se viene
accettata l’ipotesi di base 1φ =0, evidenziare la natura di un processo WN per la serie osservata. In
pratica i due autori hanno dimostrato che, se la statistica da essi realizzata assume valori prossimi,
se pur inferiori, a due, allora il parametro 1φ è significativamente maggiore di zero, viceversa, per
valori del test compresi tra due e quattro il test evidenzia la negatività del parametro 1φ , mentre al di
fuori di tali intervalli non si può formulare nessuna ipotesi sulla natura dl processo in esame. Tale
test risulta estremamente restrittivo, non molto utile quindi nella ricerca della stazionarietà di un
processo stocastico. I test riportati in seguito cercano di superare tale limite utilizzando un sistema
di ipotesi diverso.
2.1.2 - Test Q di Ljung-Box
Una caratteristica fondamentale di un processo stocastico stazionario è che tutti i coefficienti di
autocorrelazione seriale kρ risultano essere significativamente non diversi da zero. Tale
assunzione comporta che la determinazione assunta dalla serie al tempo t non influenza il valore
assunto dalla serie al tempo (t+s)>t per qualsiasi s. In quest’ottica tutti i test che verificano l’assenza
di autocorrelazione seriale al variare del lag k verificano, conseguentemente, l’eventuale
stazionarietà della serie. In sintesi il sistema di ipotesi risulta essere:
6
≠=
kunalmenoperkogniper
k
k
00
ρρ
La statistica Q di Ljung-Box permette di verificare il suddetto sistema di ipotesi attraverso la
seguente relazione:
∑ −+=
k
j
j
jnnnQ
1:
2
)2(ρ
con n numerosità campionaria.
Al di là della verifica formale, risulta chiaro che valori bassi della statistica Q inducono a non
rifiutare l’ipotesi di base di assenza di autocorrelazione seriale, al contrario valori elevati di Q
inducono a non rifiutare l’ipotesi alternativa che porta a considerare la serie non stazionaria. Da un
punto di vista statistico la statistica Q, sotto ipotesi di base, ha una distribuzione 2χ . I gradi di
libertà della 2χ a cui fare riferimento sono pari al numero delle autocorrelazioni meno il numero di
termini autoregressivi meno i termini a media mobile. In altre parole, se la serie osservata è
riconducibile ad un modello ARMA(d,q), allora i gradi di libertà per la 2χ saranno pari a s-d-q se
si vuole verificare l’assenza di autocorrelazione seriale per k=1,2,…,s.
Riportiamo di seguito l’output relativo alla verifica di ipotesi di non stazionarietà di in processo
ARMA(1,1):
Figura 2.1:Correlogramma relativo alla funzione di autocorrelazione totale (prima colonna), parziale (seconda colonna), output della statistica Q (terza colonna), probabilità di rifiuto dell’ipotesi di assenza di autocorrelazione seriale.La prima colonna rappresenta i lag osservati.
7
Il correlogramma relativo alla funzione di autocorrelazione globale presenta una forma simile a
quello di un processo AR(1), quello della funzione di autocorrelazione parziale è simile a quello di
un processo MA(1), di conseguenza risulta ragionevole associare alla serie osservata un processo
ARMA(1,1). Le linee tratteggiate verticali rappresentano i livelli di significatività del test di Bartlett
al 95%: anch’esse confermano che le correlazioni seriali significativamente diverse da zero sono le
prime due (osservando congiuntamente le due funzioni di autocorrelazione). La statistica Q è
significativamente elevata, a conferma che le autocorrelazioni seriali osservate non possono essere
trascurate. Da rilevare che l’ultima colonna, costituita da tutti valori nulli, esprime in realtà il fatto
che la probabilità di avere a che fare con una serie stazionaria è così bassa da essere riportata dal
semplice valore nullo. Tale probabilità si ricava dalla distribuzione di una 2χ con i gradi di libertà
pari a (k-2) (k, il lag, meno 1, il termine autoregressivo, meno 1, il termine a media mobile). Di
seguito viene riportato l’output relativo ad una serie stazionaria, in particolare un processo WN per
verificare analogie e differenze con quanto esposto finora.
Figura 2.2: I due correlogrammi testimoniano l’assenza di “memoria” del processo, così come la statistica Q:La probabilità di avere a che fare con una serie stazionaria cresce sempre di più all’aumentare del lag k.
La figura 2.2 evidenzia la differenza di output tra un processo ARMA(1,1) ed un processo WN.
Le principali differenze si notano nella terza e nella quarta colonna. I due processi, della medesima
numerosità campionaria, presentano valori della statistica Q sostanzialmente diversi. I bassi valori
della Q nel WN confermano l’assenza di autocorrelazione seriale del processo osservato. La quarta
8
colonna evidenzia che la probabilità di avere coefficienti di autocorrelazione seriale
significativamente non diversi da zero cresce al crescere di k.
Figura 2.3: Grafico di un processo Random Walk.
Figura 2.4: Correlogramma del processo RW della figura 2.1.
9
2.1.3 - Il test di Dickey e Fuller
Dickey e Fuller hanno realizzato una procedura per verificare la non stazionarietà di un processo
oggetto di studio molto usata e presente sui principali software di econometria. Si supponga di voler
verificare l’eventuale stazionarietà della serie ttt aYY ++= − 1βα con, come al solito, ta WN. Il
sistema di ipotesi potrebbe essere implementato nel modo seguente:
<=
astazionarièserieLaHastazionariènonserieLaH o
1:1:
1 ββ
Tale sistema di ipotesi non può essere verificato utilizzando un test t (ipotizzando quindi che sotto
ipotesi nulla la serie abbia una distribuzione riconducibile ad una t di Student), poiché per
costruzione il modello presenta tra i regressori la variabile dipendente calcolata nell’unità temporale
immediatamente precedente (t-1). Per superare tale inconveniente Dick & Fuller hanno pensato di
ricorrere a procedure di calcolo numerico (il cosiddetto metodo di Monte Carlo), ricavando una
propria distribuzione di probabilità volta a verificare il sistema di ipotesi suddetto. I due hanno
generato per mezzo di un computer migliaia di sequenze di valori provenienti da pseudo1
passeggiate aleatorie2 (Random Walk) con intercetta α:
ttt aYY ++= − 1βα con β=1.
Sebbene la maggior parte delle stime ottenute risulteranno prossime ad uno, alcune lo saranno
maggiormente di altre: dai dati ottenuti è possibile ricavare una distribuzione empirica delle stime di
β sotto ipotesi che il β reale sia, per costruzione, pari ad uno. Il lavoro di D&F può essere riassunto
nei seguenti passi:
1) Per ogni pseudo RW generato, si è stimato il β.
2) Si è calcolata la differenza tra la stima ottenuta del β ed il valore reale, cioè 1.
3) La differenza ottenuta al punto (2) viene divisa per l’errore standard.
Se, per esempio, per un processo pseudo RW, è stato stimato un β pari a 0,9247 con standard error
pari a 0,037, allora si ha:
|(0,9247-1)/0,037|=2,035. Ripetendo i passi suddetti per migliaia di sequenze di pseudo RW, D&F
hanno osservato che:
- Il 90% dei valori stimati di β risultano avere uno standard error inferiore a 2,58;
- Il 95% presenta uno standard error inferiore a 2,89
1 Si parla di pseudo passeggiate aleatorie poiché il computer può generare valori pseudo casuali e non puramente casuali. In altre parole vengono utilizzati algoritmi che generano sequenze di valori simili a valori puramente casuali. 2 In questo caso si può notare l’importanza del calcolo numerico e delle tecniche di generazione di valori casuali determinante in molti casi. Nel campo finanziario tali tecniche di simulazione che utilizzano generatori di valori casuali sono ultimamente molto utilizzate soprattutto per il pricing delle opzioni.
10
- Il 99% delle stime ottenute ha uno standard error inferiore a 3,51.
In tal modo D&F ottengono dei valori critici per verificare la non stazionarietà di un qualsiasi
processo stocastico. In altre parole, dinanzi ad un processo di cui non si conosce la genesi, non si
potrà rifiutare l’ipotesi di non stazionarietà del processo se il valore stimato di β ha una deviazione
standard, come nel nostro esempio, pari a 2,035. I due autori, nella realizzazione del test, hanno
modificato l’equazione originale sottraendo ad entrambi i membri il termine 1−tY in modo tale da
ottenere la seguente relazione:
ttt aYY ++=∆ − 1φα , con sistema di ipotesi riparametrizzato:
<=
astazionarièserieLaHastazionariènonserieLaH o
0:0:
1 φφ
.
Il parametro φ è uguale a (β-1) in modo da avere –2<φ<0 come parametro da analizzare. Da rilevare
che il test descritto è valido solo se la serie osservata è un processo AR(1) con disturbo di tipo WN.
Se la serie è correlata con ritardi di ordine più elevato o gli errori sono autocorrelati l’equazione
ttt aYY ++=∆ − 1φα va generalizzata, utilizzando una delle tre riportate di seguito3:
∑=
+−− +∆++=∆p
itititt ayyy
2110 βγα
∑=
+−− +∆+=∆p
itititt ayyy
211 βγ
∑=
+−− +∆+++=∆p
itititt aytyy
21210 βαγα
Le differenze tra le tre regressioni riguarda la presenza di due elementi di natura deterministica
come 0α e t2α . La prima regressione rappresenta una semplice passeggiata aleatoria, la seconda
aggiunge un’intercetta o drift, la terza include entrambe. In tutti e tre i casi il parametro di interesse
nella regressione è γ: se γ=0, la sequenza { }ty potrà essere considerata non stazionaria. Il test
comporta la stima di una o più equazioni usando il metodo dei minimi quadrati (OLS) per ottenere
il valore stimato di γ e l’errore standard ad esso associato.
2.1.4 - Il test di Phillips-Perron
Tale test ha le medesime finalità del test di D&F pur partendo da considerazioni diverse. In pratica i
due autori cercano di correggere il test t mentre D&F cercarono di generalizzare la regressione
iniziale 3 La generalizzazione porta all’implementazione del cosiddetto test ADF (D&F aggiustato).
11
ttt aYY ++=∆ − 1φα .
Va ricordato che il test t si ottiene dal rapporto tra la stima di β e la sua deviazione standard
campionaria.
La distribuzione asintotica del test PP è la stessa del test di D&F aggiustato: anche in questo caso va
specificato se inserire nel test una componente deterministica di trend e l’intercetta. Per un ulteriore
approfondimento degli aspetti formali e delle relazioni funzionali del test vedi l’Appendice al
capitolo II.
2.2 - Identificazione e verifiche di stazionarietà: un caso pratico
Sia data da analizzare la serie del grafico 2.5:
Figura 2.5: Grafico di una serie con trend definito.
La serie presenta un trend definito, tuttavia va visto se tale trend è di natura deterministica o
stocastica e se la serie è stazionaria o non stazionaria. La figura 2.6 evidenzia la non stazionarietà
della serie in figura 2.5 (che chiameremo serie 2.5) poiché la componente di trend è fortemente
significativa:
12
Figura 2.6: Correlogramma della serie 2.5. Risulta evidente la non stazionarietà della serie.
Tabella 2.1: Il valore ottenuto dal test di D&F, ipotizzando l’assenza di trend, conferma che tale ipotesi è inverosimile: il valore ottenuto è ben lontano dai valori critici.
Il test di D&F implementato nel caso di assenza di trend e di intercetta risulta non praticabile. La
tabella 2.1 è stata riportata per sottolineare l’importanza della scelta dell’equazione di riferimento
del test D&F: omettere una componente di trend chiaramente visibile e riscontrabile anche
attraverso il correlogramma rende privo di senso il test.
Ipotizzando la presenza di trend e di intercetta si verifica, o attraverso il test di D&F, o attraverso il
test di Phillips-Perron, la stazionarietà della serie. La tabella 2.2 riporta l’output del PP test con i
relativi valori critici:
Tabella 2.2: Il valore –14,78040 cade a sinistra dei valori critici, testimoniando la stazionarietà della serie detrendizzata.
13
Per una corretta identificazione del modello da associare alla serie empirica va stimato il trend. A
riguardo conviene analizzare la serie delle differenze prime della serie originaria poiché l’intercetta
della serie delle differenze prime rappresenta il trend della serie originaria. Tale intercetta è
stimabile dalla media della serie stessa: essa rappresenta così il coefficiente di trend della serie 2.5.
Figura 2.7: Serie delle differenze prime della serie 2.5. Si nota un’intercetta positiva che rappresenta il trend della serie 2.5.
Siamo ora in grado di “detrendizzare” la serie originaria sottraendole il fattore β*t , dove β è il
coefficiente di trend e t è l’unità temporale. La serie ottenuta è la serie della figura 2.8 (che
chiameremo serie 2.8). Tale serie risulta chiaramente stazionaria, così come si può verificare
osservando l’output del test di D&F riportato nella tabella 2.3:
Tabella 2.3: Output del test di D&F per la serie detrendizzata in figura 2.8.
14
Figura 2.8: Serie 2.5 detrendizzata.
Per stimare i parametri della serie 2.8 va analizzato il correlogramma della stessa (figura 2.9). La
morfologia del correlogramma in figura 2.9 evidenzia la possibilità di avere un processo
ARMA(1,1) o addirittura un processo ARMA(1,2) viste le rispettive somiglianze del
correlogramma della funzione di autocorrelazione globale con quello di un processo AR(1)
stazionario e del correlogramma delle funzioni di autocorrelazioni parziali con quello di un
processo a media mobile di primo o second’ordine.
Figura 2.9: Correlogramma della serie detrendizzata 2.8.
15
Accettando l’ipotesi di avere a che fare con un processo ARMA(1,1), la stima dei parametri avviene
attraverso complesse procedure iterative, utilizzando le stime campionarie delle autocorrelazioni. In
tal modo si stima prima il coefficiente autoregressivo φ, poi si determina la serie data dalla
differenza tra la serie 2.8 e φ*serie2.8(-1). Se si definisce la serie 2.8 come tX , la serie 2.8(-1) sarà
uguale a 1−tX . La serie ottenuta dovrebbe essere il termine di errore del tipo: 1−+ tt aa θ il cui
correlogramma è osservabile in figura 2.10.
Figura 2.10: Correlogramma della variabile di disturbo nel processo ARMA(1,1). Si nota la correlazione seriale di prim’ordine e forse anche di ordine due. Accettando che la serie della figura 2.10 abbia una componente autoregressiva di ordine uno,
implicitamente si assume che la serie 2.8 sia ARMA(1,1) e la componente a media mobile
dell’ARMA(1,1) si ottiene stimando la componente autoregressiva della serie 2.10. In tal modo si
ottiene una serie stimata della serie ARMA(1,1) non molto lontana dalla serie originaria
detrendizzata.
16
Figura 2.11: In rosso la serie originaria detrendizzata, in blu quella stimata.
2.3 - L’Analisi di Cointegrazione
Attraverso l’analisi di cointegrazione si cerca di individuare un legame lineare tra processi stocastici
non stazionari in modo tale che la suddetta relazione lineare sia stazionaria. In tal modo si individua
un legame stabile nel corso del tempo tra variabili che, in quanto non stazionarie, stabili non sono.
Prima di definire da un punto di vista formale la cointegrazione, occorre specificare il concetto di
serie integrata di un certo ordine. Quest’ultimo concetto è strettamente legato all’operatore
differenza . Una serie si dice integrata di ordine p se:
ttp XD ε=)(
se cioè la serie ottenuta da p differenze risulta essere una serie stazionaria.
L’analisi formale della cointegrazione, affrontata per la prima volta da Engle e Granger nel 1987,
comincia considerando un set di variabili tali che:
0...2211 =+++ txxx nntt βββ
Sia ),...,,( 21 nββββ = e )',...,,( 21 ntttt xxxX = , allora la medesima relazione potrà essere espressa
come: 0=tXβ . Se vale tale relazione, allora il set di variabili )',...,,( 21 ntttt xxxX = viene
considerato in equilibrio (Long run equilibrium). Viceversa la variazione dall’equilibrio viene
chiamata equilibrium error ed è definita come:
tt Xe β= .
Se l’equilibrium error è stazionario, allora le variabili )',...,,( 21 ntttt xxxX = sono in equilibrio.
17
Per una definizione formale di Cointegrazione vedi l’Appendice al Capitolo II, paragrafo A2.2.
Figura 2.12: Esempio di serie I(1) cointegrate.
Figura 2.13: Differenza tra le serie della figura 2.12 La serie ottenuta è chiaramente Stazionaria.
2.4 - Ulteriori considerazioni sulla Cointegrazione
La cointegrazione si riferisce ad una combinazione lineare di variabili non stazionarie.
Teoricamente potrebbe essere possibile che una relazione di tipo non lineare esista tra le variabili
18
esaminate, tuttavia la procedura descritta non permette di verificare questa possibilità. Va poi
sottolineato come il vettore cointegrante non è necessariamente unico. Se ),...,,( 21 nββββ = è un
vettore cointegrante, allora per ogni valore non nullo di λ, ),...,,( 21 nλ βλ βλ β è ancora un vettore
cointegrante. Di solito una delle variabili viene utilizzata per normalizzare il vettore cointegrante
fissando il suo coefficiente pari ad uno. In altre parole si pone 1
1β
λ = .
Da rilevare inoltre che tra le condizioni richieste vi è l’integrazione di uno stesso ordine d per tutte
le variabili in gioco. Naturalmente ciò non implica che tutte le variabili di tipo I(d) siano
cointegrate.
Se il vettore )',...,,( 21 ntttt xxxX = ha n componenti, ci potrebbero essere al massimo n-1 vettori
cointegranti linearmente indipendenti. Ad esempio, un vettore )',( 21 ttt xxX = può contenere al
massimo un vettore cointegrante indipendente. Il numero di vettori cointegranti è chiamato rango di
cointegrazione di tX .
Va sottolineato che la maggior parte della letteratura sulla cointegrazione si concentra sul caso in
cui ciascuna variabile è integrata di ordine 1 (I(1)): tale cioè che la differenza prima della variabile è
di tipo I(0) e quindi stazionaria. La ragione di ciò sta nel fatto che poche variabili economiche sono
integrate di ordine superiore ad uno.
2.5 - Test per la verifica della presenza di cointegrazione tra variabili
Dato un gruppo di variabili non stazionarie, si può verificare se esse risultano essere cointegrate. Di
seguito viene riportata la metodologia utilizzata da Johansen.
Si considera un vettore autoregressivo di ordine p del tipo:
ttptptt BXYAYAY ε++++= −− ...11 , dove tY è un vettore k-dimensionale di variabili non stazionarie
di tipo I(1), tX è un vettore di variabili deterministiche, tε è un vettore delle innovazioni o di
disturbo. Il vettore autoregressivo può essere riscritto come:
∑−
−− ++∆Γ+=∆1
1:1
p
ittititt XYYY εβπ ; dove:
∑=
−=p
ii IA
1
π , ∑+
−=Γp
ijji A
1:, I è la matrice identità. Il teorema della rappresentazione di Granger
(Vd. Appendice al Capitolo II) assicura che, se la matrice dei coefficienti π ha rango r<k, allora
19
esistono due matrici (k x r) α e β, ciascuna di rango r, tali che 'α βπ = , con tY'β stazionaria. In tal
modo r rappresenta il numero delle relazioni cointegranti (il rango cointegrante) e ciascuna colonna
di β è un vettore cointegrante. Gli elementi di α sono noti come parametri di aggiustamento. Il
metodo di Johansen stima la matrice π per poi verificare se si possono rifiutare le restrizioni
implicite nel rango ridotto di π.
2.6 - Caratteristiche ed interpretazione del test di Johansen
Per verificare il rango della matrice π si utilizza un test 2χ , tuttavia Johansen sottolinea la necessità
di specificare alcuni elementi caratterizzanti del test prima di applicarlo, poiché un’errata
specificazione degli input può portare a risultati errati. In base agli input scelti il test assumerà una
forma diversa e la distribuzione 2χ di riferimento cambierà poiché cambieranno i gradi di libertà
della statistica. L’autore si sofferma sull’eventualità che le serie esaminate e/o le equazioni
cointegranti presentino intercetta e trend considerando in particolare cinque possibilità:
1. Le serie tY su cui va verificata l’eventuale presenza di cointegrazione non presentano un
trend di natura deteministica e non hanno intercetta. In questo caso si ha:
112 ':)( −− =+ ttt YBXYrH α βπ ;
2. Le serie esaminate non presentano una componente di trend ma le equazioni cointegranti
hanno intercetta: )'(:)( 11*1 ottt YBXYrH ρβαπ +=+ −− ;
3. Le serie presentano una componente di trend lineare ma le equazioni cointegranti hanno
solo l’intercetta: 0111 )'(:)( γαρβαπ ⊥−− ++=+ ottt YBXYrH ;
4. Sia le serie che le equazioni cointegranti presentano una componente di trend lineare:
0111 )'(:)(* γαρρβαπ ⊥−− +++=+ tYBXYrH ottt ;
5. Le serie hanno trend quadratico e le equazioni cointegranti hanno trend lineare:
)()'(:)( 10111 ttYBXYrH ottt γγαρρβαπ ++++=+ ⊥−− ;
dove ⊥α è una matrice non unica k x (k – r) tale che ⊥αα ' =0 ed il rango di ⊥αα | è uguale a k.
Questi cinque casi sono legati dalle seguenti relazioni di inclusione:
)()()()()( 2*
212*122 rHrHrHrHrH
rkrrkr −−
⊂⊂⊂⊂χχχχ .
Quest’ultima relazione assume un’importanza pratica fondamentale poiché essa evidenzia il tipo
di distribuzione 2χ da utilizzare in relazione alla scelta effettuata su elementi caratterizzanti
20
quali l’intercetta e la componente di trend. Tali scelte vanno ovviamente fatte in relazione alla
conoscenza del fenomeno e delle serie a disposizione. Una volta scelta la serie di riferimento
(uno dei cinque casi sopra esposti), va costruita la statistica test che servirà per verificare
l’eventuale presenza di cointegrazione. Tale statistica può essere riassunta con il seguente
sistema:
≈−−
≈−−
∑
∑
=
+−
r
irii
k
rirkii
n
n
1
2*
1:
2*
))1/()1log((
))1/()1log((
χλλ
χλλ;
Si utilizzerà la prima se si è nei casi 5 e 3, la seconda negli altri tre casi. iλ e *iλ rappresentano i
più grandi autovalori rispettivamente per i modelli H(r) e )(* rH .
L’output del test di Johansen, così come di solito si presenta sui principali software
econometrici, viene riportato nelle tabelle 2.4 e 2.5:
Tabella 2.4: Output tratto dall’Help on line di E-views. In questo caso si rifiuta l’ipotesi di CI(1) per le Serie LRM, LRY, IBO, IDE.
Tabella 2.5: output tratto dall’Help on line di E-views: caso di CI(1) tra le serie LOG(CS) e LOG(INC)
Nella tabella 2.4 viene riportato un caso in cui non vi è cointegrazione: va verificata la presenza di
cointegrazione tra quattro serie, LRM, LRY, IBO, IDE, avendo nel sistema anche tre variabili
esogene: D1, D2, D3.
21
La prima colonna a partire da sinistra presenta gli autovalori necessari per l’implementazione della
statistica di Johansen, la seconda la determinazione che la statistica di Johansen assume in
corrispondenza di quell’autovalore. Le due colonne successive presentano i valori critici per
rifiutare le ipotesi riportate nell’ultima colonna. Il test differisce dai soliti test, quantomeno
nell’interpretazione dell’output, poiché il primo autovalore serve per verificare l’ipotesi di base di
assenza di cointegrazione; il secondo autovalore serve per verificare l’ipotesi di base della presenza
di una sola equazione cointegrante, il k-esimo autovalore serve per verificare l’ipotesi della
presenza di k-1 equazioni cointegranti. In questo caso il primo autovalore, 0,433165, determina una
statistica (LR Ratio) pari a 49,14436, inferiore al valore critico 53,12 al 95% di significatività. Ciò
implica che si può ragionevolmente accettare l’ipotesi di assenza di equazioni cointegranti.
Viceversa, nella tabella 2.5, il primo autovalore è pari a 0,145518, da cui scaturisce una statistica
LR pari a 25,20440, maggiore del valore critico 15,41. In tal modo si rifiuta l’ipotesi di assenza di
cointegrazione. Il secondo autovalore, 0,014098, determina una statistica LR pari a 2,087119,
inferiore al valore critico 3,76, facendo si che si possa accettare l’ipotesi della presenza di
un’equazione cointegrante ad un livello di significatività del 95%.
Figura 2.14
22
2.7 - Un caso pratico: Mibtel e Mib30
A scopo esemplificativo viene riportata una verifica empirica sulla relazione cointegrante che lega
l’indice Mibtel con l’indice Mib30. I dati analizzati vanno dal 5/01/’93 al 6/12/’99 e si riferiscono
ai valori di chiusura dei due indici. Come al solito il primo passo effettuato nell’analisi è stato
l’esame dei correlogrammi (Figure 2.15 e 2.16) delle due serie relative ai due indici. Entrambi i
correlogrammi suggeriscono di considerare l’ipotesi di processi non stazionari di natura
autoregressiva. In particolare l’osservazione delle due funzioni di autocorrelazione globale consiglia
di ritenere i due processi non stazionari.
La fase successiva dell’analisi si è spostata sulla verifica della non stazionarietà delle serie. In
merito si è pensato di utilizzare l’ADF test (il test aggiustato di D&F) con risultati (presenti nelle
tabelle 2.6 e 2.7) che confermano le impressioni tratte dai correlogrammi: ad un livello di
significatività del 99% si può rifiutare l’ipotesi di stazionarietà delle due serie. In realtà, per
verificare che le serie siano effettivamente integrate di ordine uno, è consigliabile attuare l’ADF test
anche sulle differenze prime delle due serie per accertarsi che le due serie differenziate siano
stazionarie (I(0)). In questo caso, così come si può verificare, le due serie delle differenze prime dei
due indici risultano tali da non poter rifiutare l’ipotesi di stazionarietà. Essendo entrambe le serie di
tipo I(1), si è poi verificata l’ipotesi di cointegrazione tra le due attraverso il test di Johansen
(tabella 2.8). Si è pensato di optare per una stima dell’equazione cointegrante scaturita dalle ipotesi
di presenza di trend lineare nei dati ed intercetta nell’equazione cointegrante. Da rilevare che la
maggior parte dei software econometrici fornisce, in questi casi, anche il rapporto di
logverosimiglianza che permette di scegliere la giusta opzione tra le cinque possibili nel test di
Johansen (si sceglie la combinazione di ipotesi su equazione cointegrante e dati che fornisce il
valore più elevato del rapporto di logverosimiglianza). Dall’output del test, presente nella tabella
2.8, si può osservare che si può accettare l’ipotesi di una ed una sola equazione cointegrante con
equazione cointegrante normalizzata rispetto al Mibtel pari a: Mibtel=0,689374Mib30+72,07138.
Il grafico finale dimostra la validità dell’equazione cointegrante rispetto alla serie originaria del
Mib30.
23
Figura 2.15
Figura 2.16
24
Tabella 2.6
Tabella 2.7
Tabella 2.8: Test di Johansen.
25
Figura 2.17
26
27
ANALISI DELLE SERIE STORICHE:Strumenti econometrici utilizzati in finanza
Capitolo III
di Stefano Caprioli [email protected]
TUTTI I DIRITTI RISERVATI
3
CAPITOLO III ......................................................................................................................... 5
Modelli ARCH e GARCH .................................................................................................................. 5 3-1 - La modellistica ARCH ............................................................................................................. 5 3.2 - L’ARCH LM Test .................................................................................................................... 7 3.3 - Modello ARMA con disturbi ARCH ....................................................................................... 7 3.4 - Esempio di modello ARCH: l’ARCH(1) ................................................................................. 8 3.5 - Distribuzione di un processo ARCH(p) ................................................................................... 9 3.6 - Il modello lineare GARCH(p,q) ............................................................................................... 9 3.7 - Il modello ARCH-M ............................................................................................................. 10 3.8 - L’Asimmetria della Volatilità ............................................................................................... 11 3.9 - Il Modello E-Garch ............................................................................................................... 13 3.10 - Un caso pratico: il Mibtel ..................................................................................................... 14
4
Capitolo III
Modelli ARCH e GARCH
3-1 - La modellistica ARCH
Nel primo capitolo sono stati analizzati i processi AR, MA, ARMA ed ARIMA. Una delle
caratteristiche fondamentali di tali processi è la presenza di una distribuzione della varianza
condizionata del termine di errore omoschedastica. In realtà è piuttosto frequente osservare come
numerose serie finanziarie presentino un andamento eteroschedastico della varianza condizionata.
Si parla di varianza condizionata poiché si fa riferimento a quella porzione della variabilità della
serie spiegata dal modello utilizzato. In generale, data una generica variabile casuale tY , il valore
atteso e la varianza non condizionata sono espressi dalle seguenti relazioni:
µ=)( tYE ;
22 ])[()( σµ =−= tt YEYV .
Se la medesima variabile tY può essere “spiegata” da un set informativo 1−tI , il valore atteso e la
varianza condizionata sono dati da:
);/( 1−= ttt IYEm
)/(]/)[()/( 12
12
1 −−− =−= tttttt IeEImYtEIYV ,
da cui si ricava che la varianza condizionata coincide con lo scarto al quadrato 2te . Se si assume
che il set informativo 1−tI è rappresentato dalla combinazione lineare dei p valori passati della stessa
variabile tY , i due momenti condizionati diventano:
ptptt YYm −− +++= ααα ...11 ;
]/[])...[()/( 122
111 −−−− =−−−−= ttptptttt IeEYYYEIYV ααα
5
L’eteroschedasticità si evidenzia osservando il secondo momento condizionato, spesso
caratterizzato da periodi di forti oscillazioni alternati a periodi di “calma”. Conseguentemente a ciò
è sembrato inopportuno l’utilizzo di processi con varianza condizionata omoschedastica. In
quest’ottica si è cercato di individuare delle variabili significative che spiegassero l’andamento della
varianza condizionata. Il primo a fornire una risposta a tale problema è stato Engle, proponendo il
processo ARCH(p).
La sigla ARCH sta per Autoregressive Conditional Heteroschedasticity with Estimates of the
Variance. L’idea alla base del lavoro di Engle consisteva nell’assunzione di una varianza
condizionata che dipendesse dal passato.
Engle parte da un P.S. autoregressivo di ordine uno poiché la modellistica ARIMA si era rivelata un
ottimo strumento previsivo proprio per l’uso che in essa veniva fatto della media condizionata della
variabile in esame nell’insieme delle informazioni disponibili. L’idea era quella di introdurre le
informazioni passate anche nella varianza condizionata oltre che nella media condizionata. In tal
modo utilizza una nuova classe di processi stocastici caratterizzati da incorrelazione seriale e media
nulla, con varianza non condizionata costante e varianza condizionata non costante ma dipendente
dal set di informazioni disponibile al tempo t-1. Il modello, da un punto di vista formale, risulta
essere:
);,,.......,,,(
;22
32
22
1
2/1
αεεεε
ε
pttttt
ttt
hhhz
−−−−=
=
con :
;1)(;0)(
.;..);,0(/ 1
==
>−−
t
t
t
ttt
zVarzEdiiz
hNψε
dove p è l’ordine del processo ARCH ed α è un vettore di parametri incogniti, h varianza
condizionata.
In termini operativi tε rappresenta solitamente le innovazioni di altri processi stocastici. L’esempio
più comune a riguardo è costituito dal modello ARCH di regressione lineare del tipo:
),,......,,,(
;22
32
22
1 αεεεε
εβ
pttttt
ttt
hhAX
−−−−=
+=
con:
);,0(/);,(/
1
1
ttt
tttt
hNhANX
>−>−
−
−
ψεβψ
con A vettore di variabili predeterminate e β vettore dei parametri.
6
3.2 - L’ARCH LM Test
Per verificare l’ipotesi nulla che non vi siano componenti ARCH fino all’ordine q nei residui di un
modello si costruisce la regressione:22
1102 ... qtqtt eee −− +++= βββ (1)
con te residui del modello stimato. Verificando l’ipotesi nulla di assenza di significatività dei
coefficienti della regressione (1), si verifica congiuntamente l’ipotesi di assenza di componenti
ARCH fino all’ordine q per la varianza del modello. I test di solito utilizzati a riguardo sono il test F
ed il test di Breusch-Godfrey. In particolare il test B-D è determinato dal prodotto tra la dimensione
della serie osservata ed il coefficiente di determinazione della regressione. Tale statistica è
asintoticamente distribuita come una 2qχ .
Tabella 3.1: Il test F ed il test B-D applicati alla serie storica relativa ai valori di chiusura del Mib30 dal 5/01/’93 al 6/12/’99. L’ipotesi nulla di non significatività di una componente ARCH non è accettabile ad un livello di significatività per entrambi i test del 95%..
3.3 - Modello ARMA con disturbi ARCH
Accettando l’ipotesi di una varianza condizionata non costante nel corso del tempo, si può pensare
di inserire il modello ARCH in un modello ARMA:
;)()( tt LbXLa ε=
con
).,,........,,,(
);,0(/22
32
22
1
1
αεεεε
ψε
pttttt
ttt
hhhN
−−−−
−
=
>−
da notare che in tal modo si riesce a trasferire l’informazione passata sia sulla variabile oggetto di
studio che sul termine di errore.
In generale il processo ARCH presenta una pluralità di caratteristiche che lo rendono molto
attraente per un molteplice uso. In primis va sottolineato che la costruzione della varianza
condizionata th linearmente dipendente dal quadrato dei residui passati permette di catturare
l’andamento tipico delle serie finanziarie con l’alternarsi di periodi di forti fluttuazioni alternati a
periodi di stasi con oscillazioni irrilevanti. Un secondo aspetto molto importante è legato al modello
7
di regressione ARCH, capace di approssimare una regressione più complessa con disturbi non
ARCH: in altre parole la varianza ARCH comprende l’eteroschedasticità presente in modo da
sopperire anche ad eventuali errate specificazioni del modello o a cambi strutturali particolarmente
rilevanti.
3.4 - Esempio di modello ARCH: l’ARCH(1)
Il più semplice modello ARCH può essere espresso nella forma:
;2/1ttt hz=ε
con:
210
1 );,0(/
−
−
+=
>−
tt
ttt
hhN
α εα
ψε
dove:
.1)(;0)(
.;..;0;00
==
≥>
t
t
t
zVarzEdiiz
αα
00 >α e 0≥α vengono dette condizioni di regolarità: esse garantiscono la condizione di non
negatività della varianza. Da notare che i momenti dispari del processo risultano sempre nulli
mentre per quelli pari vale il Teorema 3.1 in Appendice di cui si omette la dimostrazione.
Applicando il suddetto Teorema 3.1 ai primi due momenti della distribuzione non condizionata di
tε si ottiene:
1)1(
)( 02 <⇔∞<−
= αα
αε tE
13)31()1(
)1(3)( 2
2
2204 <⇔∞<
−−
−= α
αα
ααε tE .
Dalle relazioni precedenti si evince che 1<α è condizione necessaria e sufficiente per la
stazionarietà in covarianza del processo non condizionato di tε . Analogamente 13 2 <α è condizione
necessaria e sufficiente per l’esistenza del momento quarto non condizionato.
Qualora risultino soddisfatte le condizioni appena citate è possibile calcolare l’indice di Curtosi (K)
nel modo seguente:
8
22
4
)]([)(
εε
EEK = .
L’indice di curtosi di una distribuzione normale è K=3. laddove K assume un valore maggiore di
tre, siamo di fronte ad una distribuzione leptocurtica, cioè caratterizzata da code più alte di una
normale; distribuzione peraltro tipica dei processi ARCH.
3.5 - Distribuzione di un processo ARCH(p)
Il modello ARCH di ordine p deriva dalla semplice generalizzazione di un processo ARCH di
prim’ordine e può essere così rappresentato:2/1
ttt hz=ε ,
con ),0(| 1 ttt hN≈−ψε . La varianza th assumerà la seguente espressione:22
110 ... ptptth −− +++= εαεαα , con ;00 >α 0,...,, 21 ≥pααα .
Queste ultime due condizioni, dette di regolarità, garantiscono la positività della varianza.
Per quanto riguarda i vincoli necessari a garantire la stazionarietà in covarianza del processo vale il
Teorema 3.2 riportato in Appendice. In base a tale Teorema un processo ARCH(p) è stazionario in
covarianza se: 11
<∑=
p
jjα .
3.6 - Il modello lineare GARCH(p,q)
Uno dei problemi generalmente riscontrabili nella stima dei modelli ARCH è costituito dalla
necessità di introdurre una quantità considerevole di ritardi temporali nell’equazione della varianza
condizionata. Al fine di disporre di una parametrizzazione più parsimoniosa del modello si pensò
(T.Bollerslev, “Generalized Autoregressive Conditional Heteroskedasticity”, Journal of
Econometrics 1986) di utilizzare la stessa logica che permette di passare dai processi AR(p) ai
processi ARMA(p,q). La varianza dell’errore è stata perciò definita sulla base di un processo
eteroschedasico generalizzato autoregressivo di ordine “p”, “q”:
ttqtqtptptt hLLhhh )()(...... 2011
22110 βεααββεαεαα ++=++++++= −−−− ;
con 0,...,,0,...,,;0 21210 ≥≥> qp βββαααα ;
9
Il comportamento della varianza condizionata dipende dunque, oltre che dagli errori passati al
quadrato, anche dai valori antecedenti della varianza stessa. Risulta inoltre immediato che per q=0
si ricade nella modellistica ARCH(p).
L’analisi del processo è condotta in modo analogo a quella già vista per il modello ARCH(p),
portando alla conclusione che la stazionarietà in covarianza di un processo GARCH(p,q) lineare è
possibile, se e solo se, è soddisfatto il seguente vincolo:
111
<+ ∑∑==
q
jj
p
ii βα .
Oltre a ciò il calcolo della Curtosi mostra che anche in questo caso la distribuzione degli tε è
leptocurtica.
Va sottolineato infine che è stato dimostrato che le proprietà statistiche degli tε al quadrato sono
simili a quelli di un processo ARMA perciò la procedura di identificazione degli ordini “p” e “q”
comunemente usata può essere analoga a quella indicata da Box e Jenkins per l’identificazione dei
modelli classici ARMA(p,q).
3.7 - Il modello ARCH-M
Tutti i modelli ARCH/GARCH sono caratterizzati dalla presenza di due equazioni fondamentali:
l’equazione relativa al modello (Mean Equation) e l’equazione relativa alla varianza (Variance
Equation). Nei modelli esaminati finora la Mean Equation era caratterizzata dal non presentare tra
le variabili indipendenti o regressori nessun elemento che spiegasse la volatilità. In realtà, nel
cercare di spiegare fenomeni di natura finanziaria, molto spesso i rendimenti attesi di un’attività o di
un portafoglio risultano correlati con una misura del rischio atteso. In tale ottica si è pensato di
introdurre direttamente nella Mean Equation una componente di rischio, a scelta tra la varianza
condizionata e la deviazione standard condizionata, per meglio spiegare l’andamento dei
rendimenti. In pratica, se si ritiene che i rendimenti di un’attività siano correlati con la volatilità del
periodo in esame, il modello di base si “arricchisce” di un ulteriore regressore costituito dalla
varianza condizionata o dalla deviazione standard condizionata. Da rilevare che i software che
forniscono delle stime ARCH/GARCH presentano l’opzione di inserimento di elementi che
rendono il modello ARCH/GARCH-M.
10
3.8 - L’Asimmetria della Volatilità
In ambito finanziario è stato riscontrato molto spesso un fattore di asimmetria nella relazione
Rischio/Rendimento. Tale fattore fa si che la volatilità sia molto più sensibile ad informazioni
negative piuttosto che ad informazioni positive. In pratica si è osservato che la volatilità è molto
più sensibile a forti ribassi piuttosto che a forti rialzi. Di seguito viene presentato un esempio
grafico relativo all’indice Mibtel (Figure 3.1, 3.2, 3.3).
Figura 3.1: Rialzo dell’indice Mibtel rilevato con frequenza giornaliera. In 60 giorni l’indice ha subito una variazione positiva del 30,539%.
Per ovviare a tale particolarità della volatilità sono stati introdotti dei modelli “asimmetrici” quali,
ad esempio, il TARCH e l’E-Garch. Senza soffermarci troppo sugli aspetti analitici e formali dei
due modelli, va sottolineato come i due modelli affrontino il problema dell’asimmetria con approcci
sostanzialmente diversi. Il TARCH è un modello ARCH con una variabile dummy applicata alla
componente ARCH in modo tale da avere:
211
21
21
2−−−− +++= ttttt d β σγ εα εωσ
11
dove 011 <=− tt sed ε , 001 >=− tt sed ε . In tal modo il modello prevede impatti diversi sulla
volatilità per buone e cattive notizie. In termini tecnici si è soliti affermare che per periodi in cui
d=1, il fattore ARCH è α+γ e si è in presenza di un effetto leva (Leverage Effect) significativo.
Figura 3.2: Andamento della deviazione standard a 252 giorni dell’Indice Mibtel nel medesimo periodo della Figura 3.1. La volatilità ha subito una variazione del 5,156% in questo periodo di forti rialzi.
12
Figura 3.3: Grafico giornaliero Mibtel in un periodo di ribassi che fanno variare l’indice: -34,3986%..
Figura 3.4: andamento della Deviazione standard a 252 giorni del Mibtel nel medesimo periodo della figura 3.3.In questa fase di forti ribassi la volatilità ha registrato una variazione pari a –28,0977%.
3.9 - Il Modello E-Garch
Sicuramente più famoso del TARCH, l’E-Garch si propone come risposta alternativa al TARCH per
il problema dell’asimmetria della volatilità. Tale modello, definito anche Exponential Garch, è stato
proposto per la prima volta da Nelson (1991). Esso si basa su una specificazione del logaritmo della
varianza condizionata che tenga conto del Leverage effect. In formulae si ha:
1
1
1
121
2 )2()log()log(−
−
−
−− +−++=
t
t
t
ttt σ
εγ
πσε
ασβωσ ;
Nelson costruisce il modello in maniera tale da non dover presupporre necessariamente la normalità
dei termini di errore. La relazione appena descritta si riferisce ad un E-Garch(1,1), generalizzando
ad un E-Garch(p,q) si ha:
it
itq
ii
it
iti
q
ijt
p
jjt
−
−
=−
−
=−
=∑∑∑ +−++=
σε
γπσ
εασβωσ
11
2
1
2 )2()log()log( .
13
Da sottolineare l’importanza del parametro γ che esprime il cosiddetto leverage Effect, poiché se si
riscontra la significatività di questo, implicitamente si accetta l’idea che la serie osservata presenti
una componente di asimmetria in linea con la teoria di un modello EGARCH.
3.10 - Un caso pratico: il Mibtel
E’ stato preso in considerazione l’indice MIBTEL dal 5/01/’93 al 6/12/’99. La serie dei logaritmi
dei rendimenti giornalieri (Figura 3.5) presenta una variabilità accentuata in prossimità di una fase
di ribasso. Tale asimmetria è riscontrabile anche visivamente come si può osservare (parte destra
del grafico della figura 3.5). L’idea di base quindi è che i rendimenti non presentino una volatilità
omoschedastica ma, al contrario, una chiara relazione rischio/rendimento.
Figura 3.5: Rendimenti giornalieri (calcolati come log(It/It-1) dell’indice Mibtel.
Dall’osservazione della figura 3.7, e delle statistiche riassuntive presenti in essa, emerge una curtosi
elevata, mentre il test J-B sconsiglia di accettare l’ipotesi di normalità della serie. L’analisi dei
correlogrammi e delle relative statistiche (Figura 3.6) suggeriscono di scegliere come modello
identificativo un AR(1). In tal modo si può applicare l’ARCH–test (Tabella 3.2) che conferma la
presenza di componenti ARCH da non trascurare nell’identificazione del modello. A questo punto
si può implementare un modello AR(1) che tenga conto dell’asimmetria della volatilità riscontrata
nei paragrafi precedenti; si è pensato, dopo svariati tentativi, di verificare la significatività di un
modello E-Garch(4,4) in Mean per spiegare eventuali fattori di asimmetria o Leverage Effect. La
14
Tabella 3.3 evidenzia la significatività dei parametri del modello AR(1) e della varianza E-
Garch(1,1) in Mean. In particolare, facendo riferimento all’output della Tabella 3.3, il
RES/SQR[GARCH(1)] rappresenta il Leverage Effect di lag1, in questo caso ampiamente
significativo.
Figura 3.6: Correlogramma della serie osservata dei logrendimenti giornalieri del mibtel.
15
Figura 3.7: Istogramma e statistiche riassuntive della distribuzione della serie dei rendimenti del Mibtel della figura 3.5. Da sottolineare la curtosi elevata e la statistica Jarque-Bera che sconsigliano di accettare l’ipotesi di normalità della serie.
Figura 3.8: Correlogramma della serie in Figura 3.5. La statistica Q suggerisce la presenza di elementi autoregressivi.
Tabella 3.2: Ipotizzando un modello autoegressivo di ordine uno per i log-rendimenti dell’indice Mibtel, si è verificata la presenza di eventuali componenti ARCH nei residui. I due test (F e Bg) suggeriscono di rifiutare l’ipotesi di asenza di componenti ARCH.
Tabella 3.3: Output relativo ad un modello EGARCH(4,4) in Mean.
16
Nel modello EGARCH specificato nel paragrafo precedente il Leverage Effect è il parametro γ. In
questo caso 1γ è pari a –0.026948, valore piccolo che “sottopesa” l’effetto della volatilità sul
rendimento. Per verificare la bontà del modello adottato si isola la varianza non spiegata dalla
modellistica ARCH/GARCH per verificarne l’omoschedasticità e l’assenza di ulteriori componenti
ARCH/GARCH. Da rilevare che l’accettazione della modellistica GARCH nega l’ipotesi di
omoschedasticità della varianza condizionata, rendendo inapplicabile il modello tradizionale del
CAPM. Le stime GARCH risultano inoltre estremamente efficaci per stimare una volatilità
adeguata da inserire nei più comuni modelli di pricing delle opzioni.
Per verificare la bontà del modello è sufficiente analizzarne i residui standardizzati: se questi
risultano essere privi di autocorrelazione seriale, con media zero e deviazione standard 1 e si può
accettare l’ipotesi di normalità della distribuzione, allora si può accettare il modello adottato,
ritenendolo sufficientemente esplicativo per la serie osservata.
17
18
ANALISI DELLE SERIE STORICHE:Strumenti econometrici utilizzati in finanza
APPENDICE
di Stefano Caprioli [email protected]
TUTTI I DIRITTI RISERVATI
3
APPENDICE .......................................................................................................................... 5
A1.1 - Exponential Smoothing .......................................................................................................... 5 Metodo dello smussamento singolo ................................................................................................. 5 Smorzamento doppio ad un parametro ............................................................................................. 5 - Smorzamento moltiplicativo .......................................................................................................... 6 - Smorzamento additivo (tre parametri) ........................................................................................... 6 - Smorzamento non stagionale a due parametri ................................................................................ 7
A1.2 - Momenti teorici di un processo stazionario in senso debole .............................................. 7
A1.3 - Funzione di Autocorrelazione parziale per un processo stocastico stazionario in senso debole ................................................................................................................................................... 8
A1.4 - Decomposizione di Wold ........................................................................................................ 9
A1.5 - Momenti di un processo AR(p) ............................................................................................. 9
A1.6 - Processo Autoregressivo di Ordine 1 (AR(1)) .................................................................... 10
A1.7 - Funzioni di Autovarianza, Autocovarianza e Autocorrelazione di un MA(1) ................ 10
A1.8 - Condizione di Box & Jenkins di Invertibilità di un MA(q) o di Stazionarietà di un AR(p) ................................................................................................................................................ 11
A1.9 - Processi ARMA(p,q) ............................................................................................................ 12
A2.1 - Il test di Phillips-Perron ....................................................................................................... 13
A2.2 - L’Analisi di Cointegrazione ................................................................................................. 13
A2.3 - Cointegrazione ed Error correction ................................................................................... 13
A2.4 - Metodo di Johansen ............................................................................................................ 14
A2.5 - L’approccio di ENGLE-GRANGER .................................................................................. 15
A3.1 - TEOREMA 3.1 ................................................................................................................... 16
A3.2 - TEOREMA 3.2 ...................................................................................................................... 16
A3.3 - L’Approccio di ENGLE ....................................................................................................... 16
4
APPENDICE
A1.1 - Exponential Smoothing
Metodo dello smussamento singolo
In formulae si ha:
11 )1()( −+ −+=+−= tttttt FaaXFFXaF (1)
con a costante di smussamento ed F serie “smorzata” di X o serie delle previsioni su X. Da rilevare
che la costante “a”, in valore assoluto, determina in quale misura le previsioni rispondono agli errori
della previsione precedente.
Si può osservare che la relazione (1) può essere riscritta nel seguente modo:
∑−
=−−=
1
0
)1(t
sst
st XaaF
Quest’ultima relazione mostra chiaramente la natura “esponenziale” di tale metodo: la serie
“Forecast” F è una media ponderata dei valori passati di X, con i pesi che “declinano”
esponenzialmente nel corso del tempo.
Smorzamento doppio ad un parametro
In formulae si ha:
1
1
)1()1(
−
−
−+=−+=
ttt
ttt
FaaSFSaaXS
Le previsioni con tale metodo al tempo (T+k) risultano essere:
kFSa
aFSFa
akSa
akF TTTTTTkT )(1
2)1
1()1
2( −−
+−=−
+−−
+=+
ciò implica che le previsioni giacciono su una retta con intercetta TT FS −2 e coefficiente angolare
)1/()( aFSa TT −− .
5
- Smorzamento moltiplicativo
La serie smussata F è data dalla seguente relazione:
kcbkaF tkT ++=+ )(
))1()1()(1()(
)( −+−−+−
= tbtastc
Xtat
t αα ;
)1()1())1()(()( −−+−−= tbtatatb ββ ;
)()1()(
)( stcta
Xtc tt
t −−+= γγ ;
con i parametri α,β strettamente positivi, γ<1. Il parametro s rappresenta il cosiddetto “Cycle for
Seasonal”, vale a dire che i precedenti parametri vengono calcolati partendo dalle ultime s
osservazioni.
- Smorzamento additivo (tre parametri)
La serie smussata è data dalla seguente relazione:
ktkt cbkaF ++ ++=
con a intercetta o componente permanente, b componente di trend, tc fattore stagionale additivo di
trend. Questi tre coefficienti sono definiti dalle seguenti relazioni di tipo ricorsivo:
;10,)()1())(()(
)1()1())1()(()())1()1()(1())(()(
<>−−+−=
−−+−−=−+−−+−−=
γβαγγ
ββαα
stctaFtctbtatatb
tbtastcFta
ttt
tt
In questo caso una previsione al tempo (T+k) è data da:
sktkT ckTbTaF −++ ++= )()(
6
- Smorzamento non stagionale a due parametri
La serie smussata è data da:
bkaF kT +=+
con a intercetta e b componente di trend. Tali parametri vengono ottenuti dalle seguenti relazioni
ricorsive:
))1()1()(1()( −+−−+= tbtaFta t αα
)1()1())1()(()( −−+−−= tbtatatb ββ
con α>0, β<1.
A1.2 - Momenti teorici di un processo stazionario in senso deboleLa stazionarietà in senso debole di second’ordine comporta l’indipendenza del valore medio e della
varianza dal tempo t: tali valori risulteranno costanti al variare del tempo. La funzione di
autocovarianza dipende solo da K: in altre parole la distribuzione congiunta di )( 1tX e di )( 2tX
dipende solo dalla distanza fra 1t e 2t e non dai valori effettivi di 1t e 2t . Sotto questa ipotesi è
sufficiente considerare la differenza (lag)
K= 2t - 1t .
In sintesi la stazionarietà in senso debole di second’ordine richiede media e varianza costanti ed
autocovarianza funzione solo di K. Da notare che, in presenza di stazionarietà, sia la funzione di
autocovarianza che quella di autocorrelazione risultano simmetriche rispetto al lag k:
)()( kk −= γγ
)()( kk −= ρρ
Tale proprietà permette di evitare di calcolare i valori delle due funzioni per lag negativi. Da
rilevare inoltre che la funzione di autocorrelazione, sempre in presenza di stazionarietà, può essere
espressa dalla seguente relazione:
0γγρ k
k = .
La matrice delle autocorrelazioni di un processo stazionario è definita positiva, dando luogo a
conseguenze limitatrici sui valori che possono assumere i coefficienti di autocorrelazione:
7
01
1
1
1 >ρ
ρ
ossia 01 21 >− ρ e quindi 11 1 <<− ρ . Per K=2 si ha:
01
11
21
21
21
>ρρ
ρρρρ
da cui si ottiene:
11 1 <<− ρ ; 11 2 <<− ρ ; 11
1 21
212 <
−−<−
ρρρ
.
A1.3 - Funzione di Autocorrelazione parziale per un processo stocastico stazionario in senso debole
Nel caso in cui un P.S. è stazionario, i coefficienti di autocorrelazione parziale assumono
espressioni piuttosto semplici. Tali coefficienti vengono generalmente indicati con kkφ .
Si può dimostrare (vd. Box-Jenkins (1970), pag. 64) che nel caso di un P.S. stazionario, questi
coefficienti sono espressi dal rapporto:
k
kkk R
R*
=φ
dove sia il numeratore che il denominatore sono rappresentati da due determinanti quadrati e
precisamente:
- quello del denominatore kR è il determinante della matrice dei coefficienti di autocorrelazione
totale kρ , ossia:
021
201
110
................................
...
...
det
ρρρ
ρρρρρρ
−−
−
−
=
kk
k
k
kR
- quello del numeratore *kR è uguale a kR con la sola differenza dell’ultima colonna che viene
sostituita dai coefficienti kρρρ ,...,, 21 ed ha quindi come espressione:
kkk
kR
ρρρ
ρρρρρρ
.................................
...
...
det
21
201
110
−−
= .
8
A1.4 - Decomposizione di WoldAlla base dell’analisi delle serie storiche vi è un teorema, conosciuto come il teorema della
decomposizione di Wold. In tale teorema si dimostra che ogni processo stocastico stazionario in
senso debole del tipo )( µ−tX può essere scritto come una combinazione lineare di una sequenza di
variabili casuali incorrelate tra loro. Risulta fondamentale, prima di applicare tale risultato, depurare
il processo oggetto di studio da eventuali componenti deterministiche che renderebbero il teorema
inapplicabile. Se il teorema è applicabile, allora il processo )( µ−tX potrà essere espresso come:
∑∞
=−−− =+++=−
02211 ..)(
jjtjtttt aaaaX ψψψµ
con ;10 =ψ
La sequenza { },...2,1,0: ±±=tat è costituita da elementi di variabili casuali incorrelate, talvolta
denominate innovazioni, provenienti da una distribuzione data con:
∞<==
=22 )()(
;0)(
σtt
t
aEaV
aE
e ,0),(),( == −− kttktt aaEaaCov per ogni 0≠k .
Come si può facilmente osservare, il processo { }ta è un rumor bianco (WN).
Di notevole importanza i pesi ψ, poiché è assolutamente equivalente affermare che essi convergono
assolutamente )( ∞<∑ iψ o che il processo { }tX è stazionario.
A1.5 - Momenti di un processo AR(p)Il valore medio atteso di un processo stocastico autoregressivo di ordine p con intercetta µ è dato
da:
ptXE
φφφµ
−−−−=
...1)(
21
Da rilevare che nel paragrafo 1.7 il modello AR(p) è stato presentato senza intercetta, in questo caso
il valore medio atteso risulta pari a zero. L’inserimento di un’intercetta non cambia la natura del
processo, sempre che questa non abbia una natura stocastica.
La varianza 0γ e le autocovarianze ,...,.....,, 21 pγγγ si calcolano con le seguenti relazioni:
Xapp22
22110 ... σσγφγφγφγ =++++=
pkpkkk −−− +++= γφγφγφγ ...2211 (k=1,2,…,p)
Le autocovarianze sono in numero infinito e per j>p si ricorre alla seguente relazione:
9
pjpjjj −−− +++= γφγφγφγ ...2211
che prende il nome di equazione di Yule-Walker.
Quest’ultima relazione è piuttosto utile per la risoluzione di due problemi:
- Se si è stabilito che il modello da associare alla serie osservata è proprio l’AR(p) e sono
quindi noti i parametri pφφφ ,....,, 21 , allora si potranno calcolare le autocovarianze teoriche
corrispondenti al modello scelto.
- Se, viceversa, di un dato modello sono ignoti i parametri pφφφ ,....,, 21 , questi potranno essere
stimati sostituendo ai valori teorici delle autocovarianze kγ i corrispondenti valori
campionari che si ricavano dalla serie osservata.
Se si divide la funzione dell’autocovarianza per l’autovarianza 0γ si ottiene la funzione di
autocorrelazione:
pkpkkk −−− +++= ρφρφρφρ ...2211 (k=1,2,…3,…)
Si può osservare come tutte le relazioni viste finora siano di natura ricorsiva, e quindi di facile
derivazione.
Quest’ultima relazione, come la precedente, permette, partendo da 0ρ =1, di ottenere tutti gli altri
coefficienti di autocorrelazione teorica.
A1.6 - Processo Autoregressivo di Ordine 1 (AR(1)) Si può ricavare la funzione di autocorrelazione globale di un processo AR(1) moltiplicando
entrambi i membri della relazione tt aXB =− )1( φ per ktX − , con 0≥K , e calcolando il valore atteso
del risultato ottenuto. In tal modo si ottiene: 1−= kk φ γγ , per ogni k>0, e, conseguentemente,
0γφγ kk = . Un processo AR(1) ha perciò una funzione di autocorrelazione globale data da k
k φρ = .
In tal modo si può affermare che per φ>0 la funzione di autocorrelazione globale tende a zero in
modo monotono, mentre per φ<0 essa varierà tra –1 ed 1 a segni alterni.
A1.7 - Funzioni di Autovarianza, Autocovarianza e Autocorrelazione di un MA(1)
La funzione di autovarianza di un processo MA(1) assume la forma seguente:
)1( 220 θσγ +=
mentre la funzione di autocovarianza sarà:
10
θσγ 21 −= per k=1, 0=kγ per k>1.
Dalle precedenti relazioni si ricava la funzione di autocorrelazione globale:
>=+−=
1,01 21
kkρθθρ
A1.8 - Condizione di Box & Jenkins di Invertibilità di un MA(q) o di Stazionarietà di un AR(p)
Un processo MA(q) può essere scritto utilizzando l’operatore B come:
tq
qt aBBBZ )...1( 221 θθθ −−−−= ;
Box & Jenkins hanno dimostrato che un processo MA(q) è invertibile se l’equazione caratteristica
0)...1()( 221 =−−−−= q
qBBBB θθθθ
presenta soluzioni esterne al cerchio di raggio unitario. Per rendere più chiaro quest’ultimo
importantissimo concetto, alla base dello studio delle serie storiche, viene trattato di seguito il caso
di un processo MA(2):
tttt aaaZ +−−= −− 2211 θθ ;
L’equazione caratteristica assumerà la seguente espressione: 01 221 =−− BB θθ . Le radici di tale
equazione possono essere reali e distinte, reali ed uguali, complesse e complesse coniugate. Se il
determinante è maggiore o uguale a zero, allora le radici sono reali ed in modulo inferiori ad uno,
per cui dovrà aversi:
>+±−
−<+±−⇒≥+
222
11
22112
21 24
2404
θθθθ
θθθθθθ
da cui si ricava:
112 <+ θθ e 112 <− θθ .
Se il determinante è minore di zero, le radici sono complesse e si ha:
1114
44
1 22
22
22
21
2
21 <⇒>−=−−+=⇒> θ
θθθθ
θθBB .
Le suddette relazioni rappresentano le condizioni di invertibilità di un MA(2) (o di stazionarietà di
un AR(2)) che sinteticamente vengono riassunte sotto la condizione di radici esterne al cerchio di
raggio unitario.
Analogamente, sempre utilizzando il lag operator, un processo AR(p) può essere espresso dalla
seguente relazione:
11
......)1()1( 22
1221 +++=+++=−= −−
−tttttt aaaaBBaBZ φφφφφ
in questo caso la condizione espressa per l’invertibilità di un Ma(q), se valida per l’AR(p), permette
di accertare la stazionarietà del processo AR esaminato.
A1.9 - Processi ARMA(p,q)Si può dimostrare che i pesi di un processo MA(∞) sono dati da:
11
1)(φ
θψ−−= BB ,
di conseguenza si ha:
∑ ∑∞
=
∞
=−
−−+=−==0 0
111 )()1)(()(
i iit
itt
iitt aaaBBaBZ φθφθφψ ;
da un punto di vista speculare i pesi di un processo AR(∞) si presentano nella forma:
BBB
θφπ
−−=
11)( 1 .
Da tale relazione si ricava la seguente espressione:
( ) tti
iit aZBBZB =−
= ∑
∞
=
φθπ 1)(0
, o ( ) titi
it aZZ +
−= −
∞
=
−∑0
11 θθφ .
Il modello ARMA(1,1) porta quindi sia ad una rappresentazione infinita di un processo
autoregressivo che di un processo a media mobile sempre con infiniti pesi.
La funzione di autocovarianza di un processo ARMA(1,1) assume la seguente espressione:
11 −= kk γφγ ;
tale relazione si riferisce a lag maggiori di uno (k>1) mentre per k=0 e k=1 si ha:2
12
110 )( σθφθσγφγ −−=− , e 2011 θ σγφγ −=− .
Da tali equazioni si ricava la funzione di autocorrelazione globale per un processo ARMA(1,1):
θφθθφθφρ
12
111 21
))(1(−+
−−=
11 −= kk ρφρ per k>1.
In generale un processo ARMA(p,q) può essere ottenuto dalla combinazione tra un AR(p) ed un
MA(q):
qtqttptptt aaaZZZ −−−− −−−=−−− θθφφ ...... 1111 , o, alternativamente, espresso dalla relazione:
tq
qtp
p aBBZBB )...1()...1( 11 θθφφ −−−=−−− , sinteticamente esprimibile come:
tt aBZB )()( θφ = .
12
A2.1 - Il test di Phillips-PerronLa correzione al test t è di tipo non parametrico poiché si usa una stima dello spettro del termine di
errore a frequenza zero. In tal modo si ottiene un test più robusto rispetto al problema
dell’eteroschedasticità della serie e per forme di autocorrelazione non perfettamente identificabili.
Il test di Phillips-Perron assume la seguente relazione formale:
σωβγω
ωγ
ˆ2)()( 0
22/10 Snt
t pp⋅−
−⋅
= ,
con S(β) deviazione standard di β, t rapporto tra la stima di β e la sua deviazione standard
campionaria, 2/1
10 1
12
+
−+= ∑=
q
jjq
j γγω .
Le funzioni ∑+=
−=n
jtjttj aa
n 1
~~1γ sono stime campionarie delle funzioni di autocovarianza, q è l’ultimo
lag ritenuto significativo o, analogamente, il numero di periodi da includere nella correlazione
seriale.
A2.2 - L’Analisi di CointegrazioneEngle e Granger fornirono la seguente definizione di cointegrazione:
Le componenti del vettore )',...,,( 21 ntttt xxxX = sono dette cointegrate di ordine (d,b), denotando
tale definizione con ),( bdCIX t ≈ , se:
- Tutti i componenti di )',...,,( 21 ntttt xxxX = sono integrati di ordine d.
- Esiste un vettore ),...,,( 21 nββββ = tale che la combinazione lineare
tnntt Xtxxx ββββ =+++ ...2211 è integrata di ordine (d-b), con b>0.
Se tali condizioni sono verificate il vettore β viene definito vettore cointegrante.
A2.3 - Cointegrazione ed Error correctionUn vettore di variabili (n x 1) )',...,,( 21 ntttt xxxX = ha una “error correction representation” se può
essere espresso nella forma: tptptttt XXXXX επππππ +∆++∆+∆+−=∆ −−−− ...221110 ; dove 0π è
un vettore (n x 1) con i termini di intercetta, iπ sono matrici di dimensione (n x n) con termini jkπ ;
π è una matrice con almeno un termine non nullo ed infine tε è un vettore (n x 1) i cui termini non
13
sono necessariamente incorrelati tra loro. Sia ciascuna singola variabile tX integrata di ordine uno
(I(1)): se tali variabili )',...,,( 21 ntttt xxxX = sono rappresentabili attraverso la relazione
tptptttt XXXXX επππππ +∆++∆+∆+−=∆ −−−− ...221110 (1), allora esisterà necessariamente una
combinazione lineare di esse stazionaria. Formalmente, risolvendo la relazione precedente per
1−tXπ , si ottiene: ∑ −∆−−∆= −− tititt XXX επππ 01 . Dato che tutti gli elementi della parte destra
della precedente relazione risultano essere stazionari, 1−tXπ , elemento di sinistra della relazione, è
anch’esso stazionario. Da rilevare che, poiché la matrice π contiene solo costanti, ciascuna riga
rappresenta un vettore cointegrante per tX . Ad esempio, la prima riga può essere scritta come
)...( 1,11,2121,111 −−− +++ tnntt XXX πππ . Poiché ciascuna serie 1, −tiX è I(1), ),...,,( 11211 nπππ deve essere
un vettore cointegrante per tX . In definitiva, una “error correction representation” per variabili di
tipo I(1) implica necessariamente la presenza di cointegrazione tra le variabili. Analogamente può
essere dimostrato che la presenza di cointegrazione implica l’error correction representation
(teorema della rappresentazione di Granger).
A2.4 - Metodo di Johansen A scopo esemplificativo si consideri il caso di un vettore colonna tX di dimensione (n x 1) del tipo:
ttt XAX ε+= − 11 ; dove )',...,,( 21 ntttt εεεε = , 1A è una matrice di parametri di dimensione (n x n).
Sottraendo ad entrambi i membri 1−tX , si ha: ttttt XXAIX επε +=+−−=∆ −− 111)( . π è una matrice
(n x n). Da notare che stiamo trattando un caso particolare del caso più generale
tptptttt XXXXX επππππ +∆++∆+∆+−=∆ −−−− ...221110 . Se il rango della matrice π è zero, allora
ciascun elemento di π deve essere nullo, il che è equivale ad affermare che ttX ε=∆ . In questo caso
ciascuna variabile { }itx è di tipo I(1) e non c’è nessuna combinazione lineare delle variabili che sia
stazionaria. All’altro estremo, si supponga che π sia a rango pieno. In questo caso la soluzione al
sistema ttttt XXAIX επε +=+−−=∆ −− 111)( è dato da n equazioni indipendenti:
0.....
0...0...
2211
2222121
1212111
=+++
=+++=+++
ntnntntn
ntntt
ntntt
xxx
xxxxxx
πππ
ππππππ
14
Ciascuna di queste n equazioni è una restrizione della soluzione di equilibrio di lungo periodo. In
questo caso ciascuna delle n variabili è stazionaria. Ciascuna riga della matrice π è un vettore
cointegrante così che ci sono n vettori cointegranti su n variabili presenti nel sistema. Nei casi
intermedi, nei quali il rango di π è uguale ad r, ci sono r vettori cointegranti.
A2.5 - L’approccio di ENGLE-GRANGERPer spiegare l’approccio al problema della verifica dell’assenza/presenza di cointegrazione da parte
di Engle e Granger, si suppone che due variabili, tY e tZ , siano di tipo I(1) e si vuole determinare se
esiste una relazione di equilibrio tra le due. Dalla definizione di Cointegrazione risulta necessario
che le due variabili siano integrate dello stesso ordine. Da ciò si deduce che il primo passo da
compiere nell’analisi è di verificare che ciascuna variabile sia effettivamente I(1), altrimenti si può
già affermare che le due variabili non sono cointegrate. Tale verifica va fatta con il test di D&F o
con quello di Phillips-Perron precedentemente esposti. Se entrambe le variabili risultano
effettivamente di tipo I(1), allora si stima la relazione di equilibrio: ttt eZY ++= 10 ββ .
Se le variabili sono cointegrate, una regressione OLS comporta una stima dei parametri di
regressione 0β e 1β ”super consistente”. Stock (1988) dimostrò che le stime OLS di 0β e 1β per
variabili cointegrate convergono più rapidamente delle stime OLS per variabili stazionarie. Per
verificare se le variabili sono cointegrate occorrerebbe verificare la stazionarietà degli te , in realtà
non si può fare altro che lavorare con gli scarti ttt eYY ˆˆ =− .
Se ttt eYY ˆˆ =− è una serie stazionaria (I(0)), le due variabili esaminate, Y e Z, risultano essere
cointegrate. In pratica, se il test di D&F verifica la stazionarietà dei residui, si ha 01 =a nella
relazione ttt eae ε+=∆ − 11 ˆˆ .
Il limite di tale approccio consiste nel fatto che non sempre i test di D&F o di PP possono essere
applicati ai residui poiché il ricercatore non conosce la serie te ma solo ttt eYY ˆˆ =− . Fortunatamente
Engle e Granger fornirono un test statistico che può essere usato per verificare l’ipotesi 01 =a ,
tuttavia in questi casi è consigliabile utilizzare entrambi i test (Engle-Granger e Johansen) per
verificare al meglio l’eventuale relazione cointegrante tra le variabili.
15
A3.1 - TEOREMA 3.1
Per “r” intero, il momento di ordine “2r” di un processo ARCH lineare di ordine uno con 00 >α e
0≥α esiste se e solo se1:
∏=
<−r
j
r j1
1)12(α
A3.2 - TEOREMA 3.2
Il processo ARCH(p) con 0,...,,,0 210 ≥> pαααα , è stazionario in covarianza se, e solo se,
l’equazione caratteristica associata ha tutte le radici al di fuori del cerchio unitario. Il momento
secondo è dato da:
∑=
−= p
jj
tE
1
02
)1()(
α
αε
.
A3.3 - L’Approccio di ENGLE
Engle partì da un processo AR(1) stazionario:
ttt XX ερµ ++= − 1
con 1<ρ
),( 2σε oWNt = .
Tale processo ha come momenti primo e secondo condizionati i seguenti:
;)/(
;)/(2
1
11
σψ
ρψ
=
=
−
−−
tt
ttt
XVarXXE
mentre i momenti primo e secondo non condizionati risultano essere rispettivamente pari a:
0)( =tXE ;
22 )1(
1)( σρ−
=tXVar .
1 Per la dimostrazione di tale teorema vd. Engle(1982).
16
INEFFICIENZA DEL MERCATO E ANALISI TECNICA
Il crescente interesse da parte di grandi e piccoli investitori nei confronti dell’analisi
tecnica e di quella fondamentale depongono a favore di una visione del mercato non
efficiente:il rifiuto dell’ipotesi di efficienza debole incoraggia l’uso di indicatori di
natura tecnica per poter “battere” il mercato; il rifiuto dell’ipotesi di efficienza semi-
forte induce gli investitori ad adottare strumenti di analisi fondamentale per
individuare titoli sopra o sotto quotati. Il “trade union” tra i due approcci consiste nel
rifiuto dell’ipotesi di un mercato in cui l’informazione (analisi di settore, notizie di
carattere aziendale o di tipo macroeconomico) non si trasferisce nella quotazione in
modo corretto e con la rapidità necessaria a rendere inutile qualsiasi tentativo di
previsione. A tale proposito occorre operare una sintesi tra le tre ipotesi di efficienza
del mercato: efficienza debole, semi-forte e forte.
Si parla di un mercato efficiente in forma debole se la conoscenza della storia passata
dei prezzi non aiuta l’investitore a migliorare la “performance”: le informazioni
disponibili e gratuite sono utilizzate dagli investitori per realizzare acquisti e vendite
in un mercato che non ha costi transattivi. Tali condizioni non vengono nemmeno
ritenute strettamente necessarie affinché un mercato possa essere ritenuto ancora
efficiente: ciò accade nel caso in cui le informazioni sono disponibili ad un numero
adeguato di investitori, non esistono gruppi che sistematicamente interpretano meglio
di altri l’informazione e i costi di negoziazione non impediscono le contrattazioni. La
verifica di tale ipotesi porterebbe ad un mercato in cui non esisterebbero titoli
sovra/sotto stimati e la correzione istantanea dei prezzi impedirebbe la realizzazione
di un qualsiasi strumento o indicatore volto a migliorare le capacità previsionali di un
analista.
Si parla invece di efficienza semi-forte allorquando le informazioni aziendali
pubbliche sono trasferite nel prezzo con rapidità ed in modo corretto in modo tale che
la loro conoscenza non consente di realizzare profitti particolari. L’insieme
informativo dell’ipotesi semi-forte è più ampio di quello della forma debole ed è
composto da dati e notizie tratti dallo studio dei bilanci, dall’insieme delle
comunicazioni societarie sui risultati, i programmi e le prospettive dell’impresa.
L’ipotesi di efficienza forte consiste nella completa accessibilità da parte degli
investitori a tutte le informazioni rilevanti, comprese quelle di natura privata.
Rifiutando l’ipotesi di un mercato efficiente, appaiono molto interessanti gli
strumenti di analisi tecnica poiché essi si basano sull’idea che i prezzi rispecchiano
non solo le informazioni rilevanti riscontrabili dall’analisi dei fondamentali dei titoli,
ma anche l’insieme degli elementi psicologici ed umorali che influenzano, a volte
pesantemente, l’esito delle contrattazioni. Di seguito saranno esposti i contenuti
principali della teoria di Dow, il padre fondatore dell’analisi tecnica; successivamente
verranno illustrate le nozioni fondamentali per l’utilizzo degli strumenti base della
materia, con particolare interesse per le medie mobili e gli oscillatori, infine verranno
analizzate le teorie dei pivot e delle japanese candlestick.
GLI INIZI DELL’ANALISI TECNICA
É opinione diffusa che il primo e più importante apporto alla nascita ed allo sviluppo
delle metodologie che possono essere comprese nell’analisi tecnica è identificabile
nel complesso di regole e metodi contenuti negli editoriali pubblicati all’inizio del
secolo da Charles Henry Dow sul Wall Street Journal, di cui lo stesso Dow fu
fondatore ed editore.
La teoria di Dow prevede il confronto di due indici, l’Industrial Average ed il Rail
Average; il presupposto fondamentale della teoria di Dow è rappresentato dal
concetto per il quale la maggioranza delle azioni segue per buona parte del tempo
preso in esame la sottostante tendenza del mercato. Ciò premesso, Dow pensò bene di
misurare il mercato costruendo i due indici suddetti, il Dow Jones Industrial Average
(una combinazione di dodici titoli guida) ed il Dow Jones rail average (comprendente
dodici titoli delle principali compagnie ferroviarie), destinati successivamente, nel
1928, a dar luogo all’attuale indice Dow Jones.
I principi fondamentali della teoria di Dow sono sei e sono riassumibili come segue:
Il prezzo è l’elemento catalizzatore delle decisioni aggregate e delle relative
emozioni degli operatori che alimentano il rapporto tra domanda e offerta. La
rilevazione del prezzo (chiusura giornaliera) e della sua media si presenta quindi di
importanza basilare per l’interpretazione degli altri principi.
I mercati riempiono lo spazio, nel tempo, alternando ciclicamente la stessa
dinamica. Tale dinamica si caratterizza per una tendenza primaria (rialzista o
ribassista) destinata a durare mediamente almeno due anni e oltre. Una tendenza
secondaria, che evidenzia una direzionalità opposta alla tendenza primaria, della
durata variabile da un minimo di tre settimane a circa sei/dieci mesi, che solitamente
rintraccia circa il 33, 50 0 66% del percorso evidenziato dalla tendenza primaria. E
infine una tendenza minore che temporalmente si inserisce da un minimo di alcune
ore a un massimo di tre settimane e che, direzionalmente, fa parte della tendenza
primaria.
Le linee indicano il movimento. Pertanto variazioni di prezzo che non fanno
registrare uno scostamento superiore del 5% rispetto alla propria media identificano
una fase. Le fasi sono classificabili con una sequenza destinata a ripetersi nel tempo
con accumulazione, convinzione, speculazione, distribuzione, convinzione, panico,
rassegnazione, accumulazione e così via, il tutto a disegnare una configurazione
geometrica assimilabile a un trapezio destinato a ribaltarsi e a riprendere posizione
ciclicamente nel tempo.
Le relazioni tra prezzo e volume confermano il movimento. Un trend rialzista si
definisce normale quando la tendenza è confermata da volumi in crescita e le
correzioni si caratterizzano da volumi in diminuzione. Le discordanze tra le due
relazioni devono essere interpretate quale primo campanello d’allarme e non come
segnale di inversione di tendenza.
La dinamica registrata dal prezzo determina la tendenza.
Un trend rialzista si contraddistingue da una sequenza di massimi che superano i
precedenti e da una sequenza di minimi che rintracciano livelli di prezzo superiori ai
minimi precedenti. Viceversa, un trend ribassista si identifica per una progressiva
discesa dei massimi e dei minimi relativi.
Gli indici devono confermarsi a vicenda. I due indici creati da Dow dovevano
confermarsi a vicenda per avvalorare il segnale di acquisto, poiché Dow riteneva che
i cambiamenti dei cicli economici dovevano essere avvalorati sia dalla qualità di
un’economia in espansione (DJ industrial average) sia dai suoi riflessi commerciali
legati al trasporto e alla circolazione delle merci (DJ rail average).
In sintesi l’andamento dei mercati ricalca generalmente uno schema evolutivo, il
trend, basato sullo sviluppo sequenziale di movimenti attivi e di correzioni. Per
movimento attivo si deve intendere l’andamento dei corsi con direzione conforme al
trend di fondo (crescente in un trend rialzista, decrescente in uno ribassista); si parla
di correzione se si fa riferimento alla dinamica dei corsi con direzione contraria alla
tendenza principale. La sequenza e l’intersezione dei diversi trend segue un
andamento ciclico distinto in tre fasi: accumulazione, rialzo e distribuzione. Nella
fase di accumulazione inizia un lento ma continuo rastrellamento di titoli da parte dei
grandi investitori: i prezzi si mantengono stabili o leggermente crescenti, i volumi
tendono lentamente ad intensificarsi. La fine di questa fase ed il contemporaneo
inizio della fase rialzista è riscontrabile nella crescita simultanea di prezzi e volumi
dovuti al fatto che le informazioni rilevanti incominciano ad arrivare ad un numero
meno ristretto di investitori. La fase di distribuzione prevede prezzi e volumi stabili
su livelli elevati ma i grandi investitori incominciano gradualmente a vendere per poi
generare un segnale comune di vendita che da luogo ad un periodo di generali ribassi.
Un limite notevole alla teoria di Dow consiste nei ritardi operativi dovuti a mancate
convergenze tra i vari indici oggetto d’esame: il timing operativo è, per lo più,
lasciato al buon senso dell’investitore.
PRINCIPALI STRUMENTI DELL’ANALISI TECNICA: LE MEDIE MOBILI
L’interpretazione dei corsi relativi a medie mobili di range diverso rappresenta
l’indicatore più facile ed efficace nell’analisi tecnica per identificare il trend di fondo
espresso dai movimenti dei prezzi. Notevolmente influenzate nella loro reattività dal
dominio temporale, le medie mobili ben si prestano a indicare livelli di supporto e
resistenza dinamici il cui incrocio con la linea dei prezzi dà luogo a segnali operativi.
La situazione tipica è rappresentata dalla generazione di un segnale di acquisto in
occasione della violazione al rialzo della media da parte della linea dei prezzi e di
vendita in caso contrario. Tale sistema, eccellente nei casi di trend ben definiti, è in
grado di indicare da quale parte del mercato stare, ma sempre in funzione del trend.
Nei casi, peraltro estremamente frequenti, di movimenti laterali e in assenza di trend
direzionali, qualsiasi sistema basato esclusivamente sull’incrocio tra prezzi e relative
medie mobili è inevitabilmente destinato a produrre perdite. Proprio per questo
motivo, nel tempo, sono state introdotte nuove formule per il calcolo delle medie e
nuovi indicatori che, se associati alle medie stesse, aiutano a filtrare i falsi segnali.
In generale la media mobile viene calcolata su un insieme di osservazioni di
numerosità costante e predeterminata, da aggiornarsi nel tempo mediante
l’eliminazione dei dati più vecchi e l’introduzione di quelli più recenti. Le medie con
un range breve sono più adatte per le cosiddette fasi orizzontali del mercato,
risultando maggiormente sensibili anche ai segnali minori, quelle “lunghe” sono
ottimali per periodi di trend definito. Si ottiene in tal modo una serie storica
appiattita, caratterizzata da un ritardo temporale rispetto a quella originaria, alla quale
di solito viene affiancata, in modo da poterne comparare l’andamento evidenziano i
punti di intersezione.
Un’ulteriore decisione riguarda la metodologia di computo della media; di solito si
utilizzano la media semplice, quella ponderata o quella esponenziale. La media
mobile semplice è quella più utilizzata:
n
inPnMMS
n
i∑
−
=
−=
1
0
)()(
In questo caso ai dati della serie viene attribuito un identico peso, 1/n, che si annulla
istantaneamente nel momento in cui gli stessi vengono gradualmente eliminati. Tale
indicatore ravvisa una scarsa sensibilità ai dati più recenti, risulta, di conseguenza,
più opportuno un diverso sistema di pesi da attribuire ai prezzi. A riguardo può
risultare utile la media mobile ponderata:
∑∑
−
=
−
=
−
−−= 1
0
1
0
)(
)()()( n
i
n
i
inW
inWinPnMMP
in cui W è un opportuno fattore di ponderazione. La ponderazione riduce
notevolmente il ritardo tipico della media semplice.
Tali sistemi non riducono il rischio di perdita istantanea delle informazioni meno
recenti; per tale scopo vengono utilizzate le medie mobili esponenziali, le quali
assegnano pesi più alti ai prezzi più recenti mantenendo comunque un peso
consistente per i dati passati. Dalle medie mobili esponenziali si ottengono delle
curve vicine alle linee dei prezzi ma che riescono ad anticipare i segnali tecnici
necessari per il trading. La formula per calcolare la media mobile esponenziale a n
giorni è la seguente:
∑
∑−
=
−
−
=
−−= 1
0
)(
1
0
)()()( n
i
in
n
i
in
W
WinPnMME
Con 0<W<1 in modo da attenuarne gradualmente l’effetto senza mai annullarlo. Per
il calcolo di tale media risulta molto utile la seguente relazione ricorsiva:
MME(t)=MME(t-1)(1-W)+Pt(W) .
Un considerevole passo avanti è stato compiuto con l’introduzione di un nuovo tipo
di media mobile in grado di adattare la propria reattività in funzione della volatilità
della serie di prezzi a cui è applicata. Fra i primi a introdurre un sistema
sostanzialmente trend-following in grado di modificarsi in funzione della volatilità
dei prezzi Tushar Chande ha sviluppato una serie di strumenti tecnici di notevole
valore che hanno contribuito a cambiare il modo di fare trading negli ultimi anni. Il
concetto di fondo alla base dei risultati ottenuti da Chande consiste nel vedere il
fattore di ponderazione come specchio della variabilità dei dati sottostanti: maggiore
è la variabilità dei dati, tanto maggiore sarà il fattore di ponderazione.
Un altro sistema che ha come obiettivo il miglioramento delle indicazioni fornite
dalle medie mobili è lo spostamento in avanti delle medie stesse in un contesto che
preveda la rappresentazione multipla di una media mobile di un determinato dominio
temporale. Tale sistema illustra, graficamente, come nei momenti di trend le medie si
distanzino per poi riavvicinarsi e aggrovigliarsi nei momenti di congestione.
Un interessante sistema è stato proposto da Bill Williams: vengono prese in
considerazione tre medie mobili a cinque, otto e tredici periodi, rispettivamente
spostate in avanti di tre, cinque e otto periodi. Tale sistema, che prende il nome di
Alligator, aiuta molto a identificare i momenti di congestione nei quali è
sconsigliabile operare.
SUPPORTI RESISTENZE-
Osservando attentamente il grafico di un titolo si notano spesso dei valori che
costituiscono una “barriera”, di cui occorre imparare a tener conto. Per esemplificare
meglio il concetto si è scelto un vero titolo del mercato azionario, del quale viene
riportato il grafico dei valori da Agosto 1994 a Maggio 1996.
Le lettere in basso sono le iniziali dei mesi.
Sono state inoltre tracciate sul grafico due linee orizzontali, in corrispondenza dei
valori 4.000 e 3.000 lire.
I numeri racchiusi in quadrati corrispondono a dei punti richiamati dal testo di
spiegazione che segue.
Il titolo, intorno alla metà di Ottobre 1994, è sceso sotto le 4.000 lire (punto 1). Nei
tre mesi successivi il suo valore ha oscillato al di sotto di tale cifra, senza riuscire a
risalirvi con decisione, per poi continuare in discesa. Nei primi di Aprile il titolo
strappa verso l'alto, ma si “scontra” a quota 3.000 (punto 2), dalla quale viene
respinto verso il basso.
Verso i primi di Luglio '95 il titolo riprende a salire, raggiunge quota 3.000 (punto 3),
questa volta riesce a superarla, vi indugia intorno quasi a prendere fiato, vi rimbalza
sopra e finalmente riparte verso nuove vette.
Arrivato ad Ottobre ancora sulla fatidica quota 4.000 (punto 4), si scontra
nuovamente con un muro invisibile e viene respinto brutalmente verso il basso. Nel
ripiegare, il titolo incontra a metà Novembre di nuovo quota 3.000 (punto 5). Da
questa è respinto verso l'alto: riprende la salita, raggiunge in Febbraio livello 4.000
(punto 6) e, questa volta, sfonda la barriera usandola poi come trampolino per
ripartire al rialzo.
Le ipotetiche linee tracciate a quota 3.000 e 4.000 sono di resistenza/supporto:
- Una linea che sta per essere perforata al ribasso, è chiamata supporto, sostenendo in
qualche modo il titolo.
- Una linea che sta per essere perforata al rialzo, è chiamata resistenza, opponendosi
in qualche modo all'ulteriore salita del titolo. Nell'esempio riportato, mentre il titolo
scendeva, ha incontrato il suo supporto a quota 4.000 e, mentre risaliva, ha incontrato
la sua resistenza nello stesso punto.Esaminando un titolo occorre notare con quanta
forza certe linee vengono perforate, ricavando importanti informazioni sull'incertezza
o decisione dei movimenti del titolo. In modo analogo, occorrerà valutare il
momento opportuno d'acquisto, o vendita, di un titolo che interessa, tenendo presente
che l'incontro con resistenze o supporti più volte verificati in passato rappresentano
spesso momenti di verifica.
Uno sviluppo delle linee di resistenza e supporto è dato dal concetto di Trend. Oltre a
linee orizzontali, infatti, è possibile racchiudere il movimento di un titolo, all'interno
di linee inclinate che ne limitano le oscillazioni.
Come nel caso di supporti e resistenze, per semplicità di esposizione viene riportato il
grafico di un titolo preso dalla realtà.
IL TRADING SYSTEM
Si parla di trading system allorquando ci si riferisce ad un insieme di regole
precostituite alla base dei processi decisionali dei traders. Gli operatori di borsa
adottano un sistema di trading per realizzare decisioni il più possibile aderenti agli
effettivi sviluppi del mercato, limitando il più possibile il costo relativo alla pressione
psicologica gravante su di essi. I trading system offrono infatti un supporto utilissimo
eliminando la soggettività nella valutazione dell’andamento dello strumento
finanziario e portando all’attenzione del trader quelle situazioni che hanno dimostrato
una certa profittabilità. Molto spesso per un trader lo stress può riflettersi in un
rallentamento dei processi decisionali, a volte determinante in un’operazione di
compravendita. Le caratteristiche di robustezza, significatività ed efficienza di un
trading system rappresentano i requisiti necessari per poter “legittimare” un sistema e
renderlo meritevole di considerazione per un eventuale utilizzo nelle transazioni
future.
Un sistema viene considerato robusto se genera risultati positivi senza dipendere da
un insieme limitato di parametri. Al contrario, un sistema che funziona bene solo con
un insieme ristretto di parametri è detto overfitted, sovraottimizzato. Molto spesso
capita che un sistema sia eccezionalmente profittevole se testato sul passato ma,
applicato al mercato nel presente, dia risultati deludenti. Questo succede perché il
processo di ottimizzazione è stato essenzialmente volto ad individuare le variabili che
massimizzano il rendimento del sistema nel passato.
Il modo migliore per verificare la robustezza di un trading system consiste nella
realizzazione dello stesso nei diversi periodi e per diversi titoli: minore è la sensibilità
del sistema a variazioni dell’orizzonte temporale ed alla composizione del
portafoglio, maggiore sarà il livello di robustezza del sistema.
Un secondo fattore determinante nella valutazione di un sistema operativo di trading
è la significatività del sistema stesso. La misura della significatività di un sistema
adottata sui principali software operativi, consiste nell’errore di rilevazione, uguale, a
sua volta, all’inverso della radice quadrata del numero di operazioni necessarie per
realizzare il trading. Indicando con n il numero di tali operazioni, la presente misura
potrà essere sintetizzata con la seguente formula:
nError 1=
Se ad esempio vi sono venticinque operazioni, l’errore di calcolo sarà più o meno del
20%. Per mantenere il livello di errore entro il 5% servirebbero circa 400 operazioni.
Sfortunatamente sono pochissimi i sistemi che generano tanti segnali.
Per misurare invece l’efficienza di un sistema, si prende in considerazione la
proporzione tra il profitto possibile ed il profitto potenziale, teorico quest’ultimo, di
un dato mercato:
......totpotenzprof
totproftotaleeff =
In altre parole si considera il guadagno del sistema in esame rispetto a un sistema
ideale che compra sempre sui minimi e vende sui massimi. Oltre all’efficienza totale
del sistema occorre calcolare anche l’efficienza rispetto alle singole operazioni.
L’efficienza dei segnali (calcolata in rapporto alla differenza tra massimi e minimi
relativi del dato intervallo di riferimento), è bassa se inferiore al 60%. Viceversa tale
limite si ridimensiona al 20% per l’efficienza totale. In questa misurazione occorre
scartare i valori estremi. Un sistema che può dare dieci operazioni, delle quali nove
hanno un’efficienza del 15% ed una sola del 100% avrebbe come media un
fuorviante 23,5%. Tre altri fattori che influenzano pesantemente sulla valutazione
dell’efficacia di un sistema di trading sono il drowdown (la cosiddetta perdita
massima realizzata dal sistema), la percentuale di operazioni vincenti realizzate ed il
numero di operazioni negative che si verificano all’atto della completa attuazione del
sistema operativo.
Una volta definiti i cardini per una corretta valutazione di un sistema operativo, non
resta che decidere quanto rischiare.
La scelta è legata alla propensione al rischio dell’investitore, tuttavia i traders
restringono il campo al cosiddetto rischio di rovina: la possibilità cioè di perdere
tanto (in termini finanziari e psicologici) da essere impossibilitati ad operare. Tale
rischio viene visto in funzione di tre fattori: la probabilità di successo, il payoff ratio
(dato dal rapporto vincita media/perdita media) e la parte di capitale esposta al
trading. Da sottolineare che il rischio di rovina aumenta con l’incrementarsi della
percentuale di capitale esposta ed è invece inversamente proporzionale alla
probabilità di successo.
In genere i grandi trader tendono a non rischiare mai più del 4% del capitale per
operazione e molti di loro addirittura si limitano al due.
Alla base di quasi tutti i trading system adottati vi è l’analisi tecnica per la facilità di
comprensione dei segnali e per l’efficacia riscontrata.