Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k ( k – ) 2 Dev(X)=

72
Scomposizione della devianza 1 = 2 k k N i ki x 2 k 1 = 2 1 = 2 N N i ki N i ki k k k k x x Dev(X k )= K=1,…, r G ruppiparziali 1 2 k r x 11 x 21 x k1 x r1 x 12 x 22 x k2 x r2 x 1i x 2i x ki x ri x 1N 1 x 2N 2 x kN k x rN r =Dev(X k )+N k ( k ) 2 r k r k k r k N i ki k k x 1 = 2 k 1 1 1 = 2 N ) D ev(X Dev(X)= devianza totale nelle classi devianza fra le classi

Transcript of Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k ( k – ) 2 Dev(X)=

Page 1: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Scomposizione della devianza

1=

2k

k

N

i–kix

2k1=

2

1=

2 N –N

i–ki

N

i–ki k

k

k

kxx

Dev(Xk)= K=1,…, r

Gruppi parziali 1 2 … k … r

x11 x21 … xk1 … xr1 x12 x22 … xk2 … xr2 … … … … … … x1i x2i … xki … xri … … … … … …

x1N1 x2N2 … xkNk … xrNr

=Dev(Xk)+Nk(k–)2

r

k–

r

kk

r

k

N

i–ki k

kx

1=

2k

11 1=

2 N)Dev(X Dev(X)=

devianza totale nelle classi devianza fra le classi

Page 2: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Intervalli di confidenza

Errore=

e

e

||

||||

x

xx x

xx

––

Rischio= = exP x – ||

Page 3: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

2P

α =

σne

z > x

2α/x

= zσ

ne

e

σ z = n x

.α/ 2

2

222

e

σ z n = x

.α/

–1– 2/2/

n

ZX

n

ZXP x

xx

Page 4: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

. x 7

x + e . x 4 . x 1 . x 6

x . x 5 . x 2

x – e . x 8

. x 3

1° 2° 3° 4° 5° 6° 7° 8°

Page 5: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Misure di distanza

1        2      .      .          .          S        

  1 2 . . . O

unitàw

variabili

Unità i ( wi1, wi2 , wi3 , … , wiO)

infatti, in uno spazio bidimensionale:

unità i (wi1, wi2)

Page 6: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Nel caso che le O variabili sono espresse in unità di misura diverse:

dove:

(wi–wj)= |( wi1–wj1) (wi2 – wj2) … (wiO–wjO)|

jijiji2 wwQ'www,wd

(wi–wj)=a= |a1 a2 … aO|

d2(wi,wj)=

(1x1) (1xn) ( nxn) (nx1)

a1 a2 … an

a1 a2 … an

Page 7: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

ricordando che:

2N

1ii

2N

1ii

i

N

1ii

YYXX

YYXX

)Y(DEV)X(DEV)Y,X(COD

r

Matrice di varianze e covarianze:

V=

Page 8: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Somiglianza tra variabili

ji1

jiji2 ssV'sss,sd

Per rendere le variabili indipendenti tra loro, occorre moltiplicare le distanze tra le variabili per l’inversa della matrice di varianze e covarianze

Page 9: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La matrice inversa

Sia A una matrice quadrata di ordine nxn, si dice matrice inversa di A e si indica con A-1 la matrice dello stesso ordine di A tale che:

AA-1 = A-1A = Inxn

Per capire se una matrice è dotata o meno di inversa, occorre calcolarne il determinante. Quando Det(A)=0 la matrice non è dotata di inversa. In caso contrario, la matrice è dotata di inversa (non singolare) Il determinante di una matrice (solo per le quadrate) è un numero che viene associato ad ogni matrice quadrata tale che:|A| di ordine 1x1 coincide col numero stesso

|A| di ordine 2x2 è pari a: a11a22–a21a12

Page 10: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Il rango di una matrice

Sia A una matrice di ordine mxn, considerando le colonne di A come vettori di ordine m, il rango di A è il massimo numero di vettori colonna linearmente indipendenti.

n vettori si definiscono linearmente indipendenti se nessuno di essi è esprimibile come combinazione lineare degli altri.

Esempio di vettori linearmente dipendenti:(2, -1, 1), (1, 0, 1) e (3, -1, 2)

il terzo vettore è la somma dei primi due

Data una matrice quadrata di ordine n: r(A)=n se e solo se |A| 0

l’inversa di una matrice esiste se e solo se la matrice ha rango massimo

Page 11: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

In generale, in un’indagine statistica sono rilevate, per ciascuna unità, un numero elevato di variabili. Spesso l’obiettivo dell’analisi consiste nel pervenire alla conoscenza di fenomeni non direttamente rilevabili (es. qualità della vita), ma alla cui determinazione concorrono numerose variabili atte ad evidenziarne i molteplici aspetti (inquinamento dell’aria, fruibilità dei servizi pubblici, facilità di parcheggio, tasso di criminalità, ecc.).

necessità di sintetizzare tutte le variabili rilevati in uno o in pochi indicatori

Page 12: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

Nel caso in cui su un collettivo statistico vengono rilevate, per ogni unità, solo due variabili, è possibile proiettare su un sistema cartesiano i punti unità:

due punti tra loro vicini significa che quegli individui hanno caratteristiche simili

Qualora si proiettino i punti variabili

due punti tra loro vicini significa che tra le variabili sussiste una relazione

Page 13: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

ProblemaProblema

Avendo rilevato n variabili su un collettivo di p unità, si vuole passare da uno spazio a n dimensioni ad uno spazio a m dimensioni (m<n) con la minima perdita di informazioni (variabilità)

Page 14: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali Esempio di passaggio da un sistema bidimensionale ad uno unidimensionale

222 fxfoxo massimizzare (of)2

Page 15: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

Il passaggio da un sistema di riferimento ad un altro avviene semplicemente operando una combinazione linearecombinazione lineare delle coordinate che i punti presentano nello spazio precedente.

InfattiInfatti

• nel caso di passaggio ad un nuovo sistema i cui assi sono paralleli ai precedenti, è sufficiente sottrarre alle coordinate di partenza quelle del punto assunto come origine degli assi•nel caso di passaggio da un nuovo sistema i cui assi non sono ortogonali tra loro ad un nuovo sistema di assi ortogonali, occorre moltiplicare le coordinate di partenza per il coseno dell’angolo del nuovo sistema

Page 16: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

Da un punto di vista matematico: La proiezione dei punti da un sistema X Rn ad un nuovo sistema di riferimento Y Rm, con m<n, richiede l’applicazione di una funzione:

A: X AX = Y

dove la matrice A costituisce l’operatore di trasformazione di una grandezza da uno spazio Rn ad un nuovo spazio Rm.

Per massimizzare la somma delle proiezioni dei punti sui nuovi assi, occorre prendere una retta non passante per l’origine dei vecchi assi. necessità di cambiare origine degli assi, che viene individuata nel baricentro della nube dei punti (punto nell’iperspazio le cui coordinate sono pari al valore medio di ogni variabile). equivale a trasformare ciascuna variabile considerando, in luogo dei valori xi, gli scarti dalla propria media.

Page 17: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

Da un punto di vista matematico:

Si inizia individuando un primo asse (retta) in modo che le proiezioni dei punti sulla stessa sia massima. Per individuare la seconda dimensione, si sceglie una ortogonale alla prima già individuata e che massimizza sempre la proiezione dei punti.

ii(of(ofii))22=(Xu)’(Xu)=u’X’Xu= max=(Xu)’(Xu)=u’X’Xu= max

conu vettore delle nuove coordinate incognitoX matrice dei dati di partenza nello spazio Rn

Indicando A=X’X: ii(of(ofii))22=u’Au= max=u’Au= max

con il vincolo u’Mu=1 di ortonormalità (uiuj=0) e normalizzati}con M matrice simmetrica positiva

Page 18: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

L’Analisi in Componenti Principali

Da un punto di vista matematico:

Trattandosi di un problema di massimizzazione, si ricorre quindi ai moltiplicatori di Lagrange:

L=u’Au – (u’Mu–1)=maxe derivando rispetto ad u:

2Au–2 Mu=0Au= Mu

e moltiplicando ambo i membri per u’:u’Au= lu'Mu

e siccome u’Mu=1u’Au=

è il parametro che massimizza la somma delle proiezioni dei punti dello spazio sull’asse u

Essendo M una matrice invertibile: M-1Au=uu autovettore della matrice M-1A corrispondente all’autovalore .

Page 19: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Brevi richiami di algebra lineare

Un autovettoreautovettore di una trasformazione lineare è un vettore non nullo che non cambia direzione nella trasformazione

Il vettore può cambiare quindi solo per moltiplicazione di uno scalare, chiamato autovalore.

Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi vettoriali: ogni punto dello spazio può essere descritto tramite un vettore che collega l'origine al punto.

Rotazioni sono esempi particolari di trasformazioni lineari dello spazio: ciascuna di queste trasformazioni viene descritta agevolmente dall'effetto che produce sui vettori.

In particolare, un autovettore è un vettore che nella trasformazione viene moltiplicato per un fattore scalare λ.

Nel piano o nello spazio cartesiano, questo equivale a dire che il vettore non cambia direzione.

Page 20: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Brevi richiami di algebra lineare

Riprendendo l’espressione M-1Au=u e portando tutto al I membro:M-1Au–u=0(M-1A–I)u=0(M-1A–I)=0la cui soluzione si ottiene ponendo uguale a zero il determinante della matrice al I membro:det(M-1A–Il)u=0 equazione caratteristicain quanto le radici del seguente polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A:p(x) = det(A − xI) sono proprio gli autovalori di A.ad ogni autovalore si possono associare infiniti autovettori per A matrice reale e simmetrica, gli autovettori corrispondenti ad autovalori diversi sono linearmente indipendenti e quindi ortogonali tra loro

Page 21: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Passi dell’AF:• calcolo della matrice di correlazione o di

covarianza

• stima dei fattori, che vengono estratti ad es. con l’ACP

• rotazione dei fattori per facilitarne l’interpretazione

• calcolo, per ogni osservazione, dei punteggi in relazione a ciascun fattore L’ACP si serve di combinazioni lineari delle variabili

di partenza che consentono di catturare la maggiore variabilità delle stesse. La prima combinazione lineare cattura l’importo di variabilità più elevato nel campione; la II la più elevata variabilità rimanente, in una dimensione indipendente rispetto alla precedente.

Page 22: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

La variabilità associata a ciascuna componente è rappresentata dal corrispondente autovalore. Il valore di ciascun autovalore esprime la parte della variabilità della nuvola dei punti nello spazio multivariato di partenza catturata dalla nuova dimensione espressa dall’autovettore associato a quell’autovalore. La comunalità, per ogni variabile, è la quota della varianza di quella variabile che può essere spiegata dai fattori comuni; essa è espressa dalla correlazione multipla quadra della variabile con i fattori. Le comunalità delle variabili di partenza prima dell’applicazione dell’ACP sono dunque pari a 1. Successivamente, si esaminano le comunalità rispetto ali primi fattori estratti e considerati ai fini dell’analisi. La tabella delle comunalità mostra dunque la % di variabilità che per ogni variabile è spiegata da tali primi due fattori

Page 23: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio Scree plot: è il grafico che in ascissa ha le componenti fattoriali e in ordinata il valore dell’autovalore associato. È utile per decidere quante componenti considerare.

Matrice delle componenti: mostra i coefficienti (loadings) che legano le variabili alle componenti non ruotate. Sono cioè i coefficienti di correlazione calcolati tra ciascuna variabile e ciascun fattore. Pertanto consentono di evidenziare ogni variabile a quale componente è maggiormente collegata.

Matrice delle componenti ruotate: dopo la rotazione, che è un’operazione che spesso risulta utile effettuare per favorire l’interpretazione dei fattori, i coefficienti cambiano. Infatti, scopo della rotazione è proprio quello di rendere i coefficienti maggiori ancora più grandi e quelli minori ancora più piccoli

Page 24: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Test KMO e test di sfericità di Bartlett: riproduce i valori assunti dalla misura di Kaiser-Meyer-Olkin La misura di Kaiser-Meyer-Olkin è un indice normalizzato che mette a confronto l’entità complessiva dei coefficienti di correlazione semplice rij tra ogni coppia Xi e Xj di variabili e quella dei corrispondenti coefficienti di correlazione parziali rij,rest, rese costanti tutte le altre variabili: quanto più questo indice vale 1, tanto più il modello fattoriale è adeguato ai dati. Test di sfericità di Bartlett: è basato sull’assunto di normalità distributiva delle variabili osservate, consente di saggiare l’ipotesi che la matrice di correlazione coincida con la matrice identità; al crescere del valore del testi di Bartlett, decresce il corrispondente p-value.

Page 25: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio Consideriamo alcuni indicatori della dotazione di strutture turistico-ricettive inerenti le province italiane.

Page 26: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

n. esercizi alberghieri, n. letti negli esercizi alberghieri, n. di camere negli esercizi alberghieri e n. di bagni negli esercizi alberghieri: tutte indicatrici del grado di presenza delle strutture alberghiere, ponendone in evidenza anche le caratteristiche dimensionali.

n. di bagni può denotare, là dove essa si discosti maggiormente dal numero di stanze, la maggiore presenza di strutture di basso livello.

presenza di campeggi e villaggi turistici tipologia particolare di turismo. Ci si attende che presentino i valori più elevati in corrispondenza delle maggiori località turistiche, soprattutto quelle balneari, a discapito, principalmente, del turismo nelle città d’arte, nelle quali la forma di alloggio più comune, si sa, è rappresentata dagli alberghi e dai bed and breakfast che sono compresi nelle ultime due variabili, ovvero n. di altri esercizi e n. di letti negli altri esercizi, così come gli agriturismo, che risultano sempre più numerosi.

Page 27: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

n. di alloggi privati in affitto e n. di letti negli alloggi privati ci si attende che presentino i valori più elevati in quelle province in cui il turismo è maggiormente presente, nelle quali, quindi, sono offerti con maggiore frequenza anche semplici appartamenti in fitto.

L’esame visivo dei dati in parte conferma queste prime deduzioni. presenza di alcuni valori mancanti per le variabili n. di campeggi e villaggi turistici e n. di letti nei campeggi e villaggi turistici e in pochi casi anche in quelle che si riferiscono alle tipologie di strutture ricettive definite “altre”(tutte quelle che non si riferiscono agli alberghi). tali dati mancanti possono derivare dall’assenza del fenomeno, come quello delle province di Benevento e Avellino in relazione alla presenza di campeggi e di villaggi turistici, ma in altri casi evidenziano senz’altro la mancata rilevazione del fenomeno, come nel caso del numero di alloggi privati in affitto in province come Roma.

Page 28: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

In particolare, mentre in 91 casi su 95 è rilevato il numero di campeggi e villaggi ed il numero dei letti negli stessi, in soli 85 casi su 95 ne è rilevata invece la superficie, per cui si ritiene opportuno eliminare dall’analisi questa variabile in quanto l’informazione che essa fornisce dà uno scarso contributo al quadro informativo già fornito con le variabili sul numero di campeggi e villaggi e sul numero di letti negli stessi. Risultano però mancanti anche i dati sul numero di alloggi privati e sul numero di letti negli stessi in ben 14 casi.

Analisi listwise si finisce per perdere ben 33 osservazioni su 95, ovvero il 35% dei dati disponibili.Analisi pairwise sebbene consenta di recuperare parte dell’informazione persa, rende più complessa l’interpretazione del fenomeno.

Page 29: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Page 30: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Le statistiche descrittive evidenziano l’estrema variabilità di tutte le variabili esaminate. In tutti i casi, infatti, la deviazione standard risulta superiore al valore della corrispondente media aritmetica. Esse, inoltre, presentano tutte una distribuzione marcatamente asimmetrica a destra e valori, talvolta, anche molto elevati dell’indice di curtosi, ad indicare la significativa deviazione dall’ipotesi di normalità delle variabili esaminate, che in tutti i casi hanno distribuzione ipernormale.

Page 31: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

EsempioCorrelation Matrixa

1,000 ,974 ,981 ,977 ,345 ,388 ,293 ,194 ,388 ,615

,974 1,000 ,992 ,988 ,376 ,471 ,343 ,211 ,387 ,628

,981 ,992 1,000 ,999 ,315 ,422 ,293 ,177 ,331 ,577

,977 ,988 ,999 1,000 ,294 ,411 ,279 ,165 ,305 ,554

,345 ,376 ,315 ,294 1,000 ,791 ,275 ,201 ,288 ,301

,388 ,471 ,422 ,411 ,791 1,000 ,285 ,267 ,163 ,307

,293 ,343 ,293 ,279 ,275 ,285 1,000 ,412 ,392 ,511

,194 ,211 ,177 ,165 ,201 ,267 ,412 1,000 ,205 ,308

,388 ,387 ,331 ,305 ,288 ,163 ,392 ,205 1,000 ,863

,615 ,628 ,577 ,554 ,301 ,307 ,511 ,308 ,863 1,000

Numero di esercizialberghieri

Numero di letti nelcomplesso degli esercizialberghieri

Numero di camere nelcomplesso degli esercizialberghieri

numero di bagni nelcomplesso degli esercizialberghieri

Numero di campeggi evillaggi turistici

Numero di letti nelcomplesso dei campeggie villaggi turistici

Numero di alloggi privatiin affitto iscritti al R. E. C.

Numero di letti nelcomplesso degli alloggiprivati in affitto iscritti al R.E.C.

Numero di altri esercizialberghieri.

Numero di letti nelcomplesso degli altriesercizi

Correlation

Numero diesercizi

alberghieri

Numero diletti nel

complessodegli esercizi

alberghieri

Numero dicamere nelcomplesso

degli esercizialberghieri

numero dibagni nel

complessodegli esercizi

alberghieri

Numero dicampeggie villaggituristici

Numero diletti nel

complessodei campeggi

e villaggituristici

Numero dialloggi privatiin affitto iscritti

al R. E. C.

Numero diletti nel

complessodegli alloggi

privati inaffitto iscritti

al R.E.C.

Numero dialtri esercizialberghieri.

Numero diletti nel

complessodegli altriesercizi

Determinant = 3,11E-009a.

Page 32: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Dall’analisi della matrice di correlazione notiamo come tutte le variabili siano legate da una correlazione di tipo diretto. Non ci si attende, quindi, dalla proiezione delle variabili sul piano fattoriale grandi contrapposizioni. Gli indicatori relativi agli alberghi sono tutti, come c’era da attendersi, fortemente correlati tra loro. Gli indicatori dei villaggi turistici presentano una correlazione elevata solo tra loro mentre con gli altri indicati essa si attesta in tutti i casi sotto lo 0,4. Stessa cosa vale anche per gli “altri” esercizi. Si esegue l’analisi decidendo di considerare tutti i fattori i cui autovalori sono maggiori di 1.

Page 33: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

KMO and Bartlett's Test

,738

1152,520

45

,000

Kaiser-Meyer-Olkin Measure of SamplingAdequacy.

Approx. Chi-Square

df

Sig.

Bartlett's Test ofSphericity

Kaiser-Meyer-Olkin: indice normalizzato, quanto più si avvicina a 1, tanto più il modello fattoriale è adeguato ai dati.

Test di sfericità di Bartlett: basato sull’assunto di normalità distributiva delle variabili osservate. Verifica l’ipotesi secondo cui matrice di correlazione dei dati coincide con la matrice identità (al crescere del valore del test, decresce il corrispondente p-value associato).

Page 34: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Il test di Kaiser Meyer Olkin evidenzia, con un valore di 0,738, l’adeguatezza del dataset al trattamento con la tecnica dell’ACP. Tale test esprime infatti la correlazione media esistente tra tutte le variabili inserite nell’analisi, considerate a coppie ed i corrispondenti coefficienti di correlazione parziali della medesima coppia di variabili rispetto a tutte le altre.

Il test di Bartlett, invece, che assume la normalità delle variabili, consente ampiamente di rigettare l’ipotesi nulla in base alla quale la matrice di correlazione non è significativamente diversa dalla matrice identità.

Page 35: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Tavola delle comunalità (quota della varianza di ciascuna variabile spiegata dai fattori prescelti)

Communalities

1,000 ,974

1,000 ,990

1,000 ,991

1,000 ,988

1,000 ,833

1,000 ,892

1,000 ,570

1,000 ,388

1,000 ,757

1,000 ,882

Numero di esercizialberghieri

Numero di letti nelcomplesso degli esercizialberghieri

Numero di camere nelcomplesso degli esercizialberghieri

numero di bagni nelcomplesso degli esercizialberghieri

Numero di campeggi evillaggi turistici

Numero di letti nelcomplesso dei campeggie villaggi turistici

Numero di alloggi privatiin affitto iscritti al R. E. C.

Numero di letti nelcomplesso degli alloggiprivati in affitto iscritti al R.E.C.

Numero di altri esercizialberghieri.

Numero di letti nelcomplesso degli altriesercizi

Initial Extraction

Extraction Method: Principal Component Analysis.

Page 36: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

La tavola delle comunalità riporta, nella II colonna, il valore della % di variabilità spiegata dai fattori presecelti in riferimento a ciascuna variabile. Per tutte, tranne quella che si riferisce al n. di letti nel complesso degli alloggi privati in affitto, la maggior parte della variabilità è spiegata dai fattori prescelti.

Page 37: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

EsempioComponent Matrixa

,926 -,339 -,031

,950 -,296 ,016

,921 -,378 ,008

,908 -,403 ,012

,528 ,405 ,624

,585 ,301 ,677

,504 ,528 -,191

,348 ,516 -,026

,572 ,421 -,502

,779 ,298 -,433

Numero di esercizialberghieri

Numero di letti nelcomplesso degli esercizialberghieri

Numero di camere nelcomplesso degli esercizialberghieri

numero di bagni nelcomplesso degli esercizialberghieri

Numero di campeggi evillaggi turistici

Numero di letti nelcomplesso dei campeggie villaggi turistici

Numero di alloggi privatiin affitto iscritti al R. E. C.

Numero di letti nelcomplesso degli alloggiprivati in affitto iscritti al R.E.C.

Numero di altri esercizialberghieri.

Numero di letti nelcomplesso degli altriesercizi

1 2 3

Component

Extraction Method: Principal Component Analysis.

3 components extracted.a.

Page 38: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

La matrice delle componenti mostra le correlazioni esistenti tra ciascuna componente e ciascuna variabile. Rispetto alla prima dimensione, tutte le variabili presentano correlazione diretta. Rispetto alla II dimensione, invece, gli indicatori riferiti alla dotazione alberghiera risultano in contrapposizione con tutti gli altri. La III componente vede invece contrapporsi gli indicatori riferiti ai villaggi ed ai campeggi a quelli inerenti le “altre” strutture”.

Page 39: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

EsempioTotal Variance Explained

5,363 53,634 53,634 5,363 53,634 53,634

1,574 15,740 69,375 1,574 15,740 69,375

1,326 13,264 82,639 1,326 13,264 82,639

,887 8,874 91,513

,540 5,397 96,910

,208 2,076 98,986

,076 ,756 99,742

,021 ,209 99,951

,005 ,045 99,996

,000 ,004 100,000

Component1

2

3

4

5

6

7

8

9

10

Total % of Variance Cumulative % Total % of Variance Cumulative %

Initial Eigenvalues Extraction Sums of Squared Loadings

Extraction Method: Principal Component Analysis.

Riteniamo sufficiente considerare le prime 3 componenti che, assieme, consentono di spiegare quasi l’83% della variabilità del set di variabili di partenza. Il software ha selezionato nell’analisi proprio queste prime 3 componenti in quanto è stata scelta l’opzione di considerare tutte le componenti i cui autovalori avessero un valore >1

Page 40: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

Page 41: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Proiezione delle variabili sul sistema cartesiano tridimensionale definito dalle prime tre

componenti

Page 42: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Component Score Coefficient Matrix

,173 -,215 -,024

,177 -,188 ,012

,172 -,240 ,006

,169 -,256 ,009

,098 ,257 ,471

,109 ,191 ,511

,094 ,336 -,144

,065 ,328 -,020

,107 ,268 -,378

,145 ,189 -,326

Numero di esercizialberghieri

Numero di letti nelcomplesso degli esercizialberghieri

Numero di camere nelcomplesso degli esercizialberghieri

numero di bagni nelcomplesso degli esercizialberghieri

Numero di campeggi evillaggi turistici

Numero di letti nelcomplesso dei campeggie villaggi turistici

Numero di alloggi privatiin affitto iscritti al R. E. C.

Numero di letti nelcomplesso degli alloggiprivati in affitto iscritti al R.E.C.

Numero di altri esercizialberghieri.

Numero di letti nelcomplesso degli altriesercizi

1 2 3

Component

Extraction Method: Principal Component Analysis. Component Scores.

Page 43: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Proiezione dei punti-variabili sulle prime due dim.

Page 44: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Proiezione dei punti-osservaz. sulle II due dim.

Page 45: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Esempio

I componente: espressione del diverso grado di vocazione turistica delle province considerate. Contrapposizione, soprattutto, tra le province di Venezia, Trento e Forlì da una parte, ed Arezzo, Asti e Alessandria, dall’altra.

II componente: sembra invece contrapporre le variabili indicatrici della dotazione alberghiera a quelle che fanno riferimento agli altri tipi di strutture. Dal grafico in cui sono proiettate le province, notiamo infatti la contrapposizione tra le città di Forlì, Bolzano e Roma, che presentano una dotazione alberghiera notevolissima, e città come Trento o Verona in cui, pur essendo a forte vocazione turistica, con dotazione alberghiera di tutto rispetto, è molto più elevata l’incidenza di altre strutture, come quelle di villaggi e campeggi.

Page 46: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Gli stimatori

Uno stimatorestimatore è una variabile casuale utilizzata per stimare una determinata caratteristica della popolazione: T=t(X1, X2, …,Xn).

Data una popolazione di N unità, volendo pervenire ad una stima t del valore del parametro della popolazione, si procede attraverso un campione di dimensione n estratto casualmente dalla popolazione.

A partire da una popolazione di dimensione N, i campioni di n elementi estraibili casualmente sono tanti e in corrispondenza di ciascuno di essi, si avrà un dato valore della stima t.

Lo stimatore è quindi una variabile casuale con una propria distribuzione che assume i diversi valori della stima rilevati nei vari campioni.

Page 47: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Proprietà degli stimatori

Lo stimatore T è uno stimatore corretto di se E(t)=.

Definendo la distorsione come la differenza tra E(t) e , diremo quindi che uno stimatore corretto ha distorsione nulla.

Correttezza

Page 48: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Proprietà degli stimatori

Dati due stimatori corretti, T1 e T2, si dirà che T1 è più efficiente di T2 se e solo se Var(T1)<Var(T2).

Efficienza

Uno stimatore si definisce consistente se la sua precisione aumenta all’aumentare della dimensione campionaria

Consistenza

0limlim 2

nn

nn

TETMSE

Page 49: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La regressione lineare multipla

nel caso di due sole variabili:

Y=+1X1+2X+

stimato con:

Y*=a+b1X1+b2X2

Y X1 X2 ….. XK Y1 X11 X12 X1K Y2 X21 X22 X2K … YP XP1 XP2 XPK … YN XN1 XN2 XNK

Page 50: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La regressione lineare multipla

N

iii imoyy

1

2* min

N

ii imoyXX

1

22211 min

y*=+1X1+2X+

E, secondo il criterio dei minimi quadrati:

Page 51: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La regressione lineare multipla

y*=+1X1+2X+

N

iii

N

ii

N

iii

N

iii

N

iii

N

ii

YXXXXXN

YXXXXXN

YNXNXNN

12

1

222

12112

11

1212

1

2111

2211

Page 52: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La regressione lineare multipla

221

2112

221 X

Y

XX

XXYXYX

r

rrr

121

2121

211 X

Y

XX

XXYXYX

r

rrr

E, attraverso passaggi successivi:

Page 53: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La regressione lineare multipla

2211 XXy

222111* XXXXyy

piano di regressione passante per il punto identificato dalle medie di Y, X1 e X2

Page 54: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

La regressione lineare multipla

22' X Fissando:

11'* Xy

esprime come varia in media Y al variare di X1 quando X2 è considerata costante

retta di regressione parziale di Y rispetto a X1 quando il carattere X2 è considerato fisso e pari ad un certo valore

facendo cambiare valore a X2 si hanno tante rette parallele e 1 si denomina coefficiente di regressione parziale di Y rispetto a X1 in tenendo costante X2

Page 55: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Coefficiente di correlazione parziale

3,213,123,12 r

Coefficiente di correlazione parziale tra X1 e X2, fissato X3:

12,3: coefficiente di regressione parziale di X1 rispetto a X2, fissato X3

21,3: coefficiente di regressione parziale di X2 rispetto a X1, fissato X3

dove:

Page 56: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Ipotesi base modello di regressione lineare multipla

1. variabili continue e misurate senza errore

2. variabile dipendente Y ~ N per le variabili indipendenti l’ipotesi di normalità è meno

restrittiva, in quanto incide solo sull’efficienza degli stimatori

3. i ~ N(0, 2) i

3.1. l’ipotesi di normalità dell’errore è necessaria solo per eseguire i test di significatività per piccoli campioni

3.2. l’errore non deve essere sistematico, ma casuale: E(j)=0 per ogni j (incide solo su a)

3.3. Var(t)=2=cost (assenza di eteroschedasticità)

per la verifica, si può dividere in fasce il piano e confrontare i residui in ciascuna fascia di piano (in orizzontale)

Page 57: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Ipotesi alla base del modello di regressione lineare multipla

4) Cov(j,i)=0 i, j (tranne che per i=j) considero la variabile residuo così come è e la stessa

ritardata di un periodo (i, i-1); (i-1, i-2) …; in caso di assenza di correlazione casualitàordinamento dei residui rispetto asse delle ascisse (nelle

serie storiche è il tempo)

5) Cov(xj,)=0indipendenza dell’errore da tutte le variabili indipendenti

6) Assenza di perfetta collinearità (multicollinearità) le variabili indipendenti presentano sempre un certo grado

di correlazione tra loro, ma non deve essere eccessiva

Page 58: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Valutazione dell’importanza di ciascun regressore

- Approccio basato sulla matrice di correlazione: fornisce l’importanza relativa delle variabili: più è alto il valore assoluto del coefficiente di correlazione, più alta è l’associazione lineare.

- Il test t calcolato sui coefficienti B di correlazione parziale (coefficiente aggiustato per le altre variabili indipendenti) esprime la probabilità che ogni singola variabile intervenga nella spiegazione lineare della variabile dipendente

Page 59: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Valutazione dell’importanza di ciascun regressore

- Approccio basato sull’Rchange: incremento di R2 ottenuto introducendo la nuova variabile

- Coefficiente di correlazione parziale: esprime la correlazione fra la variabile indipendente X e la variabile dipendente quando gli effetti lineari delle altre variabili indipendenti sono stati rimossi

Page 60: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Test di validazione del modelloTest d’ipotesi:1) per ogni singolo coefficienteH0: i=0H1: i 0La variabile di riferimento è (bi–i)/sbi

La distribuzione di riferimento è la t di Student con n–k gdl poiché si tratta di un caso di differenze tra medie e la varianza è stimata sulla base dei dati campionari

p-value, area associata alla coda delimitata dal valore empiricoIl test va fatto anche sull’intercetta

2) Su tutto il modello H0: 1=2=…=k=0 (coefficienti di regressione tutti nulli) H1: 1, 2, …, k 0 (almeno un coefficiente 0)Variabile di riferimento:

da confrontare con 11 2

2

knR

k/R1 kn

Fk

Page 61: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Test di validazione del modello

R2 in un modello di regressione multipla esprime l’effetto combinato dell’intera equazione sulla previsione

(quadrato della correlazione tra valori veri e valori previsti)

Page 62: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

L’effetto dell’inclusione di X2 sulla formula di sb1 si ripercuote sulla quantità a denominatore, che non è più n–2 bensì n–3; per cui sb1 risulta una quantità minore e sb1 risulta maggiorato!

• sono state incluse variabili non rilevanti=+1X1+ modello vero=+1X1+2X2+ modello stimato

se X2 non è utile, mi aspetterei che la stima del suo coefficiente angolare sia nulla: [E(2)=0]

b1 stimatore corretto di 1, ma perde in efficienza

Page 63: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

• sono state omesse variabili rilevanti=+1X1+2X2+ modello vero=+1X1+ modello stimato

Var(Y)=var(X1)+Var(X2)+var()

Avendo stimato il II modello, a parità di varianza di Y, non avendo considerato X2, la sua varianza va a confluire, anziché nel modello, nell’errore che, pertanto, non si distribuirà nemmeno più normalmente!

correlazione tra e X1 (residui eteroschedastici, con un pattern al loro interno)

stimatore di 1 distorto

Page 64: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

• presenza di multicollinearità

in caso di perfetta multicollinearità: modello stimato: =+1X1+2X2+(equazione associata ad un piano) ma X1=p+rX2

i dati empirici, se li proietto sul piano X1X2 si dispongono tutti su una retta

stiamo rappresentando in uno spazio tridimensionale un fenomeno che, in realtà, è bidimensionale

Y non dipende più da X1 e X2, ma dalla variabile che si trova in corrispondenza di questo piano su cui sono disposti i punti

in caso di multicollinearità quasi perfetta nel campione, ma non nella popolazione, gli stimatori OLS continuano ad essere BLUE (Best Linear Unbiased Estimators)

Page 65: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

• problemi inerenti la scelta dei regressori

Occorrerebbe scegliere le variabili con forte correlazione con la variabile dipendente ma, allo stesso tempo, poco correlate con gli altri regressori

Quando il data-set presenta troppe variabili, per operare una scelta, si può procedere suddividendo preventivamente in gruppi omogenei le variabili e quindi prelevando da ciascun gruppo una sola variabile

ricorso a strumenti quali la cluster e l’ACP

Page 66: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione• effetti della multicollinearità• riduce la capacità previsiva di ogni singola variabile

indipendente in modo proporzionale alla forza della sua associazione con le altre variabili indipendenti.

• al crescere della collinearità, decresce la varianza spiegata da ogni singola variabile indipendente mentre aumenta la frazione di variabilità spiegata collettivamente da tutte le variabili. Poiché, però, la capacità previsiva di ciascuna variabile può essere conteggiata una sola volta, quando si inseriscono nel modello variabili indipendenti con forte collinearità, la capacità di previsione totale del modello aumenta molto più lentamente.

• rende più difficile il processo di separazione degli effetti individuali, fa diminuire il valore di R2 e ne rende il suo aumento sempre più difficoltoso, anche se si aggiungono nuove variabili;

• le variabili per cui si presenta il problema possono presentare coefficienti di regressione non correttamente stimati o addirittura stimati con segno opposto.

Page 67: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

• presenza di multicollinearitàConseguenze: aumento di sb e quindi degli intervalli di confidenza per i

coefficiente statistica t per i test di significatività più piccola, col rischio

di accettare H0 pure se essa è falsa

Segnali da considerare:• quasi tutti i coefficienti non sono significativamente diversi

da 0, sebbene il modello sia complessivamente buono, in termini di R2 corretto

• cambiando di poco (eliminando 2 osservazioni o modificandole) le osservazioni campionarie o il modello, si hanno forti cambiamenti nei valori dei coefficienti

• eseguendo la regressione di una variabile indipendente sulle altre, si ottengono valori di R2~1

• presenza di correlazioni binarie > |0,8|

Page 68: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

• presenza di multicollinearità

Test per rilevarla: o esame della matrice di correlazione, o tolleranza o il suo inverso, che è il VIF, Variance Inflation

Factor (fattore di accrescimento della varianza).

La tolleranza esprime l’ammontare di variabilità della variabile indipendente prescelta che rimane non spiegata dalle altre variabili indipendenti: valori piccoli della tolleranza (elevati del VIF) esprimono alta collinearità.

In SPSS il valore di tolleranza di default per escludere dalla regressione le variabili indipendenti è 0,0001, che indica che, finché la % di varianza spiegata dalle altre variabili indipendenti non supera il 99,99%, la variabile in questione non può essere esclusa dall’equazione

Page 69: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Errori di specificazione

• autocorrelazione dei residui Cov(j,i) # 0

Per verificare l’autocorrelazione dei residui, occorre ordinare secondo un criterio i residui (nelle serie storiche: il tempo)

Dal menu di SPSS: Graficiserie storichevariabile residui I grafici calcolano l’autocorrelazione ai vari lag; se tutte le

autocorrelazioni (ai vari lag) si mantengono entro le due bande orizzontali simmetriche intorno all’origine, allora non c’è autocorrelazione dei residui

• correlogramma

• Test di Durbin-Watsan (valore ~2) per il I ordine

Page 70: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Analisi dei residui

In genere, si preferisce analizzare i residui standardizzati, in modo che essi siano direttamente confrontabili. I più usati sono quelli studentizzati, i cui valori sono analoghi ai valori della t di Student.

1. diagramma con in ordinata i residui e in ascissa i valori previsti Y*

i della variabile dipendente

Per verificare la relazione tra ogni variabile indipendente con la variabile dipendente: grafico con in ordinata i residui e in ascissa quella variabile indipendente

Per verificare la normalità distributiva dei residui: istogramma dei residui. In caso di piccoli campioni, è preferibile affidarsi al grafico di probabilità normale: se i residui sono normali, si distribuiranno su o intorno alla bisettrice del plot

Page 71: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Analisi dei residui

In genere, si preferisce salvare i residui come nuova variabile e poi calcolarne le statistiche descrittive, per accertarsi che la media sia nulla e la distribuzione normale

Page 72: Scomposizione della devianza Dev(X k )= K=1,…, r = Dev(X k )+N k (  k –  ) 2 Dev(X)=

Weight Least Squares

Il metodo dei minimi quadrati ponderato, consigliabile in caso di presenza di eteroschedasticità, parte dal presupposto di conoscere le n varianze dei residui, che vengono direttamente inserite nel modello, dividendo le variabili del modello per t (t=1,2, …, N).

stime corrette e efficienti

ma: essendo ignote le varianze, il modello è inapplicabile, salvo nel caso che siano disponibili dati cross section (più rilevazioni per ogni tempo t di osservazione).