Psicometria 2-mob B SULLE ASSUNZIONI DEL …...Lezione 7 prof.ssa L. Di Blas 1 SULLE ASSUNZIONI DEL...

Post on 19-Aug-2020

6 views 0 download

Transcript of Psicometria 2-mob B SULLE ASSUNZIONI DEL …...Lezione 7 prof.ssa L. Di Blas 1 SULLE ASSUNZIONI DEL...

S U L L E A S S U N Z I O N I D E L MO D E L LO G E N E R A L E L I N E A R E

Psicometria 2-mob B

Lezione 7

prof.ssa L. Di Blas

1

SULLE ASSUNZIONI DEL MODELLO GENERALE LINEARE

La verifica delle seguenti assunzioni assicura una stima valida, non distorta, del modello testato statisticamente

▪ sulla distribuzione delle variabili osservate o misurate

▪ sull’affidabilità delle misurazioni psicologiche

▪ sulla non-collinearità tra variabili indipendenti

▪ sugli errori o punteggi residui

▪ sulla forma della relazione tra le VI e VD

▪ sulla completezza o specificazione del modello

▪ ancora sui casi outlier: gli outlier multivariati

2

applicheremo le verifiche statistiche al data file già usato per la Lez 6

ma comunque indicato come Lezione 7

SULLA DISTRIBUZIONE (NORMALE) DELLE VARIABILI MISURATE

Le statistiche possono essere applicate solo se idonee al set di dati

Per l’ARM (così come poi per le tecniche di riduzione del dati quali EFA o PCA) la VD

▪ quantitativa

▪ distribuzione normale → verifica▪ rappresentazione grafica

▪ asimmetria e curtosi

▪ Test Shapiro-Wilk

▪ Q-Q plot

▪ controllo outlier → verifica ▪ Frequenze

▪ punti z

le VI possono essere categoriche (es. dummy) ma se quantitative devono rispettare le stesse assunzioni

3

SUI NOSTRI DATI IN JAMOVI

4

SUI NOSTRI DATI IN JAMOVI

5

Descriptives

InsoddisfazioneCorpo UmoreNegativo CiboFuoriPasto

N 85 85 85

Mean 2.30 1.79 1.93

Minimum 1.08 1.07 1.02

Maximum 3.62 3.37 2.78

Skewness 0.0880 0.765 -0.217

Std. error skewness 0.261 0.261 0.261

Kurtosis -0.0190 0.522 -0.913

Std. error kurtosis 0.517 0.517 0.517

Shapiro-Wilk p 0.611 0.002 0.018

SUI NOSTRI DATI IN JAMOVI

6

Descriptives

InsoddisfazioneCorpo UmoreNegativo CiboFuoriPasto

N 85 85 85

Mean 2.30 1.79 1.93

Minimum 1.08 1.07 1.02

Maximum 3.62 3.37 2.78

Skewness 0.0880 0.765 -0.217

Std. error skewness 0.261 0.261 0.261

Kurtosis -0.0190 0.522 -0.913

Std. error kurtosis 0.517 0.517 0.517

Shapiro-Wilk p 0.611 0.002 0.018

SUI NOSTRI DATI IN JAMOVI

7

Descriptives

InsoddisfazioneCorpo UmoreNegativo CiboFuoriPasto

N 85 85 85

Mean 2.30 1.79 1.93

Minimum 1.08 1.07 1.02

Maximum 3.62 3.37 2.78

Skewness 0.0880 0.765 -0.217

Std. error skewness 0.261 0.261 0.261

Kurtosis -0.0190 0.522 -0.913

Std. error kurtosis 0.517 0.517 0.517

Shapiro-Wilk p 0.611 0.002 0.018

SUI NOSTRI DATI IN JAMOVI

8

SUI NOSTRI DATI IN JAMOVI: CORREGGIAMO UMORE NEGATIVOtogliendo prima outlier caso 80 (test S-W p = 0.01) e poi caso 27

NB verificati quali sono gli outlier, procederemo con le prossime verifiche delle assunzioni mantenendo anche questi 2 casi

9

Descriptives

UmoreNegativo UmNeg_zscore

N 83 83

Missing 5 5

Mean 1.76 -0.0664

Standard deviation 0.445 0.895

Minimum 1.07 -1.45

Maximum 2.80 2.03

Skewness 0.408 0.408

Std. error skewness 0.264 0.264

Kurtosis -0.511 -0.511

Std. error kurtosis 0.523 0.523

Shapiro-Wilk p 0.013 0.013

SULL’AFFIDABILITÀ DELLE MISURAZIONI PSICOLOGICHE(data set lezione 7_affidabilità)

10

Alpha di Cronbach:

la variabilità inter-individuale

deve essere maggiore di

quella intra-individuale

Omega di McDonald:

deriva da struttura fattoriale

degli stimoli, ipotizzando

1 fattore comune sotteso

SULL’AFFIDABILITÀ DELLE MISURAZIONI PSICOLOGICHE

11

ttBttA

AB

rr

rr =

( )ttBttAAB rrrr =

Correzione per attenuazione:

Le formule mostrano come

la correlazione tra due variabili riflette

la correlazione tra i costrutti che rappresentano

dipendentemente dal grado di affidabilità

delle misurazioni stesse

SULLA NON-COLLINEARITÀ TRA VARIABILI INDIPENDENTI(CFR LEZIONE 6)

1212

𝑆𝐸𝑏𝑋𝑖 =𝑠𝑌𝑠𝑋𝑖

1

1 − 𝑅𝑋𝑖2

1 − 𝑅𝑌2

𝑁 − 𝑘 − 1

Per tutte queste ragioni così illustrate

il numero di stimatori e la numerosità del campione vanno pensati e scelti accuratamente,

Insieme al livello p critico, così come gli stimatori, per spiegare quanta più VAR possibile,

col modello più parsimonioso possibile, contenendo la multicollinearità,

per poter esaminare statisticamente un modello valido con adeguata potenza del test

𝑆𝐸𝛽𝑋𝑖 =1

1 − 𝑅𝑋𝑖2

1 − 𝑅𝑌2

𝑁 − 𝑘 − 1

Multicollinearità

SUGLI ERRORI O PUNTEGGI RESIDUI

La verifica delle assunzioni del MGL ci permettono di far sì che modello osservato e modello generatore dei dati possano corrispondere ovvero si possa

stimare in modo valido il modello generatore dei dati a partire dalle osservazioni empiriche, riducendo l’impatto delle fonti di errore.

Questo vale anche per la verifica delle assunzioni sui punteggi residui

Premessa: Che cosa rappresentano i residui o errore di stima?

Nel modello generatore dei dati, l’errore (i) rappresenta lo scostamento del valore Y osservato dal atteso Y’ i e attribuibile a caratteristiche distintive dell’individuo non osservate e incluse nel modello stesso; gli scostamenti generano una variabilità intorno al valore atteso

𝑌𝑖 = 𝜇 + 𝑒𝑖

𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖+ 𝑒𝑖

(dove l’ipotesi nulla è che = 0)

13

SUGLI ERRORI O PUNTEGGI RESIDUI

Rispetto agli errori o punteggi residui, 3 classi di assunzioni da rispettare:

▪ indipendenza degli errori i

▪ distribuzione omoschedastica degli errori intorno al valore atteso

▪ normalità dei residui

14

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI INDIPENDENZA

Indipendenza?

▪ il punteggio residuo ei calcolato per ciascun caso o individuo i-esimo non dipende ossia non si associa a nessun altro residuo osservato per i restanti casi

▪ vale a dire, i residui non sono «raggruppabili», in base a una variabile che non stiamo tenendo sotto controllo

Esempi: oltre ai disegni di ricerca con misure ripetute, gli individui sono «raggruppabili» o «nidificabili» in base a nucleo famigliare, classe, scuola, cultura, azienda, settore aziendale, …

Esempio.

Prestazione Scolastica = a + b QI + ei

i residui potrebbero essere raggruppabili sulla base della «classe» frequentata (i residui dei bambini di una data classe potrebbero essere correlati tra loro) che spiegherebbe qualcosa che va oltre il QI e che non controlliamo

15

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI INDIPENDENZA

Indipendenza?

Se l’assunzione non viene rispettata dal punteggio residuo di Prestazione Scolastico di un caso i-esimo posso prevedere il punteggio residuo di un altro caso (appartenente alla stessa classe, variabile che però non ho controllato)

CONSEGUENZE

▪ stima della varianza residua (SQerr/gl) è sovra- o sotto-stimata rispetto al modello generatore dei dati

▪ e conseguentemente è distorta la varianza legata alla regressione (SQregress/gl) e i test inferenziali che da essa dipendono

16

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI INDIPENDENZA

Indipendenza?

VERIFICA: considerazioni sul disegno di ricerca

(Durbin-Watson per testare l’autocorrelazione in caso di misure ripetute)

RIMEDI

▪ inserire nel modello la variabile che permette di raggruppare i partecipanti

▪ applicare le tecniche di analisi statistica idonee come i modelli misti o MLM

▪ calcolare il coefficiente di correlazione intra-classe per stimare quanta varianza dipende dalla classificazione (cut off convenzionale 5 %)

17

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À

▪ Omoschedasticità: la varianza dei punteggi residui ei intorno ai valori attesi (o media condizionata) o previsti in base al modello è uguale

18

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À

▪ CONSEGUENZE

Distorsione degli stimatori e dei loro livelli di significatività statistica (p)

▪ VERIFICA

▪ Scatterplot, dove X = valori previsti e Y = punteggi residui, i residui dovrebbero disperdersi entro una banda di ampiezza costante se l’assunzione è rispettata

▪ test di Levene (ANOVA) o di Brensch-Pagan: ipotesi nulla testata è che sia rispettata la distribuzione omoschedastica

▪ RIMEDI

▪Trasformazione della VD

▪ Punteggi standardizzati e normalizzati

▪ in base a funzioni matematiche (es. logaritmica)

▪ applicazione di test non parametrici

19

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À

Dal nostro data set Jamovi 7_assunzione_errori (tolti i casi 80 e 27 UN), inserendo come VD = CFP e VI = UN e IC

20

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI OMOSCHEDASTICIT À

Dal nostro data set Jamovi 7_assunzione_errori (tolti i casi 80 e 27 UN)

Inserendo come VD = CFP e VI = UN e IC

21

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ

22

▪ CONSEGUENZE

Distorsione degli stimatori e dei loro livelli di significatività statistica (p)

seppure il MGL è robusto rispetto a questa assunzione

▪ VERIFICA

▪Rappresentazione grafica

▪Test di Kolmogorov-Smirnov o K-S (ipotesi nulla: distribuzione normale)

▪ Q-Q plot

▪ RIMEDI

▪Trasformazione della VD

▪ Punteggi standardizzati e normalizzati

▪ in base a funzioni matematiche (es. logaritmica)

▪ applicazione di test non parametrici

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ

23

Per ca

lcola

re p

unte

ggi a

ttesi e

resid

ui di C

FP

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ

24

SUGLI ERRORI O PUNTEGGI RESIDUI: L’ASSUNZIONE DI NORMALITÀ

25

SULLA FORMA DELLA RELAZIONE TRA LE VI E VD

26

2

1211

' XbXbaYi ++=

Forma quadratica? NO

SULLA FORMA DELLA RELAZIONE TRA LE VI E VDse lasciamo gli outlier casi 27 e 80 umore negativo

27

Forma quadratica? SI

Forma di altra relazione?

SUGLI ERRORI DI SPECIFICAZIONE DEL MODELLO

28

▪ inclusione VI irrilaventi e/o omissione VI rilevanti

▪ non linearità della relazione tra VI e VD

▪ non additività della relazione tra VD e VI

i.e., interazione tra VI2132211

' XXbXbXbaYi +++=

SUGLI OUTLIER

▪ influenzano tutti i risultati del modello

▪ outlier per la VD / per la VI/ per entrambe le variabili

RIMEDI

▪ eliminare gli outlier se > 5%

▪ verificare i modelli con e senza outlier

▪ indicatori quantitativi

▪ Test di Malhanobis che quantifica la distanza ponderata dal centroide per ogni caso

i casi critici si identificano se hanno un valore ≥ al Chi quadro critico corrispondente

a p ≤ .001 per GL = numero di VI

29

30

Chi quadro critico

per 2 gl e p ≤ .001

è 10.6

31

VD

X

Z

RICORDIAMO DA DOVE SIAMO PARTITI …

Focus sulla variabile dipendente

X

Z

Y

X Z Y

Focus sulla relazione tra VD e VI