1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di...

20
1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione

Transcript of 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di...

Page 1: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

1

Unità 6

Test parametrici e non parametrici

Test per la verifica della normalità

Funzione di ripartizione

Page 2: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

2

TEST PARAMETRICI E NON PARAMETRICI

L’applicazione di un dato test a una serie di dati dipende dal tipo di distribuzione della variabile casuale che stiamo studiando.

Agli effetti pratici possiamo suddividere i test in due categorie:

test parametricitest parametrici,

test non parametricitest non parametrici.

Nella statistica parametrica si fanno uso di modelli matematici che necessitano di ipotesi a priori sulle caratteristiche della popolazione o comunque di ipotesi più restrittive di quelle della statistica non parametrica.

Page 3: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

3

Nell’analisi di dati biomedici ci possiamo trovare di fronte a:

A.A. dati proventi da distribuzioni gaussiane (o molto simili ad esse);dati proventi da distribuzioni gaussiane (o molto simili ad esse);

B.B. dati provenienti da distribuzioni diverse dalla curva di Gauss.dati provenienti da distribuzioni diverse dalla curva di Gauss.

Nel caso Acaso A (rispettando determinate ipotesi) si utilizzano preferibilmente test parametricitest parametrici, mentre nel caso Bcaso B è in generale obbligatorio applicare test non parametricitest non parametrici.

Si noti cheSi noti che, mentre nel caso Bnel caso B è in generale errato applicare test errato applicare test parametriciparametrici, nel caso Acaso A si possono applicare test parametrici o test parametrici o non parametricinon parametrici.

Tuttavia nel casonel caso A è preferibile impiegare test parametricipreferibile impiegare test parametrici, poiché, a parità di numerosità del campione, questi sono molto più più potentipotenti dei corrispondenti test non parametrici, permettendo così di evidenziare differenze significative con campioni meno numerosi rispetto ai corrispondenti test non parametrici.

Page 4: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

4

OSSERVAZIONE SUI TEST PARAMETRICI

Ogni test statistico parametrico impone talune condizioni sulla distribuzione dei parametri della popolazione dalla quale è stato estratto il campione usato nella ricerca.

Molte volte (sbagliando) si suppone che queste condizioni siano valide senza effettuare nessuna verifica.

La validità dei risultati ottenuti applicando un test parametrico, La validità dei risultati ottenuti applicando un test parametrico, dipende dalla validità dei presupposti.dipende dalla validità dei presupposti.

Un test statistico non parametrico è invece basato su un modello che specifica solo condizioni molto generiche e non richiede condizioni relative alla forma specifica della distribuzione della popolazione da cui è stato estratto il campione.

Page 5: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

5

Esempio

Il test t di Student per il confronto di due campioni t di Student per il confronto di due campioni indipendentiindipendenti è un classico esempio di test parametrico che descriveremo in seguito.

Esso richiede i seguenti presupposti:

i dati seguono in modo accettabile una distribuzione i dati seguono in modo accettabile una distribuzione normale;normale;

i dati sono indipendenti;i dati sono indipendenti;

le deviazioni standard per le due popolazioni sono le deviazioni standard per le due popolazioni sono uguali (in generale diciamo che il rapporto fra la uguali (in generale diciamo che il rapporto fra la deviazione standard maggiore e quella minore non è deviazione standard maggiore e quella minore non è maggiore di 2).maggiore di 2).

Page 6: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

6

TEST PER LA VERIFICA DELLE NORMALITÀ

I test parametricitest parametrici (come il test t di Student) partono dall’ipotesi che le osservazioni seguano una ipotesi che le osservazioni seguano una distribuzione gaussiana.distribuzione gaussiana.

In questo caso tutta l’informazione è contenuta nella media e nella deviazione standard della popolazione in esame.

Tuttavia, quando si considerano dati reali, è raro che tale ipotesi sia completamente verificata: i dati possono essere essenzialmente gaussiani ma presentare occasionali outliers, oppure possono non essere affatto gaussiani.

È quindi necessario avere a disposizione procedimenti per verificare, per un dato set di osservazioni, la ragionevolezza dell’assunzione di normalità.

Page 7: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

7

Un modo grossolano per valutare qualitativamente forti scostamenti dalla normalità è quello di analizzare visivamente l’istogramma di frequenza dei dati raccolti. È chiaro che un istogramma in cui si evidenziano chiaramente più mode oppure fortemente asimmetrico a destra o a sinistra suggerisce che i dati che si vogliono analizzare non seguono una distribuzione gaussiana.Un tale approccio non porta però a nessuna informazione quantitativa precisa ed è da considerarsi mediocre.

Il modo più classico per valutare la normalità di osservazioni univariate è tramite l’analisi dei coefficienti di asimmetria e di curtosi i cui valori critici al 5% e all’1% sono riportati nei manuali di statistica.

Page 8: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

8

Anche il test del χ2 (che descriveremo in seguito) può essere impiegato per valutare se una distribuzione di frequenze è da considerarsi ragionevolmente di tipo gaussiano oppure no.Con questo test è possibile confrontare le frequenze osservate nel campione in esame con quelle attese nell’ipotesi di distribuzione gaussiana.

Shapiro e Wilks hanno proposto un differente test globale che ha buone proprietà di potenza, essendo sensibile ad un’ampia varietà di alternative alla normale. Nel lavoro originale essi hanno riportato i valori critici della loro statistica per una numerosità del campione n50.

Page 9: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

9

Per n>50 D’Agostino ha proposto un test alternativo, dando anche una tavola dei valori critici del suo test per dimensioni campionarie fino a 1000.

Un test largamente impiegato, che descriveremo più in dettaglio, è il test di Kolmogorov-Smirnovtest di Kolmogorov-Smirnov.

Per comprendere il funzionamento del test di Kolmogorov-Smirnov è necessario definire prima il concetto di funzione di ripartizionefunzione di ripartizione.

Page 10: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

10

x

Funzione di densità di probabilità f(x)

Funzione di ripartizione F(x)

x0

1

0

FUNZIONE DI RIPARTIZIONE

In precedenza abbiamo visto che la distribuzione di probabilità di una variabile aleatoria continua X può essere rappresentata con il grafico grafico della densità di probabilità della densità di probabilità f(x)f(x) in funzione di x, come in figura.

La funzione di ripartizionefunzione di ripartizione (detta anche funzione di distribuzione funzione di distribuzione cumulativacumulativa o brevemente funzione di funzione di distribuzionedistribuzione) di una variabile casuale X è definita come

F(x) = P(F(x) = P(XX≤≤xx) con –) con –∞∞<<xx<<∞∞

Essa esprime perciò la probabilità che la variabile aleatoria assuma valori uguali o inferiori a x.

Page 11: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

11

x

Funzione di densità di probabilità f(x)

Funzione di ripartizione F(x)

x0

1

0

F(x) rappresenta l’area sottostante alla curva densità di probabilità f(x), dall’estremo sinistro della curva (che può essere a –∞) fino al valore x.

Essa è quindi una funzione monotona non decrescente che va da 0 a 1.

La funzione di ripartizione che corrisponde alla densità di probabilità in figura in alto a destra è, ad esempio, quella riportata in figura in basso a destra.

N.B.N.B. La funzione di ripartizione può essere definita, in modo del tutto analogo a quanto fatto sopra, anche per una variabile aleatoria discreta.

Page 12: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

12

Test di Kolmogorov-Smirnov

Molti test utilizzati in statistica sono test parametrici. Questi test sono basati su assunzioni importanti, quali un’adeguata dimensione campionaria e la distribuzione normale della variabile di interesse.

Il test di Kolmogorov-Smirnov è un test non parametrico che verifica la forma delle distribuzioni campionarie. È applicabile a dati per lo meno ordinali perché richiede la costruzione di una funzione di ripartizione.

Questo test è comunemente usato per confrontare dati comunemente usato per confrontare dati sperimentali con distribuzioni attesesperimentali con distribuzioni attese ed in particolare per testare se la distribuzione in studio differisce da una distribuzione teorica, per esempio, normale.

Page 13: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

13

Sia X una variabile casuale continua con funzione di ripartizione F(x).

Il test di Kolmogorov-Smirnov su un unico campione è un test per la test per la bontà dell’adattamentobontà dell’adattamento. Esso verifica cioè che la variabile casuale X abbia funzione di ripartizione uguale ad una data funzione di ripartizione F0(x), ossia:

H0: H0: FF((xx) = ) = FF00((xx), per ogni ), per ogni xx

contro

H1: H1: FF((xx) ≠ ) ≠ FF00 ( (xx), per qualche ), per qualche x.x.

Sia x = (x1, . . . xN) un campione casuale di ampiezza N tratto dalla variabile casuale X. Poiché il problema riguarda la funzione di ripartizione della variabile casuale X, è intuitivo basare la statistica test sulla funzione di ripartizione empirica.

Page 14: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

14

Dette quindi x(1), . . . . x(N) le N osservazioni ordinate, la la funzione di ripartizione empirica sarà definita comefunzione di ripartizione empirica sarà definita come

La è uno stimatore non distorto di F(x).

)(se1

)1()(se

)1( se0

)(ˆ

Nxx

kxxkxNk

xx

xFN

)(ˆ xFN

Page 15: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

15

La statistica test di Kolmogorov-Smirnovstatistica test di Kolmogorov-Smirnov è data da

È cioè definita come la massima differenzala massima differenza (in valore assoluto) tra la funzione di ripartizione empiricatra la funzione di ripartizione empirica e la la funzione di ripartizione teoricafunzione di ripartizione teorica .

L’idea del test di Kolmogorov-Smirnov è piuttosto semplice e intuitiva. Poiché stima la vera funzione di ripartizione F(x), è logico basarsi su una qualche distanza trae .

Se e sono vicine, si accetta l’ipotesi nulla, mentre la si rifiuta se e sono lontane.

)(ˆ xFN

)()(ˆmax 0 xFxFD Nx

N

)(0 xF

)(ˆ xFN)(ˆ xFN

)(0 xF

)(ˆ xFN

)(ˆ xFN)(0 xF

)(0 xF

Page 16: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

16

Il valore di Il valore di DDNN così calcolato è confrontato con i valori così calcolato è confrontato con i valori

critici riportati nella corrispondente tabella, che critici riportati nella corrispondente tabella, che dipendono dal livello di significatività scelto e dalla dipendono dal livello di significatività scelto e dalla numerosità dei campioni considerati.numerosità dei campioni considerati.

In altre parole l’ipotesi nulla viene rifiutata ad un livello di significatività α quando il valore calcolato di DN supera il corrispondente valore riportato nella tabella dei quantili.

Nella sua forma originale il test di Kolmogorov-Smirnov si applica quando è completamente determinata indipendentemente dai dati che stiamo studiando.

In questo caso i valori critici di DN sono quelli riportati nella successiva Tabella 1. Di solito, però, non è questa la situazione.

)(0 xF

Page 17: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

17

Testando se una serie di osservazioni si adatta ad una distribuzione gaussiana, la particolare distribuzione è quella avente media e deviazione standard stimate dai dati. In questo caso si usa una versione modificata del In questo caso si usa una versione modificata del test di Kolmogorov-Smirnov, dovuta a H.W. Lilliefors.test di Kolmogorov-Smirnov, dovuta a H.W. Lilliefors.

Il test statistico, ovvero il valore di DN, è calcolato esattamente come prima, ma i valori critici sono diversii valori critici sono diversi.

La tabella da usare è la Tabella 2La tabella da usare è la Tabella 2, che fornisce i valori critici per N fino a 30. (Se, per N<30, il valore critico corrispondente ad un particolare N non è presente in tabella, si può usare un’interpolazione lineare per ricavarlo).

In generale, quando N>30 i valori critici per il test di Kolmogorov-Smirnov- Lilliefors bilaterale per α = 0,10; 0,05 e 0,01 sono rispettivamente ; e . N/805,0 N/886,0 N/031,1

Page 18: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

18

Page 19: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

19

Esempio di calcolo di una funzione di ripartizione empirica

Si supponga di avere un campione di 20 individui sui quali è stata acquisita la variabile aleatoria X e che i valori misurati siano quelli di seguito riportati

1,55;  0,08;  0,70;  6,98;  0,42;  3,20;  0,95;  0,17;  1,37;  50,57;  0,24;  0,34;  0,50;  0,94;1,55;  0,08;  0,70;  6,98;  0,42;  3,20;  0,95;  0,17;  1,37;  50,57;  0,24;  0,34;  0,50;  0,94;1,26;  0,38;  0,10;  1,75;  0,15;  0,491,26;  0,38;  0,10;  1,75;  0,15;  0,49

Per calcolare la funzione di ripartizione empirica si ordinano le osservazioni in ordine crescente. Ricordando che la numerosità del campione (N) è pari a 20 e che quindi per , la funzione di ripartizione empirica sarà calcolata come nella seguente tabella. Il suo grafico sarà pertanto quello in figura sotto.

Funzione di ripartizione empiricaFunzione di ripartizione empirica

kkxFN 05,020/)(ˆ )1()( kxxkx

Page 20: 1 Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.

20

Esempio di applicazione del test di Kolmogorov-Smirnov-Lilliefors

Si supponga che la funzione di ripartizione empirica calcolata (utilizzando la procedura vista precedentemente) su un campione con numerosità N pari a 53 osservazioni sia la linea a gradini mostrata in figura sotto.

Sulla base del valore medio e della deviazione standard delle osservazioni campionarie si supponga di avere ottenuto la funzione di ripartizione teorica F0(x) corrispondente alla distribuzione gaussiana (linea continua in figura).

Il valore della statistica del test è la massima differenza verticale tra le due funzioni di ripartizione ed è uguale a 0,13.Esso supera il valore critico del testsupera il valore critico del test al livello del 5% ( ). Si può quindi rigettare l’ipotesi nulla con rigettare l’ipotesi nulla con p < 0,05p < 0,05..

In altre parole vi è evidenza vi è evidenza (p < 0,05)(p < 0,05) che i valori che i valori nonnon siano distribuiti in siano distribuiti in modo gaussianomodo gaussiano.

Osservazione: si noti che anche il Osservazione: si noti che anche il grafico rivelava un’asimmetria positiva.grafico rivelava un’asimmetria positiva.

53/886,0122,0