MANLIO ROSSI DORIA Collana a cura del Centro per la...

310
«MANLIO ROSSI-DORIA» Collana a cura del Centro per la Formazione in Economia e Politica dello Sviluppo Rurale e del Dipartimento di Economia e Politica Agraria dell’Università di Napoli Federico II 6

Transcript of MANLIO ROSSI DORIA Collana a cura del Centro per la...

Page 1: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

«MANLIO ROSSI-DORIA»

Collana a cura del Centro per la Formazione in Economia e Politica dello Sviluppo Rurale

e del Dipartimento di Economia e Politica Agraria dell’Università di Napoli Federico II

6

Page 2: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Nella stessa collana:

1. Qualità e valorizzazione nel mercato dei prodotti agroalimentari tipici, a cura di F. de Stefano, 2000.

2. L’economia agrobiologica in Campania: un difficile percorso, a cura di F. de Stefano, G. Cicia e T. del Giudice, 2000.

3. Istituzioni, capitale umano e sviluppo del Mezzogiorno, a cura di M.R. Carrillo e A. Zazzaro, 2001.

4. Introduzione alla statistica per le applicazioni economiche. Vol. I, Statistica descrittiva, C. Vitale 2002.

5. Aspetti economici e prospettive dela coltivazione della patata in Italia, a cura di P. Lombardi, 2002

6. Introduzione alla statistica per le applicazioni economiche. Vol. II, Probabilità e Statistica, C. Vitale 2002. In preparazione:

O. W. MAIETTA, L’analisi quantitativa dell’efficienza. Tecniche di base ed estensioni recenti.

Page 3: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

COSIMO VITALE

INTRODUZIONE

ALLA STATISTICA

PER LE APPLICAZIONI

ECONOMICHE

Volume secondo

PROBABILITÀ E STATISTICA

Edizioni Scientifiche Italiane

Page 4: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

VITALE Cosimo Introduzione alla statistica per le applicazioni economiche vol. II, Probabilità e statistica. Collana: «Manlio Rossi - Doria, a cura del Centro per la Formazione in Economia e Politica dello Sviluppo Rurale e del Dipartimento di Economia e Politica Agraria dell’Università di Napoli Federico II, 4 Napoli: Edizioni Scientifiche Italiane, 2002 pp. X+302; cm 24 ISBN 88-495-0552-3 © 2002 by Edizioni Scientifiche Italiane s.p.a. 80121 Napoli, via Chiatamone 7 00185 Roma, via dei Taurini 27 Internet: www.esispa.com E-mail: [email protected] I diritti di traduzione, riproduzione e adattamento totale o parziale e con qualsiasi mezzo (compresi i microfilm e le copie fotostatiche) sono riservati per tutti i Paesi. Fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla SIAE del compenso previsto dall’art. 68, comma 4 della legge 22 aprile 1941, n. 633 ovvero dell’accordo stipulato tra SIAE , AIE, SNS e CNA, CONFARTIGIANATO, CASA, CLAAI, CONFCOMMERCIO, CONFESERCENTI il 18 dicembre 2000. Associazione Italiana per i Diritti di Riproduzione Delle Opere dell’ingegno (AIDRO) Via delle Erbe, 2 – 20121 Milano Tel. E fax 02-809506; e-mail: [email protected]

Page 5: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

INDICE Capitolo 1 Introduzione al calcolo delle probabilità 1.1 Introduzione 1 1.2 I concetti primitivi del calcolo delle probabilità 4 Prova Evento Probabilità 1.3 I postulati del calcolo delle probabilità 5 Primo postulato Secondo postulato Terzo postulato Quarto postulato Quinto postulato 1.4 La misura della probabilità 20 1.5 Il teorema di Bayes 26 Capitolo 2 Le variabili casuali 2.1 Introduzione 31 2.2 Variabili casuali discrete e distribuzioni di frequenza 34 La media aritmetica La varianza Il momento di ordine r L'indice di asimmetria L'indice di curtosi 2.3 Le variabili casuali doppie discrete 38 Momento misto di ordine 1,1 La covarianza La correlazione Momenti condizionati 2.4 Le variabili casuali continue 41

Page 6: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice VIII

La media La varianza La mediana L'indice di asimmetria L'indice di curtosi 2.5 Le variabili casuali doppie continue 52 Momento misto di ordine 1,1 La covarianza Momenti condizionati Capitolo 3 Variabili casuali di uso comune 3.1 La variabile casuale uniforme 57 La uniforme discreta La uniforme continua 3.2 La variabile casuale binomiale 63 3.3 La variabile casuale di Poisson 70 3.4 La variabile casuale Normale 75 3.5 Alcune v.c. derivate dalla Normale 89 La v.c. Chi-quadrato La v.c. T di Student La v.c. F di Fisher La v.c. Lognormale 3.6 La variabile casuale Normale doppia 100 3.7 Alcuni teoremi limite 103 Alcune leggi di convergenza Il teorema del limite centrale La disuguaglianza di Chebychev Capitolo 4 Elementi di teoria della stima parametrica 4.1 Introduzione 113 4.2 La stima parametrica 114 4.3 Cenni di teoria delle decisioni 116 Metodo del mini-max Metodo dell'area minima Metodo delle proprietà ottimali 4.4 Alcune proprietà ottimali degli stimatori 119 La sufficienza La non distorsione L'efficienza La consistenza 4.5 Alcuni metodi di costruzione delle stime 131 Metodo dei momenti

Page 7: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice

IX

Metodo dei minimi quadrati Metodo di massima verosimiglianza 4.6 La distribuzione di probabilità di alcuni stimatori campionari 139 Distribuzione di probabilità della media campionaria Distribuzione di probabilità dei percentili campionari Distribuzione di probabilità della varianza campionaria Distribuzione di probabilità della correlazione campionaria 4.7 Due metodi di inferenza basa ti sul ricampionamento 148 La procedura jakknife La procedura bootstrap Capitolo 5 Introduzione al test delle ipotesi 5.1 Introduzione 155 5.2 Il lemma di Neyman Pearson 158 5.3 Test basato sul rapporto di verosimiglianza. Caso di Ho semplice 160 5.4 Test basato sul rapporto di verosimiglianza. Caso di Ho complessa 164 5.5 Particolari test basati su MLR 165 Test sulla media Test sulla differenza fra medie Test su una proporzione Test sul confronto di 2 proporzioni Test su dati appaiati Test sulla varianza Confronto fra due varianze Test sul coefficiente di correlazione 5.6 Alcuni test non parametrici 192 Test di adattamento Test sull'indipendenza Test di Wilcoxon Test dei segni 5.7 Cenni agli intervalli di confidenza 210 Intervallo di confidenza per la media Intervallo di confidenza per una percentuale Intervallo di confidenza per la varianza Intervallo di confidenza per la correlazione Capitolo 6 Il modello di regressione 6.1 Introduzione 217 6.2 La costruzione del modello di regressione 219 6.3 Il modello di regressione lineare semplice 220

Page 8: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice X

6.4 La stima dei parametri del modello 223 6.5 Proprietà delle stime dei minimi quadrati 237 6.6 La verifica del modello di regressione 240 Test sui parametri del modello Misura della bontà di adattamento Analisi dei residui 6.7 Modello di regressione non lineare 254 Modelli non lineari nelle esplicative Modelli non lineari ma linearizzabili Modelli non linearizzabili 6.8 Modello di regressione lineare in forma matriciale 258 Appendice 263 Tavole statistiche 264 Bibliografia 293 Indice analitico 297

Page 9: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 1

INTRODUZIONE AL CALCOLODELLE PROBABILITÀ

1.1 Introduzione

Nei capitoli riportati nel Volume I: Statistica Descrittiva, abbiamo illustratouna serie di strumenti statistici idonei per descrivere fenomeni che si suppongo-no completamente noti. In altri termini ritenevamo di operare in un universocerto : l’incertezza è bandita, si possono solo raccogliere e sintetizzare informa-zioni e derivare le eventuali relazioni esistenti fra più fenomeni. Un universo c o-sì fatto viene anche detto deterministico : una causa produce sempre e sicura-mente gli stessi effetti, gli stessi risultati. In altri termini è come se si vivesse in unmondo regolato da un orologio perfetto capace di misurare in modo preciso edindiscutibile il trascorrere del tempo.

In questo e nei capitoli che seguono ci occuperemo di un mondo dominatodall’incertezza : niente è sicuro, tutto è incerto per la presenza costante di ele-menti aleatori, casuali.

In un universo deterministico la ripetizione di un dato esperimento producesempre gli stessi risultati, una implicazione importante di tale concezione è chele stesse leggi valgono in qualsiasi tempo, anzi è come se si potesse ritornare i n-dietro nel tempo per potere ripetere esattamente l’esperimento ed ottenereesattamente lo stesso risultato. In tale universo vale la reversibilità temporale si puòviaggiare avanti ed indietro nel tempo a proprio piacimento, quanto meno daun punto di vista teorico.

In un mondo dominato dall’incertezza, invece, la ripetizione di uno stessoesperimento non è detto che produca identici risultati e come conseguenza nonè possibile ipotizzare l’irreversibilità temporale dato che in tal caso è impossibileessere certi di ritrovare lo stesso preciso evento che si è verificato in un tempoprecedente. Il tempo ha una determinata direzione in accordo con il secondoprincipio della termodinamica.

D’altro lato, per potere ipotizzare un mondo dominato dall’incertezza, dalla

Page 10: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 12

casualità, dall’aleatorietà, è necessario spiegare come questa incertezza nasce eperché non è controllabile quanto meno da un punto di vista teorico. Unmodo per definire il caso è quello di supporre che tutto ciò che esiste evolve, simodifica nel tempo irreversibile e nella loro evoluzione i risultati generati sonomolto sensibili alle condizioni iniziali, cioè alle condizioni da cui si è partiti per gene-rare tutta la successione di fenomeni effettivamente realizzati. In altri termini, nelmondo della casualità, i fenomeni sono generati da sistemi dinamici, cioè siste-mi di forze che evolvono nel tempo, e questi sistemi sono estremamente sensi-bili alle condizioni iniziali: piccolissime variazioni nelle condizioni iniziali produ-cono, dopo un tempo più o meno lungo, effetti completamente diversi. E’questa sensibilità ciò che rende incerti i risultati ottenuti da esperimenti che, inapparenza, sembrano identici. Questo perché, nella realtà, è praticamente i m-possibile ricreare esattamente le condizioni iniziali di un sistema e se il sistema èsensibile alle condizioni di partenza dopo qualche di tempo i risultati che si ot-tengono dalla catena di reazioni e contro reazioni diventano del tutto impreve-dibili. E’ interessante osservare che essendo gli eventi il risultato di sistemi d i-namici è impossibile verificare se e quali eventi sono simultanei. Il caso quindi èfrutto della non conoscenza esatta, della ignoranza delle condizioni iniziali. Se fossi-mo in grado di conoscere, misurare e riprodurre in modo esatto le condizioniiniziali saremmo in grado di prevedere qualsiasi fenomeno. E’ la nostra limita-tezza di umani che non ci permette e non ci permetterà mai di capire e preve-dere esattamente i fenomeni. Insomma, galleggiamo in un mondo d’incertezzasolo perché siamo limitati: il caso non è intrinseco ai fenomeni ma è il concen-trato della nostra limitatezza, della nostra ignoranza.

Esempio 1Se si lancia una moneta il risultato può essere testa o croce, ma è impossibile predire con

sicurezza che il lancio di una data moneta in un dato momento dia come risultato, per esem-pio, testa. Questo è dovuto al fatto che il risultato generato dal sistema di forze che lo gover-nano è molto sensibile alle condizioni di partenza: posizione iniziale della moneta, circonferen-za, peso e spessore della moneta, forza impressa alla moneta, forza di gravità operante in quelpunto ed in quel tempo, condizioni climatiche esistenti al momento del lancio, e così via.

Nella figura seguente è schematizzato, a sinistra, il caso di sistema sensibile alle condizioniiniziali ove la pallina sottoposta ad una spinta scivolerà lungo una qualsiasi direzione dellasemisfera per fermarsi in uno qualsiasi dei punti della superficie sottostante. Il punto in cui lapallina si ferma è estremamente sensibile alle condizioni iniziali (forza impressa, sua direzioneecc.) e quindi non è possibile prevedere con certezza dove questa va a fermarsi. Nella stessafigura, a destra, è schematizzato il caso di un sistema indipendente dalle condizioni iniziali: ilpunto in cui la pallina si ferma è sempre lo stesso qualsiasi siano le condizioni iniziali.

Page 11: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 3

Una diversa concezione ( Curnout) del caso è legata alla esistenza di serie difenomeni indipendenti:

il caso è generato dall’incontro di serie di fenomeni indipendenti fra di loro.

In questa definizione di caso è implicita l’ipotesi che nell’universo possonoesistere fenomeni che sono fra di loro indipendenti. Questo vuole dire metterein discussione la supposizione che l’intero universo sia solidale con se stesso.

Esempio 2Consideriamo le due serie di fenomeni seguenti:

1) un individuo si avvia all’uscio della propria abitazione2) una tegola del tetto si muove per effetto delle condizioni meteorologiche

queste due serie si possono considerare indipendenti fra di loro. Supponiamo che mentrel’individuo si affaccia sulla soglia di casa un colpo di vento gli faccia cadere la tegola in testaprocurandogli una profonda contusione: è successo che le due serie indipendenti si sono incontra-te ed hanno prodotto un evento casuale: la ferita del personaggio preso in considerazione. Os-serviamo che ripetendo l’esperimento nelle stesse condizioni non è detto di ottenere lo stesso risul-tato, la testa rotta del malcapitato.

In questo capitolo non ci addentreremo ulteriormente sulle varie interpreta-zioni ed ipotesi formulate per spiegare il caso. Questo lo prenderemo comedato: prendiamo atto del fatto che molti, se non tutti, gli atti che dominano lanostra esistenza e quella dell’universo sono influenzati dal caso ed il nostro scoposarà quello di individuare delle leggi capaci di governare i fenomeni casuali. Perfare questo dobbiamo elaborare regole che ci permettono di misurare la casua-lità dei diversi fenomeni a questo scopo utilizzeremo una metodologia cheprende il nome di assiomatizzazione. In altri termini, fisseremo dei concetti primitivi,formuleremo degli assiomi o postulati, mescoleremo queste due entità per deri-

Page 12: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 14

vare dei teoremi che permetteranno, operativamente, di regolare e dominare il ca-so.

1.2 I concetti primitivi del calcolo delle probabilità

I concetti primitivi sono tre e sono tali perché

i concetti primitivi non vengono definiti.

Nel calcolo delle probabilità questi concetti sono:

prova, evento, probabilità

Visto che questi concetti sono non definibili, ma lasciati alla comune intuizione,vediamo di illustrarli con degli esempi e dei sinonimi.

PROVAProva è sinonimo di esperimento in cui sono noti i risultati possibili che

possono ottenersi, ma non quello particolare che poi effettivamente si presente-rà in una data prova. In questo senso, il risultato che si verificherà a seguito diun esperimento è, prima di effettuare la prova, incerto. Se l’esperimento viene ri-petuto, ammesso che ciò sia tecnicamente possibile, non è certo che si possaottenere il risultato precedente. Da questo punto di vista ogni atto del mondoreale può essere inteso come un esperimento, una prova. Così, è una prova: (a)il lancio di un dado, (b) l’organizzazione di uno sciopero, (c) una manovra eco-nomica del governo, (d) sottoporsi ad un intervento chirurgico, (e) il tempo divita di un macchinario, ecc.

EVENTOL’evento è uno dei possibili risultati che la prova, l’esperimento può genera-

re. Formalmente un evento è una proposizione, cioè una frase compiuta che ca-ratterizza completamente uno dei possibili risultati di una determinata prova.Gli eventi derivanti da una data prova possono essere finiti, infiniti ed ancheuna infinità continua. Così, è un evento: (a) esce la faccia del dado con duepuntini, (b) il fallimento dello sciopero, (c) la riuscita della manovra, (d) la gua-rigione dell’ammalato, (e) la durata di 3 anni, 2 mesi, 12 giorni, 10 ore, 25 se-condi della vita del macchinario.

Nel seguito gli eventi generati da una prova verranno indicati con le primelettere maiuscole dell’alfabeto latino ( A, B, C, D, ...) eventualmente accompa-gnate con un indice ( E1 , E2 , E3 , ...., Ek , ...).

Page 13: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 5

PROBABILITÀLa probabilità è un numero compreso fra zero ed uno che viene associato

ad ogni evento generato da una data prova e misura il grado di verificarsi diquell’evento. In particolare, la probabilità vale zero per eventi che non possonomai verificarsi e vale uno per quelli che sicuramente si presenteranno in ogniprova. Di solito, per indicare la probabilità di un evento si usano i simboli: p,P(A), p i , p( x) .

I tre concetti primitivi del calcolo delle probabilità sopra riportati sono benillustrati dalla seguente frase: una prova genera gli eventi con determinate probabilità.

Fissata una data prova questa genera un insieme di eventi che indichiamocon S. Questo insieme viene chiamato insieme campionario associato a quella pro-va. D’ora in poi supporremo che gli eventi costituenti S sono fra di loro i n-compatibili nel senso che non se ne possono presentare simultaneamente due opiù di due.

1.3 I postulati del calcolo delle probabilità

Come in tutte le discipline assiomatizzate, anche nel calcolo delle probabilitàesistono, accanto ai concetti primitivi,

i postulati che sono delle affermazioni che non vengono dimostrate.

Nel calcolo delle probabilità i postulati (o assiomi) sono cinque. Il primo diquesti riguarda gli eventi.

PRIMO POSTULATO

Gli eventi generati da una prova formano una algebra di Boole completa

Vediamo cosa s’intende con questa affermazione. In primo luogo cerchia-mo di capire cos’è un’algebra di Boole. Osserviamo, a questo proposito, che glieventi sono delle frasi, delle proposizioni e quindi se vogliamo sottoporle amanipolazioni bisogna utilizzare un’algebra diversa da quella ben nota dei nu-meri: l’algebra che utilizzeremo è quella di Boole.

L’algebra di Boole, come tutte le algebre, è chiusa rispetto alle operazioni sudi essa definite. Questo vuole dire che quando effettueremo quelle operazioni

Page 14: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 16

su eventi derivanti da una prova (gli elementi di S ) saremo sicuri di ottenere an-cora un evento riferibile alla prova considerata. Inoltre, questo concetto di chiu-sura si suppone valido anche per particolari successioni infinite di eventi ed èper questo motivo che si dice che l’algebra è completa. In sintesi, se sottopo-niamo gli elementi di S alle operazioni che definiremo qui di seguito i risultatisono ancora eventi. E’ solo e solamente su questo nuovo insieme di eventi ot-tenuto a partire da S che vengono calcolate le probabilità.

Nell’algebra di Boole le operazioni fondamentali sono tre e precisamente:

unione, indicata con il simbolo ∪

intersezione, indicata con il simbolo ∩

negazione, indicata con il simbolo ¯

1) L’unione di due eventiL’unione (o somma logica) tra i due eventi A e B è quell’evento, diciamo D,

che si verifica quando si verifica A, oppure B, oppure A e B contemporanea-mente. Formalmente si scrive:

A ∪ B = D

e si legge: A unito a B, oppure A o B

2) L’intersezione di due eventiL’intersezione (o prodotto logico) dei due eventi A e B è l’evento, diciamo

E, che si verifica se e solo se si verificano contemporaneamente sia A che B.Formalmente si scrive:

A ∩ B = E

e si legge: A intersecato B, oppure A e B

3) La negazione di un eventoLa negazioni di un evento A è l’evento, diciamo F, che si verifica quando

non si verifica A. Formalmente si scrive:

A= Fe si legge: A negato, oppure non A.

Le operazioni di unione e di intersezione vengono dette anche binarie perchéper poterle utilizzare sono necessari almeno due eventi, l’operazione di nega-

Page 15: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 7

zione viene detta unaria dato che per poterla utilizzare è sufficiente un soloevento. Naturalmente, le operazioni suddette possono essere utilizzate per unnumero qualsiasi di eventi di S.

Tra tutti i possibili eventi generati a partire da S, ne esistono due particolari:

− l’evento impossibile− l’evento certo.

L’evento impossibile si indica con il simbolo Ø ed è l’evento che non si verificamai in ogni prova;

l’evento certo si indica con il simbolo Ω ed è l’evento che si verifica sempre inogni prova.

Le operazioni dell’algebra di Boole possono essere schematicamente illu-strate con dei grafici che vengono detti diagrammi di Venn. In questi diagram-mi l’evento certo viene disegnato con un quadrangolo all’interno del quale ven-gono delimitati degli insiemi che rappresentano gli eventi. Qui di seguito illu-striamo, utilizzando i diagrammi di Venn, le tre operazioni (aree tratteggiate)sugli eventi che abbiamo definito in precedenza.

L’unione fra i due eventi A e B

A ∪ B = D

L’intersezione fra i due eventi A e B

A ∩ B = E

Page 16: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 18

La negazione di un evento A

Definiamo ora gli eventi incompatibili.

Dati due eventi A e B se risulta A∩B = Ø, si dice che A e B sono incompati-bili.

Intuitivamente, due eventi sono incompatibili se non possono presentarsicontemporaneamente e quindi o si presenta l’uno, oppure si presenta l’altro.Per due eventi incompatibili, da un punto di vista grafico, si ha una situazionecome quella rappresentata nella figura che segue

A ∩ B = Ø

Come si può notare dalla figura, i due eventi incompatibili non hanno aree incomune fra di loro, sono completamente disgiunti.

Come tutte le algebre anche quella di Boole ha delle regole che elenchiamoqui di seguito:

a) proprietà commutativaA ∩ B = B ∩ A; A ∪ B = B ∪ A

b) proprietà di idempotenzaA ∩ A = A; A ∪ A = A

c) proprietà associativa

Page 17: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 9

( A ∩ B ) ∩ C = A ∩ ( B ∩ C ); ( A ∪B) ∪C = A ∪( B ∪ C)

d) proprietà distributiva A ∩ ( B ∪C) = (A ∩ B) ∪ ( A ∩C); A∪ ( B ∩C) = ( A ∪B) ∩ ( A ∪C)

e) proprietà involutoria

A= A

f) regole del de Morgan

=∩ BA = A ∪ Β; =∪ BA = A ∩ Β.

Osserviamo che le regole del de Morgan mettono in relazione fra di lorotutte e tre le operazioni definite nell’algebra di Boole. Inoltre, da queste regolesegue che per definire l’algebra di Boole basta definire solo due di quelle ope-razioni: l’unione e la negazione, oppure l’intersezione e la negazione. La terzaoperazione, infatti, può essere derivata dalle due considerate proprio tramite leregole del de Morgan.

Esempio 3Consideriamo una prova che consiste nel lancio di un dado. I possibili eventi che questa

prova può generare sono:

esce la faccia con un puntino = A1

esce la faccia con due puntini = A2

esce la faccia con tre puntini = A3

esce la faccia con quattro puntini = A4

esce la faccia con cinque puntini = A5

esce la faccia con sei puntini = A6

Osserviamo che i sei eventi sono fra di loro incompatibili e che l’insieme campionario inquesto caso è S = A1 , A2 , A3 , A4 , A5 , A6.

Da S deriviamo i seguenti eventi:D = esce una faccia con un numero dispari di puntini = A1 ∪ A3 ∪A5

P = esce una faccia con un numero pari di puntini = A2 ∪A4 ∪A6

M = esce una faccia con un numero primo di puntini = A1 ∪A2 ∪A3 ∪A5

Ω = esce una qualsiasi delle sei facce = A1 ∪A2 ∪A3 ∪A4 ∪A5 ∪A6Avremo così che

Page 18: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 110

D = P; D ∪ P = Ω ; P ∩ M = A2 ; M = A4 ∪ A6;

D ∩ P = Ø; MP ∩ = 2A ; D ∩ Ω = D.

Dalle definizioni delle operazioni e delle regole dell’algebra e da quelle rela-tive agli eventi impossibile e certo seguono immediatamente anche le relazioniseguenti

Ø ∪ A = A Ø ∩ A = Ø Ø = Ω

Ω ∪ A = Ω Ω ∩ A = A Ω = Ø

SECONDO POSTULATO

Dato un evento A qualsiasi appartenente ad una algebra di Boole, la suaprobabilità è unica e non negativa.

In simboli si ha

P(A) ≥ 0.

L’affermazione dell’univocità della probabilità è molto importante: implica cheallo stesso evento non è possibile attribuire più di una probabilità.

TERZO POSTULATO

La probabilità dell’evento certo è sempre pari ad uno:

P( Ω) = 1

Questo postulato serve per definire un limite superiore alla probabilità, inoltre,combinato con il precedente permette di dimostrare che la probabilità di unqualsiasi evento A è sempre compresa fra zero ed uno:

0 ≤ P(A) ≤ 1.

QUARTO POSTULATO

Se A e B sono eventi incompatibili la probabilità della loro unione è ugualealla somma delle probabilità di ciascuno di essi.

Page 19: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 11

In simboli abbiamo:

se è A ∩ B = Ø allora risulta P( A ∪ B) = P(A) + P(B)

In altri termini, se si hanno due eventi incompatibili la loro somma logica sitrasforma, tramite l’applicazione della probabilità, nella somma aritmetica.Quanto detto è illustrato nel diagramma di Venn seguente in cui gli eventi sonorappresentati dalle figure circolari e le probabilità dalle aree in esse racchiuse.

Come si può notare dalla figura, la probabilità di A ∪ B (misurata in termini diaree) è data dall’area di A più l’area di B.

Dimostriamo alcuni semplici teoremi che derivano dai quattro postulati finqui presentati.

Teorema 1La probabilità dell’evento impossibile è sempre pari a zero:

P(Ø) = 0.Dimostrazione

Sappiamo che è sempre

Ω ∩ Ø = Ø Ω ∪ Ø = Ω

e quindi l’evento certo e quello impossibile sono incompatibili ed applicando ilterzo ed il quarto postulato si ha

1 = P( Ω ) = P( Ω ∪ Ø) = P( Ω ) + P(Ø) = 1 + P(Ø)

Da cui, tenendo conto del primo e dell’ultimo termine di questa catena diuguaglianze, si ricava

P(Ø) = 1 - 1 = 0

che dimostra quanto asserito.

Page 20: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 112

Teorema 2Dato un evento A qualsiasi si ha sempre

P( A ) = 1 - P(A)Dimostrazione

Osserviamo in primo luogo che i due eventi A e A sono incompatibili

dato che o si verifica A o si verifica la sua negazione A . Inoltre, risulta sempre

A ∪ A= Ω.

Se su quest’ultima identità applichiamo il terzo ed il quarto postulato otte-niamo

1 = P(Ω) = P( A ∪ A) = P(A) + P( A),da cui si ricava

P( A) = 1 - P(A)

che dimostra quanto asserito.

Teorema 3Se A, B, C sono tre eventi incompatibili a due a due fra di loro:

A ∩ B = Ø, A ∩ C = Ø, B ∩ C = Ø,si ha che

P( A ∪ B ∪ C) = P( A) + P( B) + P( C).

DimostrazioneDalla regola associativa dell’algebra di Boole sappiamo che è sempre

A ∪ B ∪ C = (A ∪ B) ∪ C,poniamo

D = (A ∪ B)

e facciamo vedere che D e C sono incompatibili. Infatti,

D∩ C = (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) = Ø ∪ Ø = Ø,

ove si è utilizzata la proprietà distributiva e quella dell’idempotenza. Ma alloraper l’evento D ∪C, così come per l’evento A ∪B, possiamo utilizzare il quartopostulato ed ottenere

AAA

Page 21: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 13

P( A ∪ B ∪ C) = P( D∪ C) = P( D) + P( C) = P( A ∪ B) + P( C) =

= P( A) + P( B) + P( C)

che dimostra quanto asserito.

Il teorema appena dimostrato può essere generalizzato facilmente al caso diuna successione A1 , A2 , ..., An di eventi a due a due incompatibili, e quindi tali

che Ai ∩ Aj = Ø per ogni i ≠ j, ottenendo

P( A1 ∪A2 ∪ ... ∪An ) = P( A1 ) + P( A2 ) + ... + P( An ).

Teorema 4Dati i due eventi A e B qualsiasi, e quindi tali che potrebbe anche essere

A∩B ≠ Ø, si ha

P( A ∪B) = P( A) + P( B) - P( A ∩ B).

DimostrazioneDiamo in primo luogo una dimostrazione euristica basata sui diagrammi di

Venn. Dato che A e B non sono incompatibili si avrà una situazione comequella descritta dalla figura seguente

e la probabilità di A ∪B sarà data dall’area tratteggiata in figura che è uguale a

tutta l’area in A + tutta l’area in B – l’area della parte comune A ∩ B

questa sottrazione è necessaria altrimenti l’area comune verrebbe contata duevolte. Questo ci fornisce il risultato cercato.

Dimostriamo ora formalmente quanto abbiamo cercato di fare intuitiva-mente, a tale proposito notiamo che è sempre

Page 22: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 114

A = A ∩ Ω = A ∩ ( B ∪ B ) = ( A ∩ B) ∪ (A ∩ B )

come è anche illustrato nella figura seguente

Ma i due eventi ( A ∩ B) e (A ∩B ) sono fra di loro incompatibili (come sivede anche dalla figura) dato che risulta

( A ∩ B) ∩ ( A ∩ B ) = ( A ∩ A) ∩ ( B ∩ B ) = A∩Ø = Ø,

per cui si avrà

P( A) = P[( A ∩ B) ∪ ( A ∩ B )] = P( A ∩ B) + P( A ∩ B ),

da cui si ricava

P( A ∩ B ) = P( A) - P( A ∩ B).

D’altro lato, si può anche scrivere

( A ∪ B) = B ∪ ( A ∩ B )e gli eventi B ed (A ∩ B ) sono incompatibili per cui, ricordando il risultatoprima ottenuto, risulta

P( A ∪B) = P( B) + P( A ∩ B ) = P( B) + P( A) - P( A∩B)

che dimostra quanto affermato.

Teorema 5Siano A , B , C tre eventi qualsiasi, si ha

P( A ∪B ∪ C) = P( A) + P( B) + P( C) - P( A ∩B) - P( A ∩ C) - P( B ∩ C) +

+ P( A ∩ B ∩C).Dimostrazione

Poniamo D = A ∪B per cui, utilizzando ripetutamente il teorema 4 avremo,

P( A ∪B ∪C) = P( D ∪C) = P( D) + P( C) - P( D∩C) =

Page 23: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 15

= P( A ∪B) + P( C) - P(D∩C) = P(A) + P(B) - P(A ∩ B) + P(C) - P(D ∩ C) =

= P( A) + P( B) + P( C) - P( A ∩ B) - P( D ∩ C).D’altro lato, abbiamo

P( D ∩ C) = P[( A ∪ B) ∩ C] = P[( A ∩ C) ∪(B ∩ C)] =

= P( A ∩ C) + P( B ∩ C) - P[( A ∩ C) ∩( B ∩ C)] =

= P( A ∩ C) + P( B ∩ C) - P[( A ∩ B) ∩( C ∩ C)] =

= P( A ∩ C) + P( B ∩ C) - P( A ∩ B ∩ C).

Sostituendo questa espressione in quella precedentemente ricavata si ottiene

P( A ∪B ∪C) = P( A) + P( B) + P( C) - P( A ∩ B) -

[P( A ∩C) + P( B ∩C) - P( A ∩B ∩C)] =

= P( A) + P( B) + P( C) - P( A ∩B) - P( A ∩C) - P( B ∩C) + P( A ∩B ∩C)

che dimostra quanto affermato.

Sul teorema precedente osserviamo che gli addendi che compongonol’espressione a destra sono sette e precisamente: quelli che coinvolgono un solo

evento sono tre: P( A), P( B), P( C), cioè sono

13

ed hanno segno positivo;

quelli che coinvolgono due eventi sono ancora tre: P( A ∩ B ), P( A ∩ C ),

P( B ∩ C), cioè sono

23 ed hanno segno negativo; quelli che coinvolgono tre

eventi è uno solo: P(A ∩ B ∩ C), cioè

33 ed ha segno positivo. Questa os-

servazione ci permette di generalizzare il teorema precedente al caso della pro-babilità dell’unione di k eventi qualsiasi. Ove, in generale, vale la seguente ugua-glianza

!)kn(!k

!nkn

−=

conn ! = n × (n-1) × (n-2) ×.....× 3 × 2 × 1,

Page 24: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 116

e si legge “n fattoriale”, cioè il prodotto dei primi n numeri interi.

QUINTO POSTULATO

Per introdurre l’ultimo postulato dobbiamo definire gli eventi condizionati.

Dati i due eventi A e B si dice che B condiziona A, e si scrive (A|B), se il veri-ficarsi di B altera la probabilità del verificarsi di A.

L’evento condizionato (A|B) si legge anche: A dato B. L’evento A è detto eventocondizionato mentre B viene detto condizionante. Osserviamo che affinché A siacondizionato da B questo secondo evento deve verificarsi prima di A per cui viè un ordinamento temporale da B ad A anche se per alcuni è plausibile una re-lazione di simultaneità fra i due eventi (che però non è osservabile in nessunmodo, come già accennato all’inizio del capitolo) e quindi sarebbe giustificatoconsiderare simultaneamente i due eventi condizionati ( A|B) e ( B|A).

Da un punto di vista geometrico effettuare il condizionamento B significarestringere lo spazio da Ω a B e quindi interessarsi a come A si comporta nelnuovo spazio B. Graficamente si ha una situazione schematizzata nel diagram-ma che segue

ove l’evento certo si riduce da Ω ad Ω* = B e l’evento condizionato ( A|B) èdato dal comportamento di A all’interno del nuovo evento certo B.

Possiamo ora formulare il quinto postulato che afferma:

P( A|B) = )B(P

)BA(P ∩

con P( B) > 0.

Page 25: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 17

Osserviamo che:(a) l’evento condizionante B deve essere diverso dall’evento impossibile altri-

menti quel rapporto perderebbe di significato;(b) se l’evento condizionante B coincide con l’evento certo Ω questo non eser-

cita alcun condizionamento su A:(c) la divisione per P(B) nel quinto postulato serve per fare in modo che

P(A|B) raggiunga il valore uno se e solo se A = B, cioè se A coincide con ilnuovo evento certo Ω*.

Dalla formulazione del postulato si ha anche

P( A ∩ B) = P( A|B) P( B).

Possiamo ora definire gli eventi indipendenti.

L’evento A è indipendente dall’evento B se e solo se risulta

P( A|B) = P( A)

In altri termini, A è indipendente da B se B non esercita alcun condiziona-mento, alcuna influenza sulla probabilità del verificarsi di A. Una diversa defini-zione di eventi indipendenti si ottiene sostituendo il risultato di questa ugua-glianza nell’espressione del quinto postulato:

P( A|B) = )(

)(

BPBAP ∩

= P( A)

da cui si ricava immediatamente che A è indipendente da B se e solo se risulta

P( A ∩ B) = P( A) P( B)

e quindi se e solo se il prodotto logico si trasforma nel prodotto aritmetico. Da questaultima espressione segue immediatamente che se A è indipendente da B ancheB è indipendente da A.

Teorema 6Se A e B sono indipendenti lo sono anche Ae B .

Page 26: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 118

DimostrazioneBisogna dimostrare che se è vera questa uguaglianza P(A ∩ B) = P(A) P(B),

allora è vera anche la seguente P( BA ∩ ) = P( A) P( B ). Da una delle dueformule del de Morgan sappiamo che

=∪ BA = A ∩ Β.

Applicando la probabilità ad ambo i membri di questa uguaglianza e tenendoconto dell'indipendenza fra A e B, diviene

( )=∪ BAP P( A ∩ B) = P( A) P( B).

D’altra parte risulta

( )=∪ BAP 1 - P( BA ∪ ) = 1 - P( A) - P( B ) + P( BA ∩ ).

Uguagliando gli ultimi membri di queste due ultime espressioni otteniamo

P(A) P(B) = 1 - P( A) - P( B ) + P( BA ∩ ) ,

da cui si ricava

P( BA ∩ ) = P( A) + P( B ) - 1 + P(A) P(B) =

= P( A) + [1 - P(B)] - 1 + P(A) P(B) =

= P( A) - P(B) + P(A) P(B) = P( A) - P(B)[1 - P(A)] =

= P( A) - P(B) P( A) = P( A) [1- P(B)] = P( A) P( B )

che dimostra quanto affermato.

Teorema 7

Se A e B sono due eventi indipendenti allora lo saranno anche A e B .

DimostrazioneRicordiamo che è sempre

Page 27: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 19

A ∩ Ω = A ∩(B ∪ B ) = (A ∩ B) ∪ (A ∩ B )

ed i due eventi (A ∩ B) e (A ∩ B ) sono incompatibili per cui risulta

P(A) = P(A ∩ B) + P(A ∩ B ) = P(A) P(B) + P(A ∩ B ),

da cui ricaviamo

P(A ∩ B ) = P(A) - P(A) P(B) = P(A)[1- P(B)] = P(A) P( B )

che dimostra quanto affermato.

Si osservi che dato i k eventi A1 , A2 , ..., Ak se sono indipendenti a due adue non è detto che lo siano a tre a tre e così via. Questo vuole dire che keventi sono indipendenti se lo sono a due a due, a tre a tre, a quattro a quattro,…, a k a k. Nel prossimo paragrafo mostreremo con un esempio quanto quiaffermato.

Cerchiamo di capire, ora, le relazioni che passano fra eventi incompatibili edeventi indipendenti. Se A e B sono incompatibili, per definizione si ha A ∩B = Ø.Da un punto di vista logico, il fatto che A e B siano incompatibili vuole direche il presentarsi di uno di questi eventi esclude il presentarsi dell’altro e quindifra i due eventi deve esistere un legame (in questo caso di repulsione) moltoforte per cui

due eventi incompatibili non possono mai essere indipendenti

Questa conclusione può essere ottenuta anche per via analitica nel modo chesegue.

Teorema 8Se è P(A) > 0 ed A e B sono incompatibili questi due eventi non possono

mai essere indipendenti.

DimostrazioneSe A e B sono incompatibili risulta

P(A ∩ B) = P(Ø) = 0

e sostituendo nel quinto postulato si ha

Page 28: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 120

P(A|B) = )B(P

)BA(P ∩=

0P(B) = 0 < P(A),

pertanto non può mai essere P(A|B) = P(A) (che è la definizione di indipen-denza fra A e B) in conclusione A non può essere indipendente da B.

1.4 La misura della probabilità

Fino ad ora abbiamo studiato, a partire dai concetti primitivi e dai postulati,alcune delle leggi che regolano la probabilità. D’altro lato, noi siamo anche inte-ressati a fornire una misura della probabilità degli eventi. In questo paragrafoaffronteremo proprio questo argomento.

Consideriamo una prova che genera i k eventi

S = A1 , A2 , ...., Ak

e supponiamo che questi k eventi soddisfino le seguenti tre condizioni:

1) necessarietà:almeno uno dei k eventi deve necessariamente presentarsi, cioè

A1 ∪A2 ∪ ... ∪Ak = Ω;

2) incompatibilità:i k eventi sono incompatibili a due a due:

Ai ∩ Aj = Ø , per ogni i ≠ j;3) equiprobabilità:

tutti i k eventi hanno la stessa probabilità di verificarsi:

P(Ai ) =p per i = 1, 2, ...,k.

In questo problema l’incognita è il valore p della probabilità di ciascunevento. Questo valore, se sono vere le tre condizioni specificate, si calcolamolto semplicemente. Infatti, dalla prima condizione si ha

P(A1 ∪A2 ∪ ... ∪Ak ) = P(Ω) = 1

che utilizzando la seconda diviene

Page 29: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 21

1 = P(Ω) = P( A1 ∪A2 ∪ ... ∪Ak ) = P(A1 ) + P(A2 ) + ... + P(Ak ).

Se usiamo anche la terza condizione si avrà infine

1 = P( A1 ) + P( A2 ) + ... + P( Ak ) = k p,

da cui si ricava

p =k1

.

In conclusione, possiamo affermare che

dati i k eventi Ai , i=1, 2, ...,k, se sono necessari, incompatibili ed equipro-babili risulta

P(Ai ) = k1

, i =1, 2, ...,k.

Dati i k eventi A1 , A2 , ..., Ak necessari, incompatibili ed equiprobabili, si

vuole determinare la probabilità dell’evento A= A2 ∪ A7 ∪ A11 , risulta im-mediatamente

P(A2 ∪ A7 ∪ A11 ) = P(A2 ) + P(A7 ) + P(A11 ) = k1

+ k1

+ k1

= k3

e come si vede, al numeratore vi è il numero dei casi favorevoli (in questo casotre) ed al denominatore il numero dei casi equamente possibili (cioè k ). Questo cipermette di enunciare la seguente regola pratica:

se una prova genera k eventi necessari, incompatibili ed equiprobabili, la probabi-lità di A = unione di un sotto insieme dei k eventi , è data da

P(A) = possibilicasiituttidiNumero

AadfavorevolicasideiNumero

Esempio 4Consideriamo come prova il lancio di un dado regolare. I possibili eventi generati da que-

Page 30: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 122

sta prova, come sappiamo, sono sei per cui risulta k=6. Questi 6 eventi sono necessari datoche una faccia necessariamente deve presentarsi, sono incompatibili perché se si presenta unafaccia non se ne può presentare un’altra, sono equiprobabili perché abbiamo supposto il dado

regolare. Questo vuole dire che la probabilità di presentarsi di ciascuna faccia è 61

. Mentre

PEsce una faccia con un numero pari di puntini 21

63 == .

Nell’esempio che segue mostriamo che eventi indipendenti a due a due nonnecessariamente lo sono a tre a tre.

Esempio 5 Consideriamo un’urna con 4 palline identiche numerate da 1 a 4. In tal modo, posto

Ai = pallina numerata con i , i = 1, 2, 3, 4

avremo:Ω = A1 ∪A2 ∪ A3 ∪A4

e risulta

P(Ai ) = 14 ; i = 1, 2, 3, 4

Consideriamo gli eventi:

A = A1 ∪A2, B = A1 ∪A3, C = A1 ∪A4

per cui risulta:

P( A) = P( A1 ) + P( A2 ) = P( B ) = P( A1 ) + P( A3 ) =

= P( C) = P( A1 ) + P( A4 ) = 41

+ 41

= 21

Inoltre:A ∩ B = A ∩ C = B ∩ C = A1

e quindi:

P( A ∩ B ) =41

= 21

21

= P( A) P( B)

Page 31: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 23

P(A ∩C) =41

= 21

21

= P(A) P(C)

P(B ∩C) =41

= 21

21

= P(B) P(C)

ed implica che A, B, C sono indipendenti a due a due. D’altro lato A ∩ B ∩ C = A1 percui

P(A ∩ B ∩C) = P(A1) = 41

mentre

P(A) P(B) P(C) 41

81

21

21

21 ≠==

In definitiva, possiamo dire che i tre eventi A, B, C sopra definiti sono indipendenti a due adue, ma non lo sono a tre a tre.

Analizziamo ora le tre condizioni (necessità, incompatibilità, equiprobabilità)indispensabili per misurare la probabilità con il metodo sopra descritto. Questoci servirà per verificare se questa procedura è abbastanza generale da potere e s-sere utilizzato in una grande classe di casi o si tratta solo di una particolare s i-tuazione senza rilevante utilità applicativa.

1) necessità: è sempre possibile definire gli eventi generati da una prova, aggiun-gendone ed eliminandone alcuni, di modo che questi siano un sistema dieventi necessari;

2) incompatibilità: è sempre possibile definire gli eventi generati da una prova dimodo che questi siano fra di loro incompatibili a due a due;

3) equiprobabilità: questa condizione può essere verificata solo in quelle prove, inquegli esperimenti, che possono essere programmati e ripetuti (estrazioni daurne, lancio di dadi regolari, lancio di monete non truccate ecc.).

In altri termini, delle tre condizioni date, la terza è quella più difficile da veri-ficare e giustificare. Per esempio, se la prova consiste nell’estrazione di pallineda urne l’equiprobabilità si può ottenere richiedendo che le palline siano tuttedella stessa dimensione e dello stesso materiale, a meno del colore, ed effettua-re l’estrazione al buio. Se invece l’esperimento consiste nel sottoporsi ad un i n-tervento chirurgico i possibili eventi (guarigione, invalidità, morte ecc.) quasi maisono equiprobabili, né possono essere riformulati in modo da renderli tali. Ma

Page 32: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 124

c’è di più, richiedere la equiprobabilità nell’ambito della misura della probabilitàvuole dire avere misurato quello che si vuole misurare: si cade in una tautologia,un circolo vizioso.

Il problema della misura della probabilità viene comunque risolto in modopragmatico ricorrendo ad un ulteriore postulato che, pur non facendo partedel corpus dei postulati del calcolo delle probabilità, è utile per ottenere unamisura empirica della probabilità di un determinato evento. Tale postulato è ilpostulato empirico del caso.

Il postulato empirico del caso afferma che in una successione di prove r i-petute molte volte, sempre nelle stesse condizioni, la frequenza relativa fi dellevolte in cui un evento si è effettivamente verificato:

fi = effettuateprovedellenumero

evento'lpresentatoèsicuiincasideinumero,

si avvicina sempre più alla probabilità pi del verificarsi dell’evento stesso al cre-scere delle prove effettuate. In modo più sintetico possiamo affermare che

all’aumentare del numero delle prove, la frequenza relativa di un evento (si cal-cola dopo che le prove sono state effettuate) tende alla probabilità dell’eventostesso (si calcola prima che la prova venga effettuata):

pi ≈ fi

Notare che la frequenza è un concetto a posteriori: si calcola dopo avere ef-fettuato l’esperimento, la probabilità è un concetto a priori: si calcola prima chel’esperimento sia stato effettivamente fatto.

Esempio 6Consideriamo un’urna contenente 50 palline tutte delle stesse dimensioni e dello stesso m a-

teriale a meno del colore: 30 sono bianche e 20 sono rosse.

Indichiamo con:

Page 33: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 25

Bi = esce, all’i-esima estrazione, pallina di colore bianco,Ri = esce, all’i-esima estrazione, pallina di colore rosso.

Supponiamo di volere estrarre due palline dall’urna e di essere interessati a calcolare la proba-bilità dell’evento seguente:

A = esce una pallina bianca ed una rossa.Questo evento, in termini formali, può essere scritto nel modo seguente:

A = (B1 ∩ R2 ) ∪ (R1 ∩ B2 ).

Osserviamo che non siamo interessati all’ordine dei colori e che i due eventi (B1 ∩ R2 ) e

(R1 ∩ B2) sono fra di loro incompatibili dato che o si presenta la prima coppia di palline o sipresenta la seconda coppia. Osserviamo ancora che le due palline possono essere estratte in duemodi alternativi:

a) con reimmissione (estrazione bernoulliana): la prima pallina estratta viene reinseritanell’urna per effettuare la seconda estrazione;

b) senza reimmissione (estrazione in blocco): la prima pallina estratta viene tolta dall’urnaper cui, alla seconda estrazione, questa si modifica.

Analizziamo i due casi separatamente:

a) Con reimmissione:Questo tipo di estrazione dà luogo ad eventi indipendenti nel senso che le estrazioni successivesono indipendenti dalle precedenti dato che non modificano la composizione dell’urna. Abbiamo

P(A) = P[(B1 ∩R2 ) ∪ (R1 ∩B2 )] = P(B1 ∩R2 ) + P(R1 ∩B2 ) =

= P(B1) P(R2 ) + P(R1 ) P(B2 ) 2512

5030

5020

5020

5030 =+= = 0.48.

b) Senza reimmissione:Questo tipo di estrazione dà luogo ad eventi dipendenti: le estrazioni successive dipendono daquelle precedenti dato che modificano la composizione dell’urna:

Page 34: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 126

Avremo:P(A) = P[(B1 ∩R2 ) ∪ (R1 ∩B2 )] = P(B1 ∩R2 ) + P(R1 ∩ B2 ) =

P(B1) P(R2|B1 ) + P(R1 ) P(B2|R1 ) = 4920

5030

+ 4930

5020

= ≈245120

0.4898

Come si può notare, le probabilità ottenute con i due metodi di estrazione sono differenti. E’facile verificare che al crescere della numerosità dell’urna le due probabilità tendono ad avvici-narsi.

1.5 Il teorema di Bayes

In questo paragrafo presenteremo un risultato che va sotto il nome di teo-rema o regola di Bayes e si ottiene come applicazione del quinto postulato.Questo risultato si riferisce al caso in cui un dato evento, diciamo E, non si pre-senta mai da solo, ma sempre insieme ad altri eventi, diciamo H1, H2, ..., Hk.Da un punto di vista pratico, il teorema di Bayes permette di risolvere il se-guente problema:

− sono note le probabilità P(Hi ), i = 1, 2, ...,k

− sono note le probabilità P(E|Hi ), i = 1, 2, ...,k;

− sappiamo che E si è verificato;− vogliamo calcolare le probabilità:

P(H i| E).

Page 35: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 27

Notare che, se le Hi sono individuate come le possibili cause che possonogenerare E, la formula di Bayes permette di calcolare la probabilità che il verifi-carsi di E sia attribuibile alla causa Hi . Si tratta del complicato ed irrisoltoproblema della ricerca delle cause essendo, come detto, funzione delle P(H i ) chenella realtà sono incognite e lasciate alla determinazione soggettiva del ricercato-re: si è verificato incontrovertibilmente un dato fatto, bisogna valutare quale èstata la causa che più verosimilmente lo ha determinato.

Vediamo ora come il problema sopra illustrato può essere risolto. Suppo-niamo, senza perdere in generalità, che i k eventi Hi siano necessari ed incom-patibili:

H1 ∪H2 ∪ ... ∪Hk = Ω

Hi ∩Hj = Ø, i ≠ j

Possiamo così scrivere le identità seguenti

E = E ∩ Ω = E ∩( H1 ∪H2 ∪ ... ∪Hk ) =

= ( E ∩H1 ) ∪ ( E ∩H2 ) ∪.... ∪ ( E ∩Hk )

Osserviamo che gli eventi ( E ∩ H1 ), ( E ∩H2 ), ...., ( E ∩ Hk ) sono a duea due incompatibili e quindi possiamo scrivere

P(E) = P( E ∩ H1 ) + P( E ∩ H2 ) + ....+ P( E ∩ Hk ).

Inoltre, per il quinto postulato risulta

Page 36: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 128

P( E|Hi ) = )H(P

)EH(P

i

i ∩

da cui ricaviamoP( Hi ∩ E) = P( Hi ) P( E|Hi ),

che sostituita in P( E) diviene

P( E) = P( H1 ) P( E|H1 ) + P( H2 ) P( E|H2 ) + ... + P( Hk ) P( E|Hk ).

Riutilizzando il quinto postulato si ha

P( Hi|E) = )E(P

)EH(P i ∩

e sostituendo in quest'ultima espressione le precedenti due otteniamo la regoladi Bayes:

P( Hi|E) = )(

)(

EPEHP i ∩

=

= )H|E(P)H(P...)H|E(P)H(P)H|E(P)H(P

)H|E(P)H(P

kk2211

ii

+++, i=1,2,...,k

− Le probabilità P( Hi ) vengono dette a priori,

− le probabilità P( E|Hi ) vengono dette probative o verosimiglianze,

− le probabilità P( Hi|E) vengono dette a posteriori.

Ciò che di solito risulta di difficile determinazione sono proprio le probabi-lità a priori che spesso vengono lasciate alla soggettività del ricercatore o si ba-sano su esperienze passate.

Esiste un filone molto importante della statistica che viene sviluppato a par-tire dal teorema di Bayes e prende il nome di Statistica Bayesiana. Nel seguitonon affronteremo una tale problematica.

Esempio 7Nella produzione di un lotto di dadi si è verificato un guasto per cui nei due terzi dei dadi

prodotti al posto del numero 1 è stato impresso il numero 3. Scelto un dado a caso, senza

Page 37: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al calcolo delle probabilità 29

guardare se è buono o difettoso, si effettuano 5 lanci ottenendo il risultato E=F2 ∩ F3

∩ F3 ∩ F5 ∩ F4 ove Fi indica l’evento: si presenta la faccia con i puntini. Vogliamo cal-colare la probabilità che il dado estratto sia difettoso. Indichiamo con

D : il dado estratto è difettoso

D : il dado estratto è buono

si ha immediatamente Ω = D ∪D e quindi bisogna calcolare P(D|E). E’ chiaro che sitratta di un tipico problema di ricerca della causa che può essere risolto utilizzando la formuladi Bayes ove risulta k=2, H1 = D, H2 = D . Si otterrà quindi

P( D|E) = )D|E(P)D(P)D|E(P)D(P

)D|E(P)D(P+

e dato che

P(D) = 32

; P( D ) = 1 - 32

= 31

;

P( E|D) = P[( F2 ∩ F3 ∩ F3 ∩ F5 ∩ F4 )|D] = 61

61

62

62

61

= 56

4;

P( E| D ) = P[( F2 ∩ F3 ∩ F3 ∩ F5 ∩ F4 )|D−− ] = 61

61

61

61

61

= 56

1;

avremo

P( D|E) =

55

5

6

131

6

432

6

432

+=

98

.

Si osservi che abbiamo supposto note le probabilità a priori P( D) e P( D ) mentre tuttoil resto è stato derivato.

Page 38: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano
Page 39: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 2

LE VARIABILI CASUALI

2.1 Introduzione

Fino ad ora abbiamo trattato degli eventi (possibili risultati di una data pro-va sintetizzati nell’insieme campionario S) e della probabilità che a ciascuno diquesti eventi rimane associata. In altri termini, definita una data prova, risultanoad essa associati i k eventi

A1 , A2 , ..., Ak

con le relative probabilità

p1 , p2 , ..., pk.

Abbiamo visto che le probabilità sono dei numeri non negativi mentre glieventi sono delle frasi, delle proposizioni e come tali di difficile manipolazione(si deve ricorrere a operazioni logiche come avviene nell’algebra di Boole).Scopo di questo capitolo è quello di associare agli eventi dei numeri per avereelementi che possano essere facilmente analizzati con la normale algebra nume-rica. Ricordiamo, intanto, che gli elementi di S possono essere sempre mani-polati di modo che siano necessari ed incompatibili. Qui di seguito supporre-mo, per l’appunto, che i k eventi Ai generati da una specifica prova siano e f-fettivamente necessari ed incompatibili. Questo vuol dire che è sempre

pi = P(Ai ) ≥ 0, i=1, 2 ,...,k; ∑=

k

1i

pi = 1.

In tal modo i k eventi ottenibili dall’esperimento, assieme alle proprie pro-babilità, possono essere riportati in una tabella:

Page 40: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 232

Eventi ProbabilitàA1 p1

A2 p2

... ...Ak pk

1

Definiamo ora una funzione univoca X(.) che associa ad ogni evento Ai unnumero della retta reale xi , i=1, 2 ,...,k. In tal modo questa tabella diviene

Valori Probabilitàx1 p1

x2 p2

... ...xk pk

1

Questa tabella rappresenta la variabile casuale (nel seguito v.c.) generata daquell’esperimento sotto la funzione X(⋅). Naturalmente, non è detto che la rela-zione fra numeri reali ed eventi debba essere necessariamente biunivoca, ma adeventi diversi potrebbe corrispondere lo stesso valore della retta reale comeevidenziato nella figura seguente

S =

ove agli otto eventi generati dalla prova corrispondono, tramite la X(⋅), cinque

Page 41: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 33

valori distinti della retta reale. Più precisamente, la relativa v.c. associabile allaprecedente figura avrebbe la struttura qui di seguito riportata

xi pi

x1 p4

x2 p2+p5

x3 p1

x4 p3+p6

x5 p7+p8

1

Le variabili casuali, così come abbiamo fatto per le distribuzioni di fre-quenza, le indicheremo con una delle ultime lettere maiuscole dell’alfabeto lati-no (X, Y, Z, U, V, ...). Poiché la legge di associazione fra eventi e numeri èsoggettiva, vuol dire che dagli eventi generati da una data prova si possono de-rivare più variabili casuali mutando la legge di associazione X(⋅). In pratica, datoun certo esperimento, la legge di associazione X(⋅) sarà scelta fra le infinite pos-sibili in base alle esigenze concrete che si vogliono studiare.

Esempio 1Consideriamo come prova il lancio di un dado regolare. In questo caso i possibili eventi ge-

nerati dalla prova sono sei che indichiamo con A1 , A2 , ..., A6 , ove si è posto Ai = Esce lafaccia con i puntini. Sappiamo che è P(Ai ) = pi = 1/6 e quindi possiamo scrivere

Ai A1 A2 A3 A4 A5 A6

pi 61

61

61

61

61

61

Se scegliamo come funzione di insieme la seguente

X(Ai ) = i , i=1,2,...,6

otteniamo la v.c. ad essa associata:

xi 1 2 3 4 5 6

pi 61

61

61

61

61

61

Page 42: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 234

Supponiamo ora che il lancio del dado sia da mettere in relazione ad una scommessa: se siverificano gli eventi A1 oppure A2 oppure A3 vinco una lira, mentre se escono le facce A4 op-pure A5 oppure A6 perdo una lira. In questo caso la funzione di insieme che ci interessa ha lastruttura seguente

X(Ai ) = =−

=6,5,4ise13,2,1ise1

e la relativa v.c. associata allo stesso esperimento avrà la struttura seguente:

xi -1 1

pi63

63

2.2 Variabili casuali discrete e distribuzioni di frequenza

Come abbiamo fatto per le distribuzioni di frequenza, anche le variabili ca-suali si distinguono in discrete e continue, semplici e multiple ed in particolaredoppie.

Una v.c. X è discreta se i valori che assume sono in numero discreto finitoo numerabile.

Una variabile casuale discreta è nota se lo è la sua distribuzione di probabilità,ovvero se sono noti i singoli valori assunti con le rispettive probabilità. La d i-stribuzione di probabilità di una v.c. discreta finita assume una struttura comequella qui di seguito riportata

xi pi

x1 p1

x2 p2

... ...xk pk

1

Page 43: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 35

Affinché X sia una v.c. discreta è necessario e sufficiente che le probabilitàpi , i =1, 2 ,...,k, soddisfino le due condizioni già menzionate:

pi ≥ 0, i =1 ,2 ,...,k ; ∑=

k

1i

pi = 1,

indipendentemente dalla prova che la ha generata. Notare che i valori xi sonoassunti dalla X, non con certezza, ma con probabilità pi , da cui il nome di va-riabile casuale o variabile aleatoria.

Mostriamo ora che le v.c. sono, nel senso che illustreremo fra poco, unageneralizzazione delle distribuzioni di frequenza. A tale proposito consideriamoil seguente esempio.

Esempio 2Supponiamo di aver rilevato il numero xi dei componenti di 105 famiglie ottenendo la di-

stribuzione di frequenza che segue ove, accanto alle frequenze assolute, abbiamo riportato anchequelle relative

xi 1 2 3 4 6 7ni 10 20 40 20 10 5

fi10510

10520

10540

10520

10510

1055

Se estraiamo a caso una famiglia delle 105 considerate otteniamo uno dei seguenti eventi A1,A2, A3, A4, A6, A7, ove l’indice indica il numero dei componenti della famiglia estratta, cosìper esempio risulta

A3 = Viene estratta una famiglia con tre componenti

Osserviamo che

P(A1 ) = 10510

; P(A2 ) = 10520

; P(A3 ) = 10540

; P(A4 ) = 10520

; P(A6 ) = 10510

;

P(A7 ) = 1055

ove queste probabilità sono state calcolate utilizzando la regola del rapporto fra casi favorevoli

Page 44: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 236

e casi possibili. In tal modo, i possibili risultati dell'esperimento sono riassunti nella tabella chesegue

xi A1 A2 A3 A4 A6 A7

pi10510

10520

10540

10520

10510

1055

Consideriamo ora la seguente regola che associa a ciascuno degli eventi Ai un numero reale

X(Ai ) = iin altri termini X(Ai ) è la funzione che associa all'evento Ai il numero dei componenti dellafamiglia cui l’evento si riferisce. Otteniamo la v.c. discreta

xi 1 2 3 4 6 7

pi10510

10520

10540

10520

10510

1055

Come si può notare, questa variabile casuale ha la stessa struttura della distribuzione di fre-quenza anche se la sua interpretazione e significato logico è del tutto differente: la distribuzionedi frequenza è una fotografia della realtà, la variabile casuale è legata alla aleatorietàdell’estrazione di un elemento dalla popolazione delle famiglie.

Da quanto abbiamo illustrato nell’esempio precedente segue che ad ogni di-stribuzione di frequenza e ad ogni popolazione rappresentabile con una distri-buzione di frequenza è possibile associare una variabile casuale che ha la stessastruttura della distribuzione di frequenza data. In genere, però, non vale il vice-versa dato che possono esistere fenomeni ipotetici che non possono essere de-scritti con distribuzioni di frequenza, ma possono essere analizzati ricorrendo avariabili casuali. Un esempio tipico è costituito dai possibili redditi che un individuoavrebbe potuto guadagnare in un dato anno. Si tratta di un fenomeno ipotetico chepuò essere analizzato con una qualche variabile casuale, ma non può essere de-scritto da una distribuzione di frequenza. Tutto questo implica che la classedelle variabili casuali include quella delle distribuzioni di frequenza:

le variabili casuali sono una generalizzazione delledistribuzioni di frequenza.

Page 45: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 37

Una implicazione di questo risultato è che tutte le analisi, siano esse graficheo analitiche, che abbiamo fatto per le distribuzioni di frequenza valgono per levariabili casuali. In particolare, avremo i momenti seguenti.

LA MEDIA ARITMETICAData la v.c. X la sua media aritmetica è data da

µ= E(X) = ∑=

k

1i

xi pi.

LA VARIANZAData la v.c. X la sua varianza è data da

σ 2 = E[(X - µ) 2] = )x( i

k

1i

µ−∑=

2 pi .

IL MOMENTO DI ORDINE rData la v.c. X il suo momento di ordine r è dato da

µr = E(X r) = ∑=

k

1i

rix pi

L’INDICE DI ASIMMETRIAData la v.c. X il suo indice di asimmetria è dato da

γ1 =E

− 3X

σµ

= 3i

k

1i3

)x(1 µ

σ−∑

=pi

L’INDICE DI CURTOSIData la v.c. X il suo indice di curtosi è dato da

γ2 = E

− 4X

σµ

- 3 = )x(1

i

k

1i4

µσ

−∑=

4 pi - 3

Le proprietà e l’interpretazione di questi indici, e di quelli analoghi qui non

Page 46: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 238

riportati per brevità, sono le stesse di quelle viste nel volume primo per le d i-stribuzioni di frequenza.

Esempio 3Calcoliamo media, mediana e varianza delle due variabili casuali riportate nell’esempio 1Per la prima variabile casuale otteniamo

µ = )654321(61 +++++ =

621

= 3.5

Me = 3 + 4

2 = 3.5

σ 2 = µ2 - µ 2 = )654321(61 222322 +++++ - (3.5)2 =

= 691

- 12.25 = 1235

= 2.91667.

Per la seconda variabile casuale otteniamo

µ = )11(21 +− = 0

Me = 2

11 +−= 0

σ 2 = µ2 = 21

[(-1) 2 + 1 2] = 1.

Osserviamo che questa seconda variabile casuale è standardizzata.

2.3 Le variabili casuali doppie discrete

Oltre alle variabili casuali semplici discrete esistono quelle multiple discreteed in particolare le doppie. In questo paragrafo ci occuperemo brevemente diqueste ultime. Una variabile casuale doppia discreta di solito viene indicata con(X, Y) e descritta in una tabella a doppia entrata come quella riportata qui diseguito all’interno delle cui caselle sono poste le probabilità che ciascuna coppia

Page 47: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 39

(xi , yj ) assume:

Y\X x1 x2 x3 ... xk

y1 p11 p21 p31 ... pk1 p.1

y2 p12 p22 p32 ... pk2 p.2

y3 p13 p23 p33 ... pk3 p.3

... ... ... ... ... ... ...yh p1h p2h p3h ... pkh p.h

p1. p2. p3. ... pk. 1

In particolarepi j = PX=xi ∩Y=yj .

In altri termini, pi j è la probabilità che la variabile casuale X assuma il valorexi e contemporaneamente la variabile casuale Y assuma il valore yj . Di solito,per semplificare la scrittura si usa la simbologia seguente

pi j = PX=xi , Y=yj

Osserviamo ancora che è

pi . = ∑=

h

1j

pi j ; p. j =∑=

k

1i

pi j ; 1 = ∑=

k

1i

pi . = ∑=

h

1j

p. j = ∑∑==

h

1j

k

1i

pi j

Così come abbiamo fatto per le distribuzioni di frequenza, anche dalle va-riabili casuali doppie è possibile derivare le due variabili casuali marginali X edY, le h variabili casuali condizionate (X|Y=yj ) le cui rispettive probabilità con-dizionate sono date da

pi|j = PX=xi|Y=yj = j.

ji

p

p i=1, 2, …, k

e le k variabili casuali condizionate (Y|X=xi ) le cui rispettive probabilità con-dizionate sono date da

pj|i = PY=yj|X=xi = .i

ji

p

p j=1, 2, …, h ;

inoltre, X ed Y sono indipendenti se e solo se risulta

Page 48: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 240

pi j = pi . p. j per ogni i , j.

Ovviamente le elaborazioni che abbiamo fatto sulle distribuzioni di fre-quenza doppie possono essere effettuate sulle variabili casuali doppie. In parti-colare, un ruolo rilevante assumono i momenti di seguito riportati.

MOMENTO MISTO DI ORDINE 1,1Data la v.c. doppia (X, Y) questo momento è dato da

µ11 = µx y = E( X Y) = ∑∑==

h

1j

k

1i

xi yj pi j .

LA COVARIANZAData la v.c. doppia (X, Y) questo momento è dato da

σxy = cov(X , Y) = E[(X-µx )(Y-µy )] = )y)(x( yjxi

h

1j

k

1i

µµ −−∑∑==

pi j

che misura gli eventuali legami lineari esistenti fra X ed Y.

LA CORRELAZIONEData la v.c. doppia (X , Y) questo momento è dato da

ρx y = corr(X,Y) = yx

xy

σσ

σ

che misura l’intensità degli eventuali legami lineari esistenti fra le due variabili ca-suali X ed Y.

MOMENTI CONDIZIONATIDalle v.c. doppie del tipo (X, Y) è possibile derivare le h variabili casuali

semplici condizionate del tipo (X|Y=yj ). Naturalmente, di queste h variabili

casuali semplici possiamo calcolare i relativi momenti ottenendo gli h momenticondizionati. In particolare, la media di (X|Y=yj ), di solito indicata con µx|yj

oppure con EX(X|Y=yj ), è definita come

Page 49: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 41

µx|yj = Ex(X|Y=yj ) = ∑

=

k

1i

xi pi|j = ∑=

k

1i

xi j.

ij

p

p, per j=1,...,h

E’ facile verificare che

la media della marginale è pari alla media delle medie condizionate,

in simboli:Ey [Ex ( X|Y=yj ) ] = E( X).

Infatti,

Ey [Ex ( X|Y=yj )] = ∑=

h

1j

µx|yj p.j = ∑∑

==

k

1i

h

1j

xi j.

ij

p

p p. j = ∑∑

==

k

1i

h

1j

xi pi j =

∑=

k

1j

xi ∑=

h

1i

pi j = ∑=

k

1j

xi pi . = µx = E( X)

Considerazioni del tutto simili valgono per µy|xi = Ex ( Y|X=x i ).

Un risultato analogo può essere esteso alla varianza, infatti si può verificare(lo abbiamo già dimostrato per le distribuzioni di frequenza doppia) che:

la varianza della marginale è pari alla media delle varianze condizionate piùla varianza delle medie condizionate,

in simboli

Var( X) = Ey [Var( X|Y=yj ) ] + Vary [E( X|Y=yj ) ].

2.4 Le variabili casuali continue

Accanto a prove che generano un numero finito o numerabile di eventi ed acui, fissata una funzione di insieme X(Ai ), rimane associata una v.c. discreta X,ne esistono altre che generano una infinità continua di eventi a cui potrà essereassociata una v.c che assumerà tutti i valori di un intervallo (che potrà coincidere

Page 50: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 242

eventualmente con l’intera retta reale). In tal modo si otterrà una v.c. X conti-nua. Per le v.c. continue non sarà possibile utilizzare una formalizzazione identi-ca a quella delle discrete dato che in questo caso i valori assunti non sono elen-cabili e quindi non sarà possibile attribuire a ciascuno di questi una probabilitàcorrispondente, ma sarà necessario definire una funzione che ne descriva ilmeccanismo probabilistico. Per chiarire meglio la situazione del caso continuoillustriamola con un esempio.

Esempio 4Consideriamo un sistema di assi cartesiani ed un cerchio di raggio unitario e centro

l’origine degli assi. Supponiamo che su questo cerchio sia fissata una freccia perfettamente equi-librata con perno il centro del sistema e punta che ruota intorno alla circonferenza del cerchio.Se si fa ruotare la freccia intorno al perno la sua punta, dopo un certo numero di giri, si fer-merà in qualche punto della circonferenza. Se si ripete l’esperimento non è certo che la freccia sifermi nello stesso punto. Questo vuol dire che l’esperimento genera una infinità continua di even-ti casuali identificabili con tutti i punti della circonferenza che, per quanto detto, è pariall’intervallo [0; 2ð]. La figura che segue illustra il meccanismo dell’esperimento sopra descrit-to.

Si vuole calcolare la probabilità che la freccia si fermi esattamente nel punto A della circonfe-renza e la v.c. definita dalla funzione

X(A) = lunghezza dell’arco (0, A)

La variabile casuale così descritta è una variabile casuale continua dato che può assumerevalori in tutti i punti dell’intervallo [0; π2 ].

Vediamo ora se, per calcolare P(A) valgono le condizioni di necessità, incompatibilità edequiprobabilità per cui risulta possibile utilizzare, per calcolare le probabilità, la formula: casifavorevoli diviso casi possibili.

Gli eventi generati da questa prova sono sicuramente necessari dato che la freccia deve fer-marsi in un qualche punto della circonferenza; sono sicuramente incompatibili dato che se si

Page 51: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 43

ferma in un punto non si può fermare contemporaneamente in un altro; sono equiprobabiliperché abbiamo supposto il meccanismo perfettamente equilibrato perciò la probabilità che lafreccia si fermi in un punto deve essere uguale alla probabilità che si fermi in un altro puntoqualsiasi della circonferenza. Ma allora dovrebbe essere

P(A) = possibiliequalmenteCasi.N

favorevoliCasi.N

D’altro lato, abbiamo visto che vi è un solo caso favorevole ed una infinità continua di casiegualmente possibili e quel rapporto non risulta definibile matematicamente per questa strada.

In altri termini, questo esempio ci mostra che nel caso di esperimenti chegenerano una infinità continua di eventi la probabilità non può essere misuratacon gli strumenti fino ad ora considerati. Per superare questo inconveniente uti-lizziamo una strategia simile a quella adottata per costruire gli istogrammi delledistribuzioni di frequenza il cui carattere era riportato per classi di modalità. Inquel contesto un problema simile veniva risolto rappresentando le frequenzecome aree di rettangoli. In questo caso, invece di calcolare la probabilità in unpunto, calcoliamo la probabilità in un intorno di ampiezza infinitesimo di quelpunto [xo ; xo + d x ), definiamo una funzione che descriva il meccanismo pro-babilistico dell’esperimento e

misuriamo la probabilità come l’area sottesa dalla funzione in un intorno infinitesi-mo del punto prescelto.

La funzione, che indichiamo di solito con f(x), che descrive il meccanismoprobabilistico dell’esperimento viene chiamata funzione di densità della variabilecasuale continua X, nel seguito indicheremo on f.d. Nella figura che segue èschematizzato quanto detto.

Page 52: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 244

La relazione fra funzione di densità (nel seguito f.d.) e probabilità è, in que-sto modo, data da

Pxo ≤ X < xo + d x = f(xo ) dx

ove dx è l’incremento infinitesimo e quindi la base infinitesima del rettangoloche ha per altezza f(xo ). Si osservi che la f.d. f(x) non coincide con la probabi-lità, ma è proporzionale a questa. In generale, la probabilità che la v.c. X assumaun valore nell’intervallo (c ; d) sarà data da

Pc < X < d = ∫d

c

f(x) d x.

Osserviamo che, essendo d x un incremento infinitesimo sarà sempre positi-vo questo vuol dire che, affinché sia soddisfatto il postulato del calcolo delleprobabilità P(A) ≥ 0, deve necessariamente essere

f(x) ≥ 0 per ogni x reale.

Inoltre, anche se la v.c. X assume valori nell’intervallo (a; b), la sua funzione didensità può essere definita su tutto l’asse reale con la restrizione che sia f(x) = 0esternamente all’intervallo (a ; b), come è stato schematizzato nell’ultima figura.D’altro lato, l’evento (-∞ < X < ∞) è un evento certo e perché sia soddisfatto ilpostulato P(Ω) = 1, deve necessariamente essere

∫+∞

∞−

f(x)d x = 1.

Da quanto abbiamo fino ad ora detto segue ancora che

Pc ≤ X ≤ c = PX=c = f(c) × 0 = 0,

questo vuol dire che è sempre

Pc < X < d = Pc ≤ X < d= Pc < X ≤ d = Pc ≤ X ≤ d

In altri termini, quando si ha a che fare con v.c. continue, l’aggiunta o la eli-minazione di un punto o di un insieme numerabile di punti non cambia la rela-tiva probabilità.

Page 53: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 45

In definitiva, possiamo affermare che tutte le funzioni f(x) per cui sono vali-de le due condizioni seguenti

f(x) ≥ 0 per ogni x reale; ∫+∞

∞−f(x) d x = 1

sono f.d. che possono descrivere il meccanismo probabilistico di qualche v.c.continua. Queste due condizioni sono le equivalenti di quelle viste nel caso d i-screto:

pi ≥ 0 per i=1, 2, ...k; ∑=

k

1i

pi = 1.

Esempio 5Ritorniamo alla prova dell'esempio 4 e deriviamo la f.d. della variabile casuale lì definita.

Abbiamo visto che tale v.c. assumerà valori con probabilità diversa da zero nell’intervallo[0; π2 ]. Inoltre, dato che abbiamo supposto il meccanismo perfettamente equilibrato vuol direche ad intervallini contenuti in [0; π2 ] di uguale lunghezza devono corrispondere uguali pro-babilità che la freccia vi si fermi. In altri termini, la probabilità deve essere proporzionale allalunghezza dell’intervallo preso in considerazione. Tutto questo è vero se e solo se la f.d. è co-stante in ogni punto di [0; π2 ], cioè:

f(x) dx = Pxo ≤ X ≤ xo+d x = c dx

qualsiasi sia xo in [0; 2π ]. La costante c , che è l’unica incognita del problema, può esserericavata tenendo conto che necessariamente deve essere

1 = P0 ≤ X ≤ π2 = c[ π2 - 0] = c π2

da cui si deriva c =π21

che ci permette di ottenere la relativa f.d.

f(x) = [ ]

altrove0

2,0xper21

ππ

Il grafico di questa funzione è riportato nella figura che segue:

Page 54: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 246

Come si può capire dall’esempio appena fatto, la forma della funzione didensità dipende dalle caratteristiche specifiche dell’esperimento. La forma ditale funzione può cambiare sostanzialmente cambiando, anche in modo margi-nale, queste caratteristiche come è evidenziato nell’esempio che segue.

Esempio 6Supponiamo che il meccanismo probabilistico descritto nell’esempio 4 non sia perfettamente

equilibrato, ma sia noto che la probabilità che la freccia si fermi nell’intervallo

23

,2

ππsia

doppia rispetto alla probabilità che si fermi altrove e quindi, indicando con p tale probabilitàdeve essere

2p + p = 1 ⇒ p =31

e si ottiene una situazione come quella descritta dalla figura che segue

Questo vuol dire che la probabilità che la freccia si fermi nell’intervallo

2,0π

è paria a 61

,

Page 55: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 47

la probabilità che si fermi nell’intervallo

23

,2

ππè

32

e la probabilità che si fermi

nell’intervallo

ππ

2,2

3è ancora

61

. In tal modo, la forma della funzione di densità è

quella qui di seguito rappresentata

Risulta così molto facile derivare c1 e c2 dato che deve essere

61

c2 1 =π

;32

c22

32 =

− ππ

da cui si ricava immediatamente

π31

c1 = ;π32

c 2 =

In definitiva, la funzione di densità di questa v.c. può essere scritta nel modo seguente

f(x) =

≤≤

≤<<≤

altrove0

23

x2

per32

2x2

3pere

2x0per

31

πππ

ππππ

Una volta nota la f.d. è possibile calcolare tutte le probabilità di interesse della v.c. data. Per

esempio, se si vuole la probabilità che la freccia si fermi nell’intervallo

+

424πππ

, si ottiene

facilmente

Page 56: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 248

P

+≤≤

42X

4πππ

= ∫4/3

4/

π

π

f(x) dx = ∫2/

4/

π

π

f(x) dx + ∫4/3

2/

π

π

f(x) dx =

= π

π

π 312/

4/∫ dx +

π

π

π 324/3

2/∫ dx =

121

61

+

31

21

= 41

.

Per le v.c., siano esse discrete o continue, è sempre possibile derivare la rela-tiva funzione di ripartizione:

la funzione di ripartizione di una qualsiasi v.c. X è data da

F(x) = PX ≤ x

Nel caso discreto questa funzione si costruisce nel modo già visto per le di-stribuzioni di frequenza. Se invece X è una v.c. continua risulta

F(x) = ∫∞−

x

f(v) dv

Nella figura che segue è schematizzato il modo di costruzione di una fun-zione di ripartizione di una v.c. X definita nell’intervallo (a; b).

Come si intuisce dalla definizione e come si ricava dal grafico sopra ripor-tato, risulta sempre

F(a) = ∫∞−

a

f(x) dx = 0; F(b) = ∫∞−

b

f(x) dx = 1

Page 57: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 49

inoltre èF(x1 ) ≤ F(x2 ) per tutti gli x1 < x2.

Questo vuol dire che la funzione di ripartizione è sempre non decrescente ed haun andamento simile a quello schematizzato nella figura che segue.

Abbiamo visto che nota la f.d. f(x) di una variabile casuale continua X èsempre possibile derivare la sua funzione di ripartizione, ma è facile verificareanche il viceversa nel senso che nota F(x), se F(x) è continua e derivabile alloraè sempre possibile ottenere f(x) tramite la seguente:

f(x) = dxd

F(x).

Come abbiamo visto per le v.c. discrete, anche per quelle continue è possi-bile definire degli indici sintetici che mettono in rilievo caratteristiche rilevantidel fenomeno. In particolare, si dice che la v.c. X continua ammette momento diordine r, che indichiamo con µr , se esiste finito il seguente integrale:

∫∞

∞−dx | f(x)| x r

e risulta

µr = ∫

∞−dx f(x)x r

Si può dimostrare che se esiste questo momento, allora esistono tutti quellidi ordine inferiore ad r, ma non è vero il viceversa.

Qui di seguito riportiamo alcuni dei momenti più utilizzati.

Page 58: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 250

LA MEDIAData la v.c. X continua la sua media, se esiste, è data da

µ = E(X) = ∫∞

∞−

x f(x) dx.

LA VARIANZAData la v.c. X continua la sua varianza, se esiste, è data da

σ 2 = E[(X-µ) 2) = )x( µ−∫∞

∞−

2 f(x) dx.

La varianza esiste se esiste µ2 e risulta sempre

σ 2 = µ2 - µ 2.

LA MEDIANAData la v.c. X continua la sua mediana Me esiste sempre ed è data dalla so-

luzione della seguente equazione

∫∞−

eM

f(x) dx= F(Me ) = 0.5.

L’INDICE DI ASIMMETRIAData la v.c. X continua l’indice di asimmetria esiste se esiste il suo momento

terzo µ3 ed è dato da

γ1 = ∫∞

∞−

dx)x(fx 3

σµ

cioè dal momento terzo della standardizzata di X.

L’INDICE DI CURTOSIData la v.c. X l’indice di curtosi esiste se esiste il suo momento quarto µ4 ed

è dato da

Page 59: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 51

γ2 = ∫∞

∞−

dx)x(fx 4

σµ

- 3

cioè dal momento quarto della standardizzata di X meno tre.

Esempio 7Consideriamo la v.c. definita nell’esempio 6, abbiamo visto che la sua funzione di densità è

data da

f(x) =

≤≤

≤<<≤

altrove0

23

x2

per32

2x2

3pere

2x0per

31

πππ

ππππ

Da questa segue immediatamente che la funzione di ripartizione è data da

F(x) =

<≤+

<≤−

<≤

<

π

πππ

πππ

ππ

2xper1

2x2

3per

31

3x

23

x2

per61

3x2

2x0per

3x

0xper0

il cui grafico è qui di seguito riportato

Page 60: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 252

La media e la mediana di questa v.c. sono date rispettivamente da

µ = ∫∞

∞−

f(x) dx = π

π

3x

2/

0∫ dx +

π

π

π3

x22/3

2/∫ dx +

π

π

π3x

2

2/3∫ dx =

= 24π

+ 24

18π − 242π

+ 24

16π − 249π

= π

5.061

3

M2 e =−π

⇒ 4Me - π = 3π ⇒ Me = π

come era da attendersi dato che questa variabile casuale è simmetrica.

2.5 Le variabili casuali doppie continue

Nel caso di v.c. doppie continue queste non possono più essere descrittecon una tabella a doppia entrata, ma è necessario, come abbiamo visto nel casosemplice, ricorrere ad una f.d. doppia f(x ,y) che ne descriva il meccanismoprobabilistico. Generalizzando quanto abbiamo detto nel paragrafo preceden-te, affinché una generica funzione f(x ,y) possa essere considerata una funzionedi densità relativa a una qualche v.c. doppia continua (X ,Y) è necessario e suffi-ciente che soddisfi le seguenti due condizioni

f(x ,y) ≥ 0 per ogni (x , y) del piano reale

∫∫∞

∞−

∞−f(x ,y ) dx dy =1

Page 61: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 53

Nota la funzione di densità doppia f(x , y) di una data v.c. (X , Y) è possibilecalcolare la probabilità di determinati eventi tenendo conto che fra f.d. e pro-babilità esiste la seguente relazione

Px ≤ X < x+dx , y ≤ Y < y+dy = f(x ,y) dx dy

In tal modo la probabilità non è altro che il volume sottostante la funzione didensità doppia.

Come abbiamo visto nel caso discreto, dalla v.c. doppia (X , Y) con f.d.f(x ,y) è possibile derivare le v.c. semplici marginali e condizionate. Più precisa-mente:

la funzione di densità della marginale X è data da

fx (x) = ∫∞

∞−f(x , y) dy ;

la funzione di densità della marginale Y è data da

fy (y) =∫∞

∞−

f(x ,y) dx ;

Altezza Area di base

Page 62: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 254

la funzione di densità della condizionata ( X| Y=y) è, per fy ( y ) > 0, data da

fx|y ( x ) = )y(f)y,x(f

y

;

la funzione di densità della condizionata ( Y| X=x) è, per fx ( x ) > 0, data da

fy|x ( y ) = )x(f)y,x(f

x

.

Osserviamo, infine, che le due v.c. X ed Y sono

indipendenti se e solo se risulta

f(x , y) = fx (x) fy ( y) per ogni (x ,y ) del piano reale

che generalizza al caso continuo quanto detto per il caso discreto.Qui di seguito generalizziamo al caso continuo alcuni indici definiti per le

doppie discrete.

MOMENTO MISTO DI ORDINE 1,1Data la v.c. doppia continua (X,Y), il suo momento di ordine 1,1 è dato da

µx y = E(X Y) = ∫∫∞

∞−

∞−yx f(x , y) dx dy .

LA COVARIANZAData la v.c. doppia continua (X , Y) la covarianza fra X ed Y è data da

σxy = E[(X-µx )(Y-µy )] = )y)(x( yx µµ −−∫∫∞

∞−

∞−

f(x,y) dx dy =

= µx y - µx µy

Page 63: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Le variabili casuali 55

che permette di derivare la correlazione identicamente a quanto fatto nel caso d i-screto.

Mostriamo ora che, data la v.c. doppia ( X , Y) con f.d. f( x ,y) se X ed Ysono indipendenti allora sono anche incorrelate cioè risulta σx y =0. Infatti, uti-lizzando nella formula della covarianza la condizione di indipendenza si ottiene

σx y = )y)(x( yx µµ −−∫∫∞

∞−

∞− f(x ,y) dx dy =

)y)(x( yx µµ −−∫∫∞

∞−

∞− fx(x) fy( y) dx dy =

)x( xµ−∫∞

∞− fx ( x) dx )y( yµ−∫

∞− fy ( y) dy = 0

per una delle proprietà della media aritmetica.

MOMENTI CONDIZIONATILe considerazioni fatte nel caso di variabili casuali doppie discrete continua-

no a valere in quello continuo. In particolare, la media condizionata di (X|Y=y)è data da

µx|y = Ex (X|Y=y) = ∫∞

∞−

x fx|y ( x) dx

e valgono ancora i risultati già illustrati che legano la media e la varianza dellemarginali con quelle delle condizionate

E( X) = Ey [ Ex (X|Y=yj )]

Var( X) = Ey [Var( X|Y=yj )] + Vary [ E(X|Y=yj )].

Page 64: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano
Page 65: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3

VARIABILI CASUALI DI USO COMUNE

In questo capitolo presenteremo e commenteremo brevemente alcune dellepiù semplici ed utilizzate variabili casuali, siano esse discrete o continue.

3.1 La variabile casuale uniforme

La v.c. uniforme è una delle più semplici fra quelle di norma utilizzate. Spes-so il suo uso, piuttosto che per analizzare fenomeni reali, è di tipo teorico: s i-mulazione di estrazioni casuali, derivazione di altre variabili casuali più comples-se, dimostrazioni di particolari risultati teorici, ecc. Di variabili casuali uniformine esistono due versioni: l’uniforme discreta e l’uniforme continua. Entrambe verran-no qui di seguito illustrate nell’ordine dato.

LA V.C. UNIFORME DISCRETA

La v.c. uniforme discreta assume i valori xi , i=1, 2, ...,N, tutti con la stessa

probabilità 1N .

La più semplice v.c. uniforme discreta ha la seguente distribuzione di pro-babilità:

xi pi

1 1/N

2 1/N

... ...N 1/N

1

Page 66: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 358

Il relativo diagramma di probabilità ha una forma come quella illustrata nellafigura seguente

Come si può notare, l’unico parametro che caratterizza questa v.c. è datodal numero N. A motivo del suo diagramma di probabilità, questa v.c. vieneanche chiamata rettangolare. Per indicare che una v.c. X si distribuisce comequella uniforme con parametro N si usa, indifferentemente, una delle due nota-zioni seguenti:

X~ U(N); X~ R(N)

Se si tiene conto che, per costruzione, questa v.c. è simmetrica intorno allamedia segue immediatamente che media e mediana coincidono ed il comune va-lore è dato da

µ = Me = 2

1N +

cioè il centro dell’intervallo su cui la uniforme è definita. Utilizzando il risultatonotevole

1 2 + 2 2+ 3 2 + ... + N 2 = 6

)1N2)(1N(N ++

è possibile derivare il momento secondo

µ 2 = ∑=

N

1i

x 2i pi = ∑

=

N

1i

i 2 N1

=

= )N...321(N1 2222 ++++ =

6)1N2)(1N( ++

.

Questi primi due momenti ci permettono di derivare la varianza:

Page 67: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 59

σ 2 = µ2 - µ 2

= 6

)1N2)(1N( ++-

2

21N

+

=

12

)1N(3)1N2)(1N(2 2+−++=

= 12

)]1N(3)1N2(2)[1N( +−++=

12)1N)(1N( −+

= 12

1N 2 −.

Nota la media e la varianza di una v.c. è facile calcolare il relativo coefficiente divariazione

CV = ||µ

σ=

µ12/)1N( 2 −

= µ

µ6

1N −

= )1N(3

1N+

−.

Utilizzando il risultato notevole

1 3 + 2 3 + 3 3 + ... + N 3 = 4

)1N(N 22 +

è possibile derivare il momento terzo

µ3 = ∑=

N

1i

x 3i pi = ∑

=

N

1i

i 3 N1

= )N...321(N1 3333 ++++ =

4)1N(N 2+

Ricordando che la v.c. uniforme è simmetrica segue immediatamente che ilsuo indice di asimmetria è sempre nullo: γ1 = 0

Utilizzando il seguente risultato notevole

1 4 + 2 4 + 3 4 + ... + N 4 = 30

)1N3N3)(1N2)(1N(N 2 −+++

è possibile calcolare il momento quarto

µ4 = ∑=

N

1i

x 4i pi = ∑

=

N

1i

i 4 N1

= )N...321(N1 4444 ++++ =

= 30

)1N3N3)(1N2)(1N( 2 −+++

Page 68: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 360

I primi quattro momenti così individuati permettono di calcolare il relativoindice di curtosi che dopo alcuni passaggi algebrici risulta:

γ2 = 4

42234 364

σ

µµµµµµ −+−− 3 = −

)1N(5

)1N(62

2

−+

questo vuole dire che la v.c. uniforme discreta sopra presentata è sempre plati-curtica qualsiasi sia N; inoltre, per N sufficientemente grande si ha γ2 ≈ - 6/5.

Dalla v.c. X è possibile derivare una nuova v.c., diciamo Y, ottenuta cometrasformazione lineare di X:

Y = a + b X

ove (a,b) sono costanti reali. Nel caso in cui X è l’uniforme discreta sopra ri-portata, la v.c. Y avrà la seguente struttura

yi pi

a+b1 1/N

a+b2 1/N

... ...a+bN 1/N

1

che è ancora uniforme. Nel caso in cui sia

a = - σµ

= - 1N

)1N(3−+

; b = σ1

= 1N

122 −

si ha la v.c. uniforme standardizzata.

Esempio 1La v.c.

xi 1 2 3 4 5 6

pi 61

61

61

61

61

61

connessa al lancio di una dado regolare, definita nell’esempio 1 del capitolo precedente, è unaparticolare v.c. uniforme discreta con N = 6. Utilizzando le formule sopra riportate si ottiene

Page 69: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 61

facilmente:

µ = Me = 3.5; µ2 = 691

; µ3 = 73.5 ; µ4 = 350

da cui si ottiene

σ2 = 1235

; CV = 215

; γ1 = 0; γ2 = - 175222

.

L’UNIFORME CONTINUA

La v.c. uniforme continua è definita nell’intervallo (a, b) e possiede la seguentefunzione di densità

f(x) =

≤≤−

altrove0

bxaperab

1

Il tipico grafico di questa funzione di densità è riportato nella figura s e-guente:

Il momento r-esimo di questa v.c. si ottiene abbastanza facilmente

µr = ∫b

a

rxab

1−

dx = b

a

1r

1rx

ab1

+−

+=

)1r)(ab(ab 1r1r

+−− ++

; r =1, 2, ...

Page 70: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 362

da cui si derivano come casi particolari i primi quattro momenti:

µ1 = )ab(2

ab 22

−−

= 2

ab +; µ2 =

)ab(3ab 33

−−

;

µ3 = )ab(4

ab 44

−−

; µ4 = )ab(5

ab 55

−−

da cui si può ottenere

σ 2 = )ab(3

ab 33

−− −

4)ab( 2+

= 12

)ab( 2−;

CV = )ab(3

ab

+−

;

γ1 = 0; γ2 = 4

2234 34

σ

µµµµ +−- 6 = -

56

Il segno negativo di γ2 sta a significare che l’uniforme continua è platicurtica,come d’altronde intuitivamente ci si aspettava. Si osservi che l’indice di curtosidella uniforme continua è indipendente dai due parametri (a, b) che la caratte-rizzano.

Nella figura seguente riportiamo la funzione di ripartizione F(x) della v. c.uniforme continua definita nell'intervallo (a, b).

Page 71: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 63

Esempio 2La v.c. continua X con funzione di densità

f(x) =

altrove0

]2,0[xper21 ππ

riportata nell’esempio 5 del capitolo precedente, è una particolare v.c. uniforme continua cona=0 e b= π2 . Il momento r-esimo di questa variabile casuale diviene semplicemente

µr = )1r(2

)2( 1r

+

+

ππ

da cui si ottiene immediatamente

µ = Me = π ; σ 2 = 3

2π; CV =

3

1

3.2 La variabile casuale binomiale

Prima di introdurre la v.c. binomiale riportiamo brevemente la v.c. di Ber-noulli. Si tratta della più semplice v.c. che si possa definire. Più precisamente

la v.c. X si dice di Bernoulli e si indica con X~B(1; p), se assume solo due valo-ri: 0 con probabilità (1-p) ed 1 con probabilità p, ove è 0 ≤ p ≤ 1,

o equivalentemente

xi pi

0 1-p1 p

1

in cui, di solito, si pone 1-p = q . Questa v.c. può essere generata estraendo unaunità di rilevazione da una popolazione le cui unità assumono solo due carattericontrapposti tipo: Si - No, Giusto - Sbagliato, Buono - Difettoso, ecc. Una talesituazione si può schematizzare con una urna contenente palline di due colori,per esempio bianche (in proporzione pari a p) e rosse (in proporzione pari a q ),

Page 72: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 364

associando il numero uno se la pallina estratta è bianca ed il numero zero se èrossa.

Esempio 3La prova consiste nel lancio di una moneta ben equilibrata. Gli eventi possibili sono in tal

caso T=Esce la faccia testa, C=Esce la faccia croce. Ciascuno dei due eventi ha pro-babilità p =1/2 di verificarsi. Se associamo a T il numero zero ed a C il numero uno otte-niamo la v.c. seguente

xi pi

0 1/21 1/2

1

che è una particolare Bernoulli con p=1/2.

Della v.c. di Bernoulli è immediato calcolare il momento di ordine r, infattisi ottiene

µr = ∑=

k

1i

rix pi = 0r (1-p)+ 1r p = p.

Da cui si ricava in particolare

µ = p; σ 2 = p q;

γ1 = )p1(p

p21

−−

; γ2 = )p1(p

1−

- 6.

La v.c. Binomiale può essere definita come una generalizzazione della v.c. diBernoulli ottenuta quando dall’urna estraiamo, con reimmissione, N palline e sia-mo interessati al numero delle palline bianche che possono presentarsi. Per direche X è distribuita come una Binomiale si scrive

X~B(N; p).

Dato che le N estrazioni vengono effettuate con reimmissione, gli N eventi chesi ottengono sono fra di loro indipendenti e ciascuno di questi genera una v.c.di Bernoulli indipendente, questo vuole dire che risulta

X ~B(N; p) = ∑=

N

1i

Bi (1; p)

Page 73: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 65

ove Bi ( 1; p) è la v.c. di Bernoulli associata alla i-esima estrazione. In altri termi-ni, la v.c. Binomiale è data dalla somma di N v.c. di Bernoulli indipendenti.Vediamo ora di costruire la distribuzione di probabilità di questa v.c. utilizzan-do lo schema dell’estrazione da una urna. Supponiamo, pertanto, di avere lasolita urna contenute solo palline Bianche e Rosse con la proporzione dellebianche pari a p mentre quella delle rosse pari a q = 1 - p.

Indichiamo conBi = esce pallina bianca alla i-esima estrazioneR i = esce pallina rossa alla i-esima estrazione.

E’ ovvio che risulta P(B i ) = p , P(Ri )=q=1-p per i =1, 2, ...,N. Si vuole cal-colare la probabilità del seguente evento:

Ax = in N estrazioni (effettuate con rimessa) la pallina bianca si presenta x volte.

Per calcolare la probabilità di Ax uno degli eventi che si deve presentare è il s e-guente

B1 ∩ B2 ∩ ... ∩ B x ∩ R x+1 ∩ R x+2 ∩ ... ∩ R N

e per quello che abbiamo fino ad ora detto (gli eventi sono indipendenti, P(Bi )= p , P(Ri ) =1- p= q ) risulta immediatamente

P(B1 ∩ B2 ∩ ... ∩ Bx ∩ Rx+1 ∩ Rx+2 ∩ ... ∩ RN ) = p x q N - x

Ma perché A x sia verificata, le x palline bianche possono presentarsi non n e-cessariamente ai primi x posti: i modi, incompatibili, in cui le x palline bianchepossono presentarsi, sono tanti quante sono le combinazioni di N oggetti ad x

ad x cioè

xN , inoltre ciascuno di questi

xN

eventi ha la stessa probabilità

x p q N - x di verificarsi. Questo vuole dire che la probabilità cercata è data da

P(Ax ) =

xN p x q N - x.

Page 74: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 366

Se ora si considera la funzione di insieme f(Ax ) = x si ottiene la v.c. Binomiale.Si osservi che i valori che può assumere x sono 0 (nessuna delle N pallineestratte è bianca), 1 (una sola delle N palline estratte è bianca), 2 (due delle Npalline estratte sono bianche), ..., N (tutte le N palline estratte sono bianche). Indefinitiva possiamo affermare che

la v.c. X è una Binomiale, con parametri N e p, se assume valori x con probabi-lità

px = P(X=x) =

xN p x q N-x ; x = 0, 1, ...,N

La distribuzione di questa v.c. discreta può essere scritta sotto la solita forma ditabella

x p x

0

0N p 0 qN-0

1

1N p 1 qN-1

2

2N p 2

qN-2

... ...

N

NN p N qN-N

1

Il nome di binomiale per questa v.c. deriva dal fatto che le quantità

xN

non sono altro che i coefficienti della potenza N-esima di un binomio. Infatti, ènoto che

(a+b) N =

0N a 0 b N-0 +

1N a 1 b N-1 + ... +

NN a N bN-N.

Questo risultato ci permette di dimostrare immediatamente che la somma ditutte le probabilità della v.c. Binomiale (come deve essere per qualsiasi v.c. d i -

Page 75: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 67

screta) è pari ad uno. Infatti, risulta

∑x=0

N px =

0N

p0 qN-0 +

1N

p1 qN-1 + ... +

NN

pN qN-N =

= (p+q)N = 1N = 1. È abbastanza facile verificare che le probabilità px di B(N; p) possono essere calcola-te recursivamente tramite le seguenti:

po = (1-p)N

px = px-1 p1

pN

1xN−

⋅+− per x=1,2, ..., N

Nella figura che segue riportiamo la distribuzione di probabilità della binomiale con N=15 e tre diversi valori di p.

Da questo grafico si evince che la binomiale è simmetrica intorno alla propria media se p=q=1/2, è asimmetrica positiva per p < 1/2, è asimmetrica negativa per p>1/2, in ogni caso assume una forma di tipo campanulare.

La derivazione dei primi due momenti di una v.c. Binomiale è piuttosto sem-plice. Infatti, dato che

Page 76: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 368

B(N;p) = ∑=

N

1i

Bi (1; p),

risulta:

µ = E[ B(N; p)] = E

∑=

)p;1B (i

N

1i

= ∑=

N

1i

E[Bi (1; p) ] = ∑=

N

1i

p = N p

µ2 = E[ B2(N; p)] = E

2

i

N

1i

)p;1(B

∑=

=

= E

+

≠=∑∑∑ )p,1B)p,1B)p,1(B (j(i

ji

N

1i

2i = Np + N(N-1) p2.

Ove si è tenuto conto del fatto che Bi e Bj sono v.c. indipendenti per cui

E(Bi Bj ) = E(Bi ) E(Bj ).

La derivazione formale degli altri momenti è più complessa a meno di utilizza-re strumenti di analisi più sofisticati e non affrontati in questo contesto. Si può,comunque, dimostrare che è

µ3 = N(N-1)(N-2) p 3 + 3N(N-1) p 2 + Np

µ4 = N(N-1)(N-2)(N-3) p 4 + 6N(N-1)(N-2) p 3 + 7N(N-1) p 2 + Np

La conoscenza dei primi due momenti permette di derivare la varianza dellaBinomiale:

σ 2 = [Np + N(N-1) p 2] - (N p) 2 = N p(1-p) = N p q

La Binomiale possiede, fra le altre, la seguente proprietà riproduttiva : seXi~B(Ni ; p) , i =1, 2, ..., k , sono k v.c. Binomiali indipendenti allora la v.c.

X = ∑=

k

1i

Xi

Page 77: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 69

è ancora una Binomiale e precisamente X~B(N1+N2+...+Nk ; p).

Esercizio 4E’ noto che, in media, il 10% delle piante immesse in un nuovo impianto muore. Al livello

di almeno il 99% si vuole determinare il numero delle piante da immettere nel vivaio in modoche almeno 6 di queste sopravvivano.

Posto:

p = 0.9 (successo di sopravvivenza di una pianta)1-p = 0.1 (insuccesso di sopravvivenza di una pianta)X = N° piante che sopravvivono

e dato che la sopravvivenza o meno di una pianta si può considerare indipendente da quelladelle altre, ha senso supporre che la loro distribuzione sia di tipo Binomiale. In tal modo siha:

PX ≥ 6 = )9.0(xN

N

6x

∑=

x (0.1) N-x ≥ 0.99

e bisogna calcolare N. Dato che

(a) per N = 9 si ha:

P(X ≥ 6) = )9.0(x9

9

6x

∑=

x (0.1) 9-x = 0.99167;

(b) per N = 8 si ha:

P(X ≥ 6) = )9.0(x8

8

6x

∑=

x (0.1) 8-x = 0.96191

segue che deve essere N = 9 perché, con probabilità maggiore o eguale a 0.99, almeno 6 pian-te sopravvivano.

Dalla v.c. Binomiale è possibile derivare, con una particolare trasformazionelineare, una nuova variabile casuale che ha una certa importanza sia da un puntodi vista teorico che applicato.

Se X è una v.c. Binomiale B(N; p), la v. c. Binomiale frequenza è data da

Page 78: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 370

F = NX

= ∑=

N

1iN1

Bi (1; p)

Come si può notare, la v.c. Binomiale frequenza non è altro che la media di Nv.c. di Bernoulli ottenute come estrazione con reimmissione delle N palline.Scritta in forma di tabella, la distribuzione di probabilità di questa variabile ca-suale è la seguente

x px

0

0N p 0 q N-0

1/N

1N p 1 q N-1

2/N

2N p 2

q N-2

.…… .………………

1

NN p N q N-N

1

Di questa variabile casuale, nota media e varianza della Binomiale da cui è stataderivata, è facile ricavare

µ = E(F) = E

NX

= N1

Np = p

var( F) = var

NX

= 2N

1 N p q =

Npq

e come si può osservare, la media di F è proprio pari a p, mentre la variabilitàdi F decresce al crescere di N.

3.3 La variabile casuale di Poisson

La v.c. di Poisson è una variabile casuale discreta e viene, di solito, utilizzataper analizzare fenomeni connessi a conteggi: numero di automobili che passano

Page 79: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 71

in un dato punto in un determinato intervallo di tempo, numero di clienti ser-viti in una fila in un determinato tempo ecc. Essa può essere definita sia diret-tamente, sia come un particolare limite della v.c. Binomiale. Qui di seguito, perragioni di semplicità, seguiremo questa seconda strada. A tale proposito consi-deriamo la generica v.c. X ~B(N; p) e facciamo tendere N all’infinito e p a zerodi modo che sia sempre Np = λ . Questo vuole dire che il tasso d’incrementodi N e quello di decremento di p devono essere uguali. Dato che questa v.c.deriva dalla Binomiale con p → 0 vuol dire che la probabilità che si verifichil’evento che la definisce è molto piccolo. Per tale motivo la v.c. di Poisson vie-ne anche detta degli eventi rari .

La distribuzione di probabilità della Binomiale può essere scritta come s e-gue:

xN px qN-x =

)!xN(!x!N−

px (1-p)N-x = !x

1N)!xN(

!Nx−

Nx px (1-p)N-x =

= )Np(!x

1

N)!xN(

!Nx−

x

NNp

1N x

NNp

1−

Dato che per ottenere la Poisson deve essere Np= λ possiamo anche scrivere:

xN px qN-x = x

x !x1

N)!xN(

!N λ−

N

N1

− λ x

N1

− λ

e ricordando i seguenti limiti notevoli

xN N)!xN(!N

lim−∞→

= 1; N

N N1lim

∞→

λ = λ−e ;

x

N N1lim

∞→

− λ

= 1

si ottiene

=→

∞→ xNlim

pN0p

N

λ

p x qN-x = λλ −e!x

1 x , x = 0, 1, 2, ...

In definitiva possiamo affermare che

Page 80: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 372

la v.c. X si distribuisce come una Poisson con parametro λ , e si scrive X~P( λ ),se la sua distribuzione di probabilità è data da

P(X=x) = λλ −e!x

1 x , x = 0, 1, 2, ...

Nella figura seguente è riportata la distribuzione di probabilità della Poisson pertre diversi valori del parametro λ da cui si rileva che si tratta di una v.c. che èsempre asimmetrica positiva.

Scritta sotto forma di tabella la v.c. di Poisson diviene

x px

0 λ−e

1 λλ −e

2 2/e2 λλ −

3 6/e3 λλ −

... .……….

x !x/ex λλ −

... .……….1

Le probabilità di una P(λ) soddisfano le seguenti relazioni

po = λ−e

Page 81: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 73

px = px-1 xλ

per x =1, 2, .....

per cui risulta facile calcolarle recursivamente.Dato che la Poisson si può ottenere come un particolare limite della Bino-

miale e dato che una Binomiale è sempre esprimibile come la somma di NBernoulli indipendenti, segue che ogni v.c. di Poisson può essere espressa comeuna particolare somma di infinite Bernoulli indipendenti:

P( λ ) =

λ=→→∞

pN0p

Nlim B(N; p) = ∑

==

→∞→

N

1ii

pN0p

N)p;1(Blim

λ

Anche la v.c. di Poisson soddisfa una forma di riproducibilità, infatti, si puòdimostrare che se Xi ~Pi ( iλ ), i=1,2,...,k, indipendenti allora si ha

X = ∑=

k

1i

Xi = P( k21 ... λλλ +++ ),

cioè la somma di k Poisson indipendenti è ancora una Poisson.I primi due momenti della v.c. di Poisson possono essere calcolati a partire

da quelli della v.c. Binomiale. Infatti, si ha

µ = E[P( λ )] =

λ=→

∞→

Np0p

Nlim E[B(N; p)] =

λ=→

∞→

Np0p

Nlim Np = λ

µ2 = E[P 2( λ )] =

λ=→

∞→

Np0p

Nlim E[B2(N;p)] =

λ=→

∞→

Np0p

Nlim [Np + N(N-1)p2] =

=

λ=→

∞→

Np0p

Nlim [ p2 λλλ −+ ] = 2λλ + .

Il calcolo degli altri momenti può essere ottenuto utilizzando strumenti non ri-portati in questo manuale, in quel contesto si può dimostrare che è

µ3 = λ3 + 3λ2 + λ

Page 82: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 374

µ4 = λ4 + 6λ3 + 7λ2 + λ.

Questi momenti permettono di derivare la varianza

σ 2 = µ2 - µ 2 = λ + λ2 - λ2 = λ;

l’indice di asimmetria della Poisson

γ1 = λ

1

che mostra come la v.c. di Poisson è sempre asimmetrica positiva e l’indice dicurtosi

γ2 = λ1

che mostra come la v.c. di Poisson è sempre leptocurtica.Come si può notare media e varianza coincidono in una v.c. di Poisson.

Questo vuol dire che condizione necessaria (ma non sufficiente) perché un fe-nomeno aleatorio connesso a qualche conteggio sia rappresentabile con unaPoisson è che media e varianza di tale fenomeno siano uguali.

Esercizio 5Da esperienze passate si ricava che la probabilità di avere un parto trigemino è p =

1/8000. Calcolare la probabilità che osservando 10.000 parti a caso: (a) se ne abbiano nonpiù di 4 trigemini; (b) almeno 4 trigemini.

Dato che le nascite sono indipendenti e che avere o non avere un parto trigemino si riduceallo schema: successo, insuccesso, per risolvere il problema si può utilizzare la v.c. Binomialecon N =10.000 e p = 1/8.000. E quindi:

(a) PX ≤ 4 = ∑=

4

0j

P(x=j) = j4

0j

pjN

=

(1-p) n-j

= 0.99088;

(b) PX ≥ 4 = 1 - PX < 4 = 1 -∑=

3

0j

P(x=j) =

= 1- j3

0j

)p(jN

∑=

(1-p) n-j

= 1 - 0.96174 = 0.03826.

Dato che N = 10.000 è “grande” e p = 1/8.000 è “piccolo” si può usare

Page 83: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 75

l’approssimazione con una Poisson con λ = 000.8

000.10= 1.25 ottenendo:

(a) PX ≤ 4 = ∑=

4

0j

P(X=j) = !j

e j4

0j

λλ−

=∑ = 0.99006;

(b) PX ≥ 4 = 1 - PX < 4 = 1 -∑=

3

0j

P( x = j ) = 1 - !j

e j3

0j

λλ−

=∑ =

= 1 - 0.96109 = 0.03891.

Esercizio 6Un venditore di manufatti complessi sa che il numero di vendite per settimana si comporta

come una v.c. di Poisson. Inoltre, gli è noto che, in media, vende 2 manufatti al giorno. De-terminare lo stock di magazzino in modo che quel venditore abbia probabilità di almeno il99% di avere merce per soddisfare la domanda di una settimana. In tal caso è

λ = 2 × 7 = 14beni venduti inmedia al giorno

giorni della settimana

e quindi bisogna trovare N per cui

PX ≤ N ≥ 0.99cioè

!je jN

0j

λλ−

=∑ = e

- λ

!j

jN

0j

λ∑=

≥ 0.99

Si può verificare che per N= 23 si ha:

PX ≤ 23 = 0.99067

e quindi il venditore deve tenere in magazzino almeno 23 manufatti per essere sicuro al 99%di soddisfare tutte le richieste di una settimana.

3.4 La variabile casuale Normale

La v.c. Normale è la più nota ed usata fra tutte le v.c. che sono state deri-

Page 84: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 376

vate e da questo punto di vista assume un ruolo fondamentale nella statistica.Questa v.c. è continua ed assume tutti i valori dell’asse reale, spesso è nota an-che come v.c. degli errori accidentali dato che storicamente è stata ottenuta analiz-zando la distribuzione degli errori di misura di uno stesso fenomeno o anchev.c. di Gauss dato che fu uno dei primi matematici a derivarla e ad analizzarnele relative proprietà. La sua enorme rilevanza in ambito applicato e teorico r i-sale al fatto che questa v.c. è legata, come vedremo nel seguito, al modello li-neare che è uno dei modelli più semplici per descrivere ed interpretare feno-meni anche molto complessi.

La v.c. normale è funzione di soli due parametri: la media µ e la varianza

σ 2. Questo vuole dire che nota la media e la varianza di un fenomeno aleato-rio e noto che questo fenomeno si distribuisce normalmente, risulta perfetta-mente individuata la sua funzione di densità, cioè il meccanismo probabilisticoche la caratterizza. Per dire che una v.c. X si distribuisce come una Normale

con media µ e varianza σ2 si usa la notazione seguente

X~N(µ, σ 2).

La f.d. di una v.c. Normale con media µ e varianza σ 2 è data da

f(x) = 22

1

πσexp

−− 2

2 )x(2

1 µσ

ove con la notazione expa abbiamo indicato e a.Analizziamo ora alcune delle caratteristiche matematiche della f.d. di questa

v.c. Osserviamo in primo luogo che essa è simmetrica intorno alla media cioèrisulta

f(µ - x) = f(µ + x) per ogni x .Infatti, si ha

f(µ - x) = 22

1

πσexp

−−− 2

2 )x(2

1 µµσ

= 22

1

πσexp

− 2

2 x2

Page 85: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 77

f(µ+ x) = 22

1

πσexp

−+− 2

2 )x(2

1 µµσ

= 22

1

πσexp

− 2

2 x2

che dimostra quanto affermato. Essendo la distribuzione simmetrica risultasempre

µ = Me

La f.d. di una normale ha un unico massimo per x=µ. Per dimostrare questaaffermazione poniamo

c = 22

1

πσ; a = 22

per cui la f.d. della normale si può scrivere

f(x) = c ⋅ exp-a(x-µ)2 = )x(aexp

c2µ−

e dato che le costanti (c, a) sono positive, f(x) è tanto più grande quanto più

expa(x-µ)2 è piccola, ed essendo questa quantità un’esponenziale con espo-nente non negativo il suo valore minimo si ha per x = µ che dimostra quantoaffermato. Si osservi che nel punto di massimo x=µ la f.d. della Normale vale

f(µ) = c = 22

1

πσ

Dato che, per definizione, l’area al di sotto della f.d. deve essere sempre pari aduno e che è sempre f(x) ≥ 0, perché f(x) abbia un massimo in x=µ questa fun-zione deve prima crescere e poi simmetricamente decrescere. Ciò vuole direche f(x) deve avere per asintoto orizzontale l’asse delle x e due flessi che, si puòdimostrare, sono posizionati rispettivamente in µ - σ ed in µ+ σ. Nella figurache segue è riportato il grafico di una generica f.d. di una Normale con media

µ e varianza σ 2.

Page 86: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 378

Supponiamo di avere due fenomeni aleatori X ed Y che si distribuiscono en-trambi come normali con uguale varianza e medie diverse:

X~N(µx , σ 2); Y~N(µy , σ 2)

con µx ≤ µy, allora la forma delle funzioni di densità delle due normali è lastessa, cambia solo il punto in cui queste sono localizzate ed in particolare la se-conda, essendo centrata su µy, si trova più a destra della prima come è illustratonella figura che segue.

Consideriamo ora il caso in cui le v.c. Normali abbiano uguale media ma va-rianza diversa. In tal caso le rispettive funzioni di densità saranno tutte centratenello stesso punto, ma quella con varianza più elevata sarà più schiacciata sul-l'asse delle x. Nella figura che segue sono state riportate le f.d.

Page 87: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 79

di tre Normali tutte e tre con la stessa media pari a zero e varianza data rispet-tivamente da 1, 2 e 3. Come si può notare, quella che ha la varianza maggiore

(σ 2 = 3 ) , cioè quella più dispersa, ha il massimo minore.Le variabili casuali Normali posseggono una proprietà riproduttiva estrema-

mente importante. Infatti, si può dimostrare che la trasformazione lineare di

una Normale è ancora una normale. Più precisamente, se è X~N(µ, σ 2) allorasi può dimostrare che è anche

Z = a + b X ~N(a + b µ , b 2 σ 2)

In particolare, come già visto in altra occasione, se è

a = − σµ

, b = σ1

si ottiene

Z = − σµ

+ σ1

X = σ

µ−X~N(0, 1)

che è la v.c. Normale standardizzata. Graficamente la f.d. della Normale standar-dizzata ha un andamento simile a quello riportato nella figura che segue

Page 88: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 380

Dato un fenomeno aleatorio X che è noto distribuirsi come una Normale

con media µ e varianza σ 2, si vuole calcolare la probabilità che X cadanell’intervallo [a, b]. Sappiamo che questa probabilità è data da

Pa ≤ X ≤ b = 2

b

a 2

1

πσ∫ exp

−− 2

2)x(

2

1 µσ

dx

e per risolvere l’integrale è necessario conoscere la primitiva della f.d. dellaNormale. Ma si può dimostrare che la primitiva della f.d. della Normale nonesiste in forma esplicita e quindi quell’integrale può essere calcolato solo in viaapprossimata. Per risolvere, anche se solo in modo approssimato, il problemasi ricorre alla seguente procedura:(a) si sono tabulate le probabilità relative alla Normale standardizzata (vedi letavole nell’apendice);(b) si standardizza la v.c. X ed i relativi estremi dell’intervallo [a , b];(c) si usa la tavola delle probabilità della standardizzata per calcolare le probabi-

lità cercate.

Nel caso precedentemente considerato si ha

Pa ≤ X ≤ b= P

−≤−≤−

σµ

σµ

σµ bXa

= P

−≤≤−

σµ

σµ b

Za

per cui la probabilità che X cada nell’intervallo [a, b] risulta uguale, in virtù delfatto che la standardizzazione è una trasformazione lineare e quindi biunivocaper cui conserva le relative probabilità, alla probabilità che Z cada nell'intervallo

Page 89: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 81

−−

σµ

σµ b

,a

.

Da un punto di vista grafico si ha una situazione come quella qui appresso ri-portata

Esempio 7Supponiamo di avere un fenomeno X che si distribuisce normalmente e precisamente

X~N(3, 4). Si vuole calcolare la probabilità seguente

P2 ≤ X ≤ 5

Da un punto di vista grafico si deve calcolare l’area tratteggiata nella figura seguente

Standardizzando si ha

Page 90: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 382

P2 ≤ X ≤ 5 = P

−≤≤−

235

Z2

32= P - 0.5 ≤ Z ≤ 1 =

= P-∞ < Z ≤ 1 - P-∞ < Z ≤ -0.5.

D’altra parte, per la simmetria, della f.d. della Normale si ha

P-∞ < Z ≤ -0.5 = 1- P-∞ < Z ≤ 0.5

e quindi risulta

P2 ≤ X ≤ 5 = P - 0.5 ≤ Z ≤ 1 = P-∞ < Z ≤ 1 - P-∞ < Z ≤ -0.5=

= P-∞ < Z ≤ 1- [1- P-∞ < Z ≤ 0.5].

Ricorrendo alle tavole della Normale standardizzata avremo infine

P2 ≤ X ≤ 5= P-∞ < Z ≤ 1- [1- P-∞ < Z ≤ 0.5] =

= 0.8413 - (1 - 0.6915) = 0.5328.

Data la v.c. Z Normale standardizzata, si può dimostrare che questa possie-de tutti i momenti e sono dati da

== )Z(E rrµ

parièrse)!2/r(2

!rdisparièrse0

2/r

e come si può notare, i momenti di ordine dispari della Normale standardiz-zata sono tutti nulli. In particolare risulta:

E(Z 0) = 1; E(Z) = 0; E(Z 2) = 1; E(Z 3) = 0; E(Z 4) = 3

e quindi

γ1 = E(Z 3) = 0; γ2 = E(Z 4) - 3 = 22

12342

⋅⋅⋅- 3 = 3 - 3 = 0.

Noti i momenti della standardizzata, quelli della generica v.c. X~N(µ , σ 2),

Page 91: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 83

tenuto conto che X=µ+σZ, sono dati da

E(X r) =

=jr

r

0j

µ r- j σ

j E(Z

j)

da cui si ottengono i seguenti risultati particolari:

E(X) =

=01

1

0j

µ 1- j

σ jE(Z

j) =

01 µσ

0E(Z

0) +

11 µ

0σ E(Z) = µ;

E(X 2) =

=j2

2

0j

µ 2- j σ

jE(Z

j) =

02 µ

2 σ

0 E(Z

0) +

12 µ σ E(Z) +

+

22 µ

0 σ

2 E(Z

2) = µ 2 + σ 2;

E(X 3) =

=j3

3

0j

µ 3- j σ

jE(Z

j) =

03 µ

0E(Z

0) +

13 µ

2σ E(Z) +

+

23 µ σ

2 E(Z

2) +

33 µ

3 E(Z

3) = µ 3 + 3µ σ 2;

E(X 4) =

=j4

4

0j

µ4- j σ

j E(Z

j) =

04 µ

4 σ

0 E(Z

0) +

14 µ

3σ E(Z) +

+

24 µ

2 σ 2

E(Z 2) +

34 µ σ 3

E(Z 3) +

44 µ

0 σ

4 E(Z

4) =

= µ 4 + µ 2σ 2 + 3σ 4.

Esempio 8Supponiamo che un dato fenomeno si distribuisca normalmente con µ=3 e σ 2 = 4 si vo-

gliono calcolare le seguenti probabilità

(a) P1.5 ≤ X ≤ 4.3

Page 92: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 384

(b) P4.21 ≤ X ≤ 6.35

(a) La probabilità che si vuole calcolare è data dall’area in tratteggio seguente

Standardizzando si ottiene

P1.5 ≤ X ≤ 4.3= P

−≤≤−

2334

Z2

351 ..= P-0.75 ≤ Z ≤ 0.65 =

= P-∞ < Z ≤ 0.65 - P-∞ < Z ≤ -0.75 =

= P-∞ < Z ≤ 0.65 - [1 - P-∞ < Z ≤ 0.75] =

= 0.7422 - (1- 0.7734) = 0.5156.

(b) La probabilità che si vuole calcolare è data dall’area tratteggiata seguente

Page 93: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 85

Standardizzando si ottiene

P4.21 ≤ X ≤ 6.35 = P

−≤≤−

23356

Z2

3214 ..= P0.605 ≤ Z ≤ 1.675

≈ P0.60 ≤ Z ≤ 1.67 = P-∞ < Z ≤ 1.67 - P-∞ < Z ≤ 0.60 =

= 0.95254 - 0.7257 = 0.2268.

Ove, dato che la tavola della standardizzata permette di prendere in considerazione solo duecifre decimali (una sulla prima colonna della tabella e l’altra sulla prima riga della tabella), siè dovuto procedere ad una approssimazione al valore più vicino.

Prima di illustrare gli esempi che seguono, richiamiamo le seguenti ben noteidentità

|X - b | ≤ c = -c ≤ X-b ≤ c = b-c ≤ X ≤ b+c

|X - b | ≥ c = (X-b ≥ c) ∪(X-b ≤ -c) = (X ≥ b+c) ∪ (X ≤ b-c)

Esempio 8Supposto che il fenomeno X si distribuisca come una v.c. Normale con media µ e varian-

za σ 2 qualsiasi, calcolare

(a) P|X - µ| ≤ σ(b) P|X - µ| ≤ 2σ(c) P|X - µ| ≤ 3σ

(a) Utilizzando la prima delle identità sopra riportate e standardizzando si ottiene

P|X - µ| ≤ σ= Pµ-σ ≤ X ≤ µ+σ =

= P

−+≤≤−−

σµσµ

σµσµ

Z = P-1 ≤ Z ≤ 1 =

= 2P-∞ < Z ≤ 1 - 1 = 2 × 0.8413 - 1 = 0.6826.

Questo vuole dire che la probabilità che una qualsiasi v.c. Normale assuma un valore

Page 94: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 386

dell’intervallo [µ-σ; µ+σ] è più del 68% come illustrato nella figura che segue

(b) Utilizzando la prima delle identità sopra riportate e standardizzando si ottiene

P|X - µ| ≤ 2σ= Pµ-2σ ≤ X ≤ µ+2σ =

= P

−+≤≤−−

σµσµ

σµσµ 2

Z2

= P-2 ≤ Z ≤ 2 =

= 2P-∞ < Z ≤ 2 - 1 = 2 × 0.97725 - 1 = 0.9545.

Questo vuole dire che la probabilità che una qualsiasi v.c. Normale assuma un valorenell’intervallo [µ-2σ; µ+2σ] è più del 95% come illustrato nella figura che segue

(c) Utilizzando la prima delle identità sopra riportate e standardizzando si ottiene

Page 95: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 87

P|X - µ| ≤ 3σ= Pµ-3σ ≤ X ≤ µ+3σ =

= P

−+≤≤−−

σµσµ

σµσµ 3

Z3

= P-3 ≤ Z ≤ 3 =

= 2P-∞ < Z ≤ 3 - 1 = 2 × 0.99865 - 1 = 0.9973.

Questo vuole dire che la probabilità che una qualsiasi v.c. Normale assuma un valorenell’intervallo [µ-3σ; µ+3σ] è più del 99,7% .

Una conseguenza pratica molto rilevante dei risultati visti nell’esempio pre-cedente è che, anche se teoricamente la v.c. Normale può assumere valori da -∞a +∞ , la quasi totalità dei casi (più del 99.7%) cade nell'intervallo finito [µ-3σ;µ+3σ]. In altri termini, le code della funzione di densità della Normale si avvi-cinano a zero molto rapidamente, anche se raggiungono esattamente tale valoresolo a ±∞ . Questo vuole dire che la Normale può approssimare abbastanza be-ne fenomeni reali i cui valori sono definiti in un intervallo finito.

Utilizzando le tavole della Normale standardizzata, vediamo di risolvere unproblema inverso da quello affrontato negli esercizi precedenti. A tal fine, sup-poniamo di avere un fenomeno X che si distribuisce normalmente con media

µ e varianza σ 2 noti, cioè X~N(µ, σ 2), vogliamo individuare la costante a dimodo che, fissato α, sia

P|X - µ| ≤ a = α

In altri termini, si vuole risolvere, rispetto ad a, la seguente equazione integrale

P|X - µ| ≤ a= Pµ-a ≤ X ≤ µ+a = ∫+

a

a

µ

µ

f(x)dx = α

Da un punto di vista grafico vuole dire individuare l’ampiezza dell'intervallo [µ-a; µ+a], che è pari a 2a, una volta fissata la probabilità α relativa a tale interval-lo. Il problema è illustrato nella figura seguente.

Page 96: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 388

Standardizzando si haα = P|X - µ| ≤ a= Pµ-a ≤ X ≤ µ+a =

= P

−+≤≤−−

σµµ

σµµ a

Za

= P

≤≤−

σσa

Za

= 2P

≤≤

σa

Z0

da cui si ricava

P

≤≤

σa

Z0 = α2

che è equivalente a

P

≤≤∞−

σa

Z = α2 + 0.5.

Dalla tavola della standardizzata, in corrispondenza di

α* = 2α

+ 0.5,

si ricava il valore

zα∗ ≈σa

e quindi a ≈ zα∗ σ.

Esempio 9Supponiamo che sia X~N( µ, 4) e si voglia individuare la costante a per cui risulti

P|X - µ| ≤ a= 0.65.In questo caso si ha

Page 97: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 89

α* =

265.0

+ 0.5 = 0.825.

Il valore più vicino ad α* riportato nella tavola della Normale standardizzata è 0.8238 incorrispondenza del quale si ha zα∗= 0.93 e quindi risulta

a ≈ 2 (0.93) = 1.86.

Un’ultima interessante proprietà connessa alla v.c. Normale, riportata qui diseguito senza dimostrazione, è che

una qualsiasi combinazione lineare di Normali indipendenti si distribuisce anco-ra come una v.c. Normale

Più precisamente, date le seguenti v.c. Xi~N(µi , 2iσ ), i=1,2,...,k, indipendenti,

la nuova v.c.

Y = co + c1 X1 + c2 X2 + ... + ck Xk

si distribuisce come una Normale con media e varianza date rispettivamente da

µy = co + c1 µ1 + c2 µ2 + ... + ck µk

σ 2y = 2

1c σ 21 + 2

2c σ 22 + ... + 2

kc σ 2k

cioè

Y ~N(co + c1 µ1 + c2 µ2 + ... + ck µk; 21c σ 2

1 + 22c σ 2

2 + ... + 2kc σ 2

k )

Questo risultato ha una grande rilevanza per una serie di sviluppi teorici ed ap-plicati alcuni dei quali illustreremo nei capitoli seguenti.

3.5 Alcune v.c. derivate dalla Normale.

In questo paragrafo tratteremo brevemente di alcune v.c. che hanno rilevan-za pratica e si ottengono come particolari trasformazioni di v.c. Normali. Inparticolare tratteremo, nell’ordine, delle v.c.: Chi-quadrato, T di Student, F diFisher e Lognormale.

Page 98: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 390

LA V.C. CHI-QUADRATOLa v.c. Chi-quadrato con k gradi di libertà si indica con χ 2

k ed è definita nelmodo che segue. Siano date k v.c. normali standardizzate:

Z1~N(0, 1), Z2~N(0, 1), ..., Zk~N(0, 1)

e supponiamo che siano indipendenti per cui risulta

f(z1 , z2 , ..., zk ) = f1(z1) f2(z2) ... fk(zk)

cioè la funzione di densità della v.c. k-pla (Z1 , Z2 , ..., Zk ) è pari al prodottodelle k funzioni di densità marginali. Allora

la nuova v.c.

Y = ∑=

k

1i

2iZ

prende il nome di v.c. Chi-quadrato con k gradi di libertà.

Ove si definisce

gradi di libertà = numero delle variabili - numero dei vincoli

e nel caso sopra definito si ha che il numero delle variabili è, per costruzione,pari a k, il numero dei vincoli è zero per cui i gradi di libertà risultano propriopari a k. Da un punto di vista geometrico, i gradi di libertà indicano la dimen-sione in cui ci si può muovere nella costruzione della v.c. Y. Nel seguito incon-treremo casi in cui il calcolo dei gradi di libertà è più elaborato. In altri termini,la v.c. Chi-quadrato con k gradi di libertà è data dalla somma di k normalistandardizzate indipendenti al quadrato.

La v.c. χ 2k è continua ed è definita, per come è stata costruita, nell'intervallo

(0; +∞ ). Si dimostra che la f.d. della v.c. Y~χ 2k è data da

f(y) = )/(/

)/(/

2k2

ye2k

12k2y

Γ

−−per y > 0

Page 99: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 91

ove Γ(p) è detta funzione gamma e risulta

Γ(p) = ∫∞

0

xp-1

e- x dx per p > 0; Γ(p+1) = p Γ( p),

mentre se p è un numero intero si ha

Γ(p) = (p-1) ! ;

+

21

pΓ = p

...

2

)1p2(531 π−××××;

inoltre

21Γ = π .

La forma di tale f.d. è riportata nella figura che segue per tre diversi valori deigradi di libertà.

Per quel che riguarda la media e la varianza della v.c. Chi-quadrato, ricordando

che E(Z) =0, E(Z 2) = 1, E(Z 3) = 0, E(Z 4) = 3, risulta

E(χ 2k ) = E

∑=

2i

k

1i

Z = ∑=

k

1i

E[Z 2i ] = k

Page 100: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 392

var(χ 2k ) = var

∑=

2i

k

1i

Z = ∑=

k

1i

var[Z 2i ] =

= ∑=

k

1i

E[Z 2i - E(Z 2

i )]2 = ∑=

k

1i

E[Z 4i - 2Z 2

i E(Z 2i ) + (E(Z 2

i ))2] =

= ∑=

k

1i

[3 - 2E(Z 2i ) + 1] = ∑

=

k

1i

[3 - 2 + 1] = 2k

possiamo così calcolare il momento secondo della v.c. χ 2k ottenendo

µ2 = σ 2 + µ 2 = 2 k + k 2

In generale, si può dimostrare, che il momento r-esimo della v.c. χ 2k è dato da

µr = E(Y r) = )/(

)/(

2k2kr2r

ΓΓ +

= k (k+2) (k+4) ... (k+2(r-1))

da cui si deriva

µ1 = k

µ2 = 2k + k 2 = k (k+2)

µ3 = 8k + 6k 2 + k 3 = k (k+2) (k+4)

µ4 =48k + 44k 2 + 12k 3 + k 4 = k (k+2) (k+4) (k+6)

che permette di calcolare

k22 =σ ; γ1 = k8

> 0; γ2 = k

12> 0.

Da cui si ricava che la v.c. χ 2k è sempre asimmetrica positiva e leptocurtica qual-

siasi sia k, asimmetria e curtosi tendono a zero al crescere di k.La v.c. Chi-quadrato gode, come è facile verificare, della seguente proprietà

riproduttiva: la somma di due Chi-quadrato indipendenti è ancora una v.c. Chi-

Page 101: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 93

quadrato che ha per gradi di libertà la somma dei gradi di libertà. Formalmen-te, se

X~χ 2k ; Y~χ 2

h

sono indipendenti, allora risulta

V = X + Y ~χ 2hk +

LA V.C. T DI STUDENTDate le due v.c. Z ~ N( 0, 1) ed Y ~ 2

kχ indipendenti, definiamo

v.c. T di Student con k gradi di libertà la seguente

T(k) = kY

Z

/=

k

10N2k /

), (

χ

La v.c. T di Student è funzione del solo parametro k e la sua f.d., si dimostra, èdata da

f(t) = ( )

( ) 21k2 kt1k

21

1k21

k1 /)(

/+−

+

+

Γ

Γ

π , - ∞ < t < ∞

Il grafico di f(t), per due diversi valori di k è riportato nella figura seguente

Page 102: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 394

Come si può notare dalla figura, la v.c. T di Student è simmetrica intorno allozero qualsiasi sia k. Quando è k=1 questa variabile casuale prende anche il n o-me di v.c. di Cauchy. Per quel che riguarda i momenti, si dimostra che data lav.c. T(k) il momento µr esiste se risulta r < k. Inoltre, i momenti di ordine d i-spari, quando esistono, sono nulli. In generale si ha

µr = E( T r) =

+

21

k21

rk21

1r21

k 2r

ΓΓ

ΓΓ )()(/

se r è pari ed r<k. Otteniamo così come casi particolari:

µ1 = 0 se k > 1; µ2 = 2k

k−

se k > 2

µ3 = 0 se k > 3; µ4 = ))(( 4k2k

k3 2

−−se k > 4

che permettono di ricavare

σ2 = 2k

k−

se k > 2; γ1 = 0 se k >3; γ2 = 4k

6−

>0 se k >4.

Questo vuole dire che la v.c. T di Student, oltre ad essere simmetrica, èsempre leptocurtica.

Tenendo conto che

Page 103: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 95

E

2

kk1 χ =

k1

k =1; var

2

kk1 χ = 2k

12k =

k2

segue che la media della v.c. 2kk

1 χ è costante e pari ad uno mentre la sua va-

rianza tende a zero quando k cresce all'infinito. Ciò implica che k1 2

kχ , al di-

vergere di k all’infinito, assume il suo valore medio 1 con certezza. Ma allora,dalla definizione della v.c. T di Student

T(k) = k

10N2k /

),(

χ

si ha che la variabile casuale che figura al denominatore tende con certezza alvalore 1 e di conseguenza T(k) → N(0, 1). In altri termini, al crescere dei gradidi libertà della v.c. T di Student questa tende alla v.c. Normale standardizzata.Nella figura seguente è messa a confronto la f.d. di una N(0, 1) con una T(10)

In pratica, basta che sia k ≥ 30 perché T(k) sia ben approssimata da una Nor-male standardizzata.

LA V.C. F DI FISHERDate le due v.c. indipendenti X ∼ 2

hχ e Y~ 2kχ ,

la nuova v.c.

Page 104: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 396

kYhX

F//=

si chiama v.c. F di Fisher con h e k gradi di libertà e si scrive F~F(h,k).

Come si può notare, la v.c. F di Fisher è funzione di una coppia di gradi dilibertà, in particolare h sono i gradi di libertà relativi al numeratore della F e ksono quelli relativi al denominatore. Una caratteristica importante di questa v.c.è che il suo inverso è ancora una v.c. F di Fisher con i gradi di libertà scambiati.In altri termini, se F~F(h,k) allora

F1

~F(k,h)

e quindiP0 ≤ F(h,k) ≤ 1/Fo = PFo ≤ F(k,h) < + ∞ per Fo > 0.

Inoltre, la v.c. F di Fisher può essere considerata una generalizzazione dellav.c. T di Student dato che si verifica facilmente, dalle definizioni delle due v.c.,che se è X~T(k) risulta immediatamente

X2 =

2

2k k

10N

/

),(

χ =

k

12k

21

/

/

χ

χ~F(1,k)

cioè, il quadrato di una v.c. T di Student con k gradi di libertà è una v.c. F diFisher con (1, k) gradi di libertà. Infine, si può dimostrare che la funzione didensità di questa v.c. è

f( F) = ( ) 2kh

12h2h

khF1

Fkh

k21

h21

kh21

)(

//

/

)(

+

+

+

ΓΓ

Γper 0 ≤ F< ∞ .

Nella figura che segue è riportato il grafico della f.d. della F di Fisher pertre diverse coppie di gradi di libertà.

Page 105: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 97

Come si vede, si tratta di una distribuzione asimmetrica positiva, qualsiasi sianoi gradi di libertà.

Per quel che riguarda i momenti di questa v.c., si può dimostrare che è

µr = E(F r) =

+

k21

h21

h

rk21

rh21

k

r

r

ΓΓ

ΓΓ per -

12 h < r <

12 k

da cui, come casi particolari, si ottiene:

µ1 = 2k

k

−per k > 2

µ2 = )4k)(2k(h

)2h(k2

−−+

per k > 4

µ3 = )6k)(4k)(2k(h

)4h)(2h(k2

3

−−−++ per k > 6

µ4 = )8k)(6k)(4k)(2k(h

)6h)(4h)(2h(k3

4

−−−−+++ per k > 8

che implicano

var(F) = )()(

)(

4k2kh

2khk22

2

−−−+

per k>4

Page 106: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 398

γ1 = 6k

)2kh2()2kh(h

)4k(8−

−+−+

−> 0 per k > 6

γ2 = ))()((

)])(()()[(

2kh8k6kh22k52khh4k2k12 2

−+−−−−++−−

> 0 per k > 8.

Questo vuole dire che la F di Fisher è sempre asimmetrica positiva e leptocur-tica.

Osserviamo che, utilizzando argomentazioni simili a quelle illustrate per la Tdi Student, segue immediatamente che per k ∞→ si ha

F(h,k) → h

2hχ

.

LA V.C. LOGNORMALEUn’ultima v.c. che qui analizziamo, ottenibile come una particolare trasfor-

mazione della Normale, è la v.c. Lognormale. Si tratta di una v.c. di diffusa uti-lizzazione pratica specie in economia, medicina, geologia ed in particolare nelladescrizione della durata di vita di prodotti industriali. Questa v.c. è funzione didue parametri, ma ne esiste una generalizzazione poco utilizzata nelle applica-zioni che è funzione di tre parametri. Per dire che la v.c. Y si distribuisce comeuna Lognormale con parametri (λ, δ) di solito viene utilizzata la simbologiaY~LN(λ, δ).

Più precisamente, data la v.c. X~N(λ, δ) la nuova v.c.

Y = e X

prende il nome di v.c. Lognormale con parametri (λ, δ).

Per costruzione, la Lognormale assume valori non negativi. Il nome di Lo-gnormale nasce dal fatto che la v.c. log(Y) si distribuisce come una Normalecon parametri (λ, δ). Partendo dalla distribuzione della Normale non è difficiledimostrare che la funzione di densità della Lognormale a due parametri è

Page 107: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 99

f(x) = πδ 2x

1 exp

−−

2x21

δλlog

, - ∞ < λ < ∞ , δ > 0

Nella figura seguente è riportato il grafico della f.d. della Lognormale pertre diverse coppie dei parametri

Se X~LN(λ, δ ) si dimostra che il suo momento r-esimo è

E(X r) = expr λ + r 2 δ 2/2

da cui si ottengono, in particolare

µ1 = 22ee /δλ ; µ2 =

222 ee δλ

µ3 = 293 2ee /δλ ; µ4 =

284 ee δλ

Questi permettono di calcolare

σ 2 =

−1eee222 δδλ ; γ1 = 01e2e

22>−

+ δδ

γ2 = 06e3e2e222 234 >−++ δδδ .

La v.c. Lognormale è una v.c. sempre asimmetrica positiva e leptocurtica, si

Page 108: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3100

osservi che la distribuzione Lognormale è tanto più vicina alla simmetria ed allamesocurtosi quanto più δ è piccolo. Questo implica che la Lognormale puòapprossimare fenomeni che si distribuiscono normalmente scegliendo un δopportunamente piccolo.

3.6 La variabile casuale Normale doppia

In questo paragrafo tratteremo brevemente della v.c. Normale doppia vistacome generalizzazione della Normale semplice già analizzata nelle pagine pre-cedenti. La v.c. Normale doppia (X, Y) è definita sull’intero piano (x, y) ed èfunzione dei cinque parametri:

µ x , µ y ,2xσ , 2

yσ , σx y

Di solito, per indicare che la v.c. ( X , Y) si distribuisce come una Normaledoppia si usa la notazione seguente:

( X , Y) ~ N2 ( µx , µy , 2xσ , 2

yσ , σx y )

Fra le v.c. continue multivariate la Normale è quella che, in assoluto, è la piùutilizzata nelle pratiche applicazioni date le sue numerose proprietà. Il successodi tale v.c. è dovuto anche, se non soprattutto, ai semplici sviluppi formali chel'uso di tale variabile casuale implica. La funzione di densità dipende, come giàaccennato, dalle medie e dalle varianze delle due marginali e dalla loro cova-rianza. Più precisamente si dimostra che è:

2xyyx 12

1)x(f

ρσπσ −= .

−+

−−−

−− 2

y

2y

y

y

x

x2x

2x

2xy

)y(yx2

)x(

)1(2

1exp.

σ

µ

σ

µ

σ

µρ

σ

µ

ρ

Si può dimostrare che ogni combinazione lineare di una Normale doppia èancora una normale. Da questo risultato segue come caso particolare che cia-scuna marginale di una normale doppia è una normale semplice:

Page 109: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 101

X~N(µx , σ2x ) Y~N(µy , σ

2y )

ma di solito non è vero il viceversa. Infatti, possono esistere v.c. che non sonoNormali doppie, ma hanno le marginali distribuite come Normali.

Nelle figure che seguono è riportato il grafico della f.d. della normale dop-pia per differenti valori dei parametri

µx = µy =0, σ 2x =1, σ 2

y =2, ρxy =0.5 µx = µy =0, σ 2x =1, σ 2

y =2, ρxy = 0

µx = µy =0, σ 2x = σ 2

y =2, ρxy =0.5

Data la v.c. (X, Y) Normale doppia è facile verificare che condizione neces-saria e sufficiente perché X ed Y siano indipendenti è che sia ρxy = 0. Da questo

Page 110: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3102

risultato segue che nella Normale doppia, ma il risultato è facilmente estensibilea quella multipla:

se un fenomeno si distribuisce come una normale multipla, alloral’indipendenza delle marginali è equivalente alla loro incorrelazione

Si dimostra facilmente che se (X, Y) è una normale doppia allora la v.c.condizionata (X|Y=y) è ancora una v.c. Normale semplice e precisamente

(X|Y=y) ~ N

−−+

2y

2xy2

xy2y

xyx );y(

σ

σσµ

σ

σµ .

La stessa cosa vale per la condizionata (Y|X=x) che è una Normale semplicedata da

(Y|X=x) ~ N

−−+

2x

2xy2

yx2x

xyy );x(

σ

σσµ

σ

σµ .

Come si può notare, la media della v.c. condizionata (Y|X=x) è una retta neivalori assunti dalla variabile condizionante x:

µy|x = µy + )x( x2x

xy µσ

σ− =

− x2

x

xyy µ

σ

σµ +

2x

xy

σ

σx = βo + β1 x.

Naturalmente, una relazione simile vale per la media della v.c. condizionata(X|Y=y):

µx|y = µx + )y( y2y

xy µσ

σ− = αo + α1 y

La funzione di densità della normale doppia ha un unico massimo per (x ,y) = (µx , µy ) ed è costante sull'ellisse con centro in ( µx , µy ). L’equazione di taleellisse è data da

Page 111: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 103

c)y(yx

2)x(

2y

2y

y

y

x

x2x

2x =

−+

−−−

−σ

µ

σ

µ

σµ

ρσ

µ

ove c > 0 è una costante positiva qualsiasi. La situazione è illustrata nella figurache segue

ove si è supposto che fosse σx y > 0.

Si può dimostrare che se ( X , Y) ~N2 ( µx , µy , σ 2x , σ

2y , σx y ) risulta

X-Y ~ N( µ x - µy ; σ 2x + σ

2y +2 σx y )

X+Y ~ N( µ x + µy ; σ 2x + σ

2y +2 σx y )

e se, inltre, è µx=µy=0 si ha

2xy

2y

2x

1

σσσ −[ X

2y - 2 XY σx y + Y

2x ] ~ 2

che generalizza al caso bivariato il risultato del caso univariato.

3.7 Alcuni teoremi limite

Nel seguito di questo paragrafo presenteremo alcuni risultati asintotici chehanno una certa rilevanza nelle pratiche applicazioni.

Page 112: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3104

ALCUNE LEGGI DI CONVERGENZAIn primo luogo tratteremo di alcuni tipi di convergenza di successione di

v.c. A tale proposito, consideriamo la successione di variabili casuali indipen-denti

X1 , X2 , …, Xn ,… ≡ Xn

con medie e varianze date rispettivamente da

µ1 , µ2 , ..., µn , ....

σ 21 , σ 2

2 , ...., σ 2n , ....

e consideriamo la v.c. media

nX = ∑=

n

1jn1

Xj

Dall’indipendenza delle Xi segue immediatamente che

E( nX ) = ∑=

n

1jjn

1 µ = µ (n)

var( nX ) = ∑=

n

1j2n

1 σ 2j .

Si noti che nel caso particolare, ma di rilevanza pratica, in cui è

µ1 = µ2 = … = µn = … = µ

σ 21 = σ 2

2 = … = σ 2n = … = σ 2

si ha immediatamente

E( nX ) = µ ; Var( nX ) =n

2σ.

Ciò detto, diamo le seguenti definizioni.

Definizione 1

La successione di v.c. X n converge in probabilità o debolmente alla v.c. X se

Page 113: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 105

per ogni ε > 0 risulta

∞→nlim P|Xn - X| < ε = 1.

Spesso, per dire che Xn converge in probabilità ad X si usa una delle se-guenti notazioni

∞→nplim Xn = X ; Xn

P

→ X

Definizione 2

La successione di v.c. Xn converge in media quadratica (quadratic mean, edin forma abbreviata q.m.) alla v.c. X se

∞→nlim E[(Xn - X)2] = 0

o equivalentemente

Xn .m.q

→ X.

Si può dimostrare che la convergenza in media quadratica implica quella inprobabilità.

Si può dimostrare che, data la successione di v.c. Xn, se

∑=

∞→

n

1j2n n

1lim σ 2

j = 0

allora

nX - µ(n) P

→ 0

Data la successione di v.c. nX nel caso particolare in cui risulti E(Xi ) = µper ogni i allora

nX - µ P

→ 0.

Se g( ⋅) è una funzione continua e se Xn P

→ X allora

Page 114: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3106

g(Xn ) P

→ g(X).

Definizione 3

Data la successione di v.c. Xn, indicando con Fn ( x ) la funzione di ripar-tizione di Xn , n=1,2,..., e con F(x) quella di una generica v.c. X, diremo che

Xn converge in distribuzione o in legge ad X se

∞→nlim Fn(x) = F(x)

in ogni punto di continuità di F(x).

Se Xn converge, in distribuzione ad X allora F(x) viene detta la distribu-zione asintotica della successione di v.c.

Spesso, per dire che Xn converge in distribuzione ad X si scrive

Xn L

→ X.

Si può dimostrare che la convergenza in probabilità implica quella in distri-buzione. In generale, non è vero il viceversa. I due tipi di convergenza si equi-valgono se X è una v.c. degenere cioè se assume il valore costante c con pro-babilità 1. In tal caso si dimostra che

Xn P

→ c ⇔ Xn L

→ c.

Se g(⋅) è una funzione continua e se Xn L

→ X allora

E[g(Xn )] → E[g(X)].

Definizione 4

La successione di v.c. Xn converge uniformemente in distribuzione alla v.c. Xse

xnsuplim

∞→|Fn ( x ) - F( x )| = 0.

Si può dimostrare che se Xn converge in distribuzione a X e se la fun-

Page 115: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 107

zione di ripartizione di X è continua allora la convergenza è uniforme.

Qui di seguito riportiamo brevemente altri risultati sulla convergenza inprobabilità ed in distribuzione:(a) date la successione di v.c. doppie Xn , Yn, se

|Xn - Yn| P

→ 0; Yn L

→ Yallora

Xn L

→ Y.

(b) Date la successione di v.c. doppie Xn , Yn, se

Xn L

→ X; Yn P

→ 0

allora

Xn Yn P

→ 0.

(c) Date la successione di v.c. doppie Xn, Yn, se

Xn L

→ X; Yn P

→ callora

Xn + Yn L

→ X + c ; Xn Yn L

→ Xc.

Esempio 10Quest'ultimo risultato trova una immediata applicazione al caso della v.c. T di Student

con g gradi di libertà che per g tendente ad infinito tende ad una normale standardizzata.Infatti, dato che

T(g) = g/X

Z

con Z Normale standardizzata ed X chi-quadrato con g gradi di libertà, e dato cheE(X/g)=1 mentre var(X/g)=2/g 2, segue immediatamente che X/g converge in mediaquadratica, e quindi in probabilità, ad uno al divergere di g, ma allora T(g) convergerà in d i-stribuzione a Z e questo dimostra quanto affermato.

Page 116: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3108

IL TEOREMA DEL LIMITE CENTRALEQui di seguito illustriamo un importante risultato teorico che giustifica il lar-

go uso che in statistica viene fatto della v.c. Normale. A tale proposito suppo-niamo di avere una successione di v.c. indipendenti:

X1 , X2 , ..., Xn , ...

con medie finite e varianze finite e strettamente positive. Consideriamo la s e-guente v.c. standardizzata

)X...XXvar(

)X...XX(E)X...XX(Z

n21

n21n21n +++

+++−+++= =

= 2n

22

21

n21n21

...

)...()X...XX(

σσσ

µµµ

+++

+++−+++

Sotto condizioni abbastanza generali, si dimostra che

Zn converge in distribuzione alla v.c. Normale standardizzata per ∞→n :

Zn L→ N(0, 1).

Questo risultato è una delle versioni del Teorema del limite centrale. Nelle condi-zioni date, per n finito ma grande si avrà l’approssimazione

Zn ≈ Z ~N(0, 1)che equivale a

Z...

)...()X...XX(2n

22

21

n21n21 ≈+++

+++−+++

σσσ

µµµ

da cui si ricava

(X1 + X2 + ...+ Xn) ≈ (µ1+ µ2+ ...+ µn) + 2n

22

21 ... σσσ +++ ⋅ Z.

Ma al secondo membro dell’ultima espressione vi è una trasformazione lineare

Page 117: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 109

di una Normale standardizzata che, come sappiamo, è ancora una v.c. Nor-male e precisamente:

(X1 + X2 + ...+ Xn) ≈ N[(µ1+ µ2+ ...+ µn ); (σ21 + σ 2

2 + ...+ σ 2n )]

Esempio 11Sappiamo che la v.c. Chi-quadrato con k gradi di libertà è data dalla somma di k

Normali standardizzate indipendenti al quadrato. Ma allora se k è grande (in pratica bastache sia k≥ 30) è possibile utilizzare il teorema limite centrale ed ottenere

χ 2k ≈ N(k, 2k)

Nella figura che segue è riportata la f.d. di un χ 220 e la relativa N(20,40)

Sappiamo che la v.c. Binomiale con parametri (N, p) è data dalla somma di N v.c. diBernoulli indipendenti. Se N è grande (in pratica basta che sia Np > 20, oppure p ≈ 0.5)possiamo utilizzare il teorema limite centrale ed ottenere l’approssimazione

B(N, p) ≈ N(Np, Np(1-p))

Nella figura seguente viene confrontata la distribuzione di una Binomiale con la relativaNormale.

Page 118: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3110

Sappiamo che la v.c. di Poisson è il limite in distribuzione, per N ∞→ e p→0 conNp= λ , della v.c. Binomiale. Ma allora possiamo utilizzare il teorema limite centrale e seλ è grande (in pratica, essendo λ =Np basta che sia ≥λ 20) ed ottenere l'approssima-zione

P(λ) ≈ N(λ, λ).

LA DISUGUAGLIANZA DI CHEBYCHEVIl risultato che presenteremo qui di seguito, senza dimostrazione, permette

di mettere in relazione media e varianza di una qualsiasi v.c. con le probabilità.Si tratta di un risultato molto generale dato che vale qualsiasi sia il fenomeno instudio, l’unica condizione è che possegga media e varianza finite. Il rovesciodella medaglia è che e l’approssimazione che si ottiene è piuttosto grossolana.

Più precisamente,

data una qualsiasi v.c. X con media µ e varianza σ 2 finite, vale sempre la disu-guaglianza seguente

P|X - µ| ≥ k σ 2k

1≤ , ove è k > 0

Dato che è1 = P- ∞ <X-µ<+ ∞ = P|X-µ| ≥ k σ ∪ |X-µ|< k σ =

P|X -µ| ≥ k σ + P|X - µ|< k σ,

la disuguaglianza di Chebychev si può equivalentemente scrivere

Page 119: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Variabili casuali di uso comune 111

P|X - µ|< k σ ≥ 1 - 2k1

o anche

Pµ - k σ < X < µ + k σ ≥ 1 - 2k1

.

Da quanto abbiamo appena detto segue immediatamente che data unaqualsiasi v.c. X con media e varianza finita per k = 1, 2, 3 si ha sempre

per k=1: Pµ - 1 σ < X < µ + 1 σ ≥ 1 - 2 11

= 0

per k=2: Pµ - 2 σ < X < µ + 2 σ ≥ 1 - 221

= 0.75

per k=3: Pµ - 3 σ < X < µ + 3 σ ≥ 1 - 23 1

= 0.888

Esempio 12In questo esempio calcoliamo le probabilità sopra viste per tre v.c. di cui è nota la relativa

distribuzione in modo da avere una idea della capacità della disuguaglianza di Chebychev difornire limiti più o meno accettabili.(a) Supponiamo che sia X~N(µ; σ2), nell'esempio 8 abbiamo visto che qualsiasi siano i pa-

rametri µ e σ2 si ha sempre

per k=1: Pµ-1σ < X < µ + 1σ = 0.6826per k=2: Pµ-2σ < X < µ + 2σ = 0.9545per k=3: Pµ-3σ < X < µ + 3σ = 0.9973.

(b) Supponiamo che sia X~U(0; 6) in tal caso sappiamo che è µ = 3, σ2 = 3 e risultaimmediatamente

per k=1: P3 - 3 < X < 3 + 3 = 6

32= 0.577

per k=2: P3 - 2 3 < X < 3 + 2 3 = 1

per k=3: P3 - 3 3 < X < 3 + 3 3 = 1.

(c) Supponiamo di avere la seguente v.c.

Page 120: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 3112

xi 0 1 2 3 4 5

pi 321

325

3210

3210

325

321

per cui risulta µ = 2.5 e σ 2 = 1.25 ed otteniamo immediatamente

per k=1: P2.5- 25.1 < X < 2.5+ 25.1 = P1.382 < X < 3.619 =

= PX = 2 + PX = 3 = 1032 +

1032 = 0.625

per k=2: P2.5-2 25.1 < X < 2.5+2 25.1 = P0.264 < X < 4.736 =

= PX = 1 + PX = 2 + PX = 3 + P X = 4=

= 532 +

1032 +

1032 +

532 = 0.9375

per k=3: P2.5-3 25.1 < X < 2.5+3 25.1 = P-0.354 < X < 5.854 =

= P0 ≤ X ≤ 5 = 1.

Come era da attendersi, i limiti che si ottengono con la disuguaglianza diChebychev sono molto grossolani. Nelle pratiche applicazioni questo stru-mento viene raramente utilizzato. Il suo uso è riservato quasi esclusivamente asviluppi teorici.

Page 121: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4

ELEMENTI DI TEORIA DELLA STIMAPARAMETRICA

4.1 Introduzione

Nell’ambito della Teoria delle Probabilità si suppone di conoscere esatta-mente le caratteristiche delle variabili casuali o popolazioni soggette a situazionidi incertezza. In altri termini, di ogni v.c. X, descrivente le caratteristiche di datifenomeni, si suppone di conoscere la loro distribuzione probabilistica. In prati-ca, di un fenomeno descritto da X si conoscono solo un numero finito e limi-tato di informazioni ed utilizzando queste bisogna risalire ad alcune caratteristi-che determinanti della popolazione. Nel seguito supporremo che le informa-zioni di cui si dispone siano solo di tipo campionario. Tali informazioni vengo-no utilizzate per inferire sulla popolazione o sulla variabile casuale da cui le i n-formazioni sono state ottenute. L’inferenza è, quindi, una tipica procedura indutti-va: risalire dal particolare (le informazioni raccolte su X e di cui si dispone) algenerale (la popolazione o variabile casuale X oggetto di analisi) con tecnichemesse a punto dalla statistica.

D’altra parte, quando si parla di informazioni parziali o campionarie è neces-sario specificare il tipo di campione che si prende in considerazione dato chequesto influenza in modo decisivo le conclusioni che vengono prese sulla po-polazione o v.c. E’ evidente che bisogna possedere un campione che sia rappre-sentativo della v.c. e non delle aspirazioni soggettive del ricercatore. Per evitaregli inconvenienti legati alle aspirazioni soggettive degli operatori, nella forma-zione del campione bisogna affidarsi a procedure neutrali cioè a metodi cheprescindono da influenze personali.

Il modo più semplice per ottenere tali campioni, come accennato all’iniziodel corso, è di considerare campioni casuali, cioè campioni costruiti in modo taleche ogni unità della popolazione abbia la stessa probabilità di fare parte delcampione. E’ utilizzando campioni casuali che verrà costruita la teoria della sti-

Page 122: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4114

ma, quella del test delle ipotesi e la teoria della regressione così come verrannoillustrate nei capitoli seguenti. Infatti, nel seguito, quando si parlerà di campionici si riferirà esclusivamente a campioni casuali.

4.2 La stima parametrica

L’importanza dell’inferenza risiede nella necessità e possibilità di costruire unmodello per la popolazione a partire dal campione su di essa osservato inmodo da potere capire quale è la struttura o alcuni aspetti importanti dellastruttura della popolazione. A tale proposito supponiamo di avere un fenome-no aleatorio descritto dalla v.c. X con funzione di densità (nel caso continuo) o

distribuzione di probabilità (nel caso discreto) f(x; θ) ove la funzione f( .) sisuppone nota mentre θ è il parametro incognito da stimare (da cui il nome di stimaparametrica) utilizzando le informazioni campionarie che si hanno su X. Natu-ralmente, θ può anche essere, e spesso lo è, un vettore di k parametri incogniti:

θθ = (θ1 , θ2 , ..., θk )

Esempio 1a) Supponiamo che il fenomeno X sia distribuito come una v.c. Normale, cioè X~N(µ, σ 2).In tale caso f( .) è data da

f(x; µ, σ2) = 22

1

πσexp

−−

22 )x(

21 µσ

ed è nota a meno del vettore composto da due parametri θθ = (µ, σ 2).

b) Supponiamo che il fenomeno X si distribuisca come una v.c. Binomiale, cioè risultaX~B(N, p). In tal caso f( .) è data da

p(x) =

xN p x (1-p) N - x, x = 0 ,1, 2, ..., N

che è nota a meno del vettore di parametri θθ = (N, p).

c) Supponiamo che il fenomeno di interesse X si distribuisca come una v.c. di Poisson, cioè siaX~P( λ). In tal caso f( .) è data da

Page 123: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 115

!xe

)x(px λλ −

= , x=0, 1, 2,...

che è nota a meno del parametro θ =λ.

Il nostro problema, come già detto in precedenza, consiste nel valutare quan-to vale (nella terminologia statistica stimare ) il parametro incognito θ, nota la

forma di f( .), sulla base di un campione casuale estratto da X. Inoltre, si vuoleche la stima così ottenuta sia accettabile , cioè soddisfi un certo numero di pro-prietà ritenute indispensabili.

Sia quindi X~f(x; θ) ed x = (x1 , x2 , ..., xn ) un campione estratto bernoul-lianamente (cioè con rimessa ) da X. Se si ripete l’operazione di campionamentox varia al variare del campione e descrive la v.c. n-pla:

X = (X1 , X2 , ..., Xn )

detta v.c. campionaria. Dato che l’estrazione è fatta con rimessa le v.c. X1 , X2 ,..., Xn sono fra di loro indipendenti ed inoltre, per quanto abbiamo illustratonel paragrafo 2.2, hanno tutte la stessa distribuzione coincidente con quella dellapopolazione da cui sono state estratte:

Xi ~ f(xi ; θ), i = 1, 2 ,..., n

Questo vuole dire che la v.c. campionaria ha la distribuzione di probabilità

X = (X1 , X2 , ..., Xn ) ~ f(x1 ; θ) f(x2 ; θ) ... f(xn ; θ) =

= ∏=

n

1i

f(xi ; θ)

Naturalmente, qualsiasi sia il parametro da stimare la sua stima, che indichiamo

con θ , sarà sempre una funzione del campione:

θ = dn ( x ) = d(x1 , x2 , ..., xn )

Al variare del campione θ varia e descrive una v.c. che prende il nome di sti-matore di θ:

θ = dn ( X ) = d(X1 , X2 , ..., Xn )

(notare che, per semplicità, per la stima e lo stimatore utilizziamo, impropria-

Page 124: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4116

mente, lo stesso simbolo) la cui distribuzione, note la forma funzionale di f( .) edn ( .), è teoricamente derivabile.

4.3 Cenni di teoria delle decisioni

Vediamo di affrontare in questo paragrafo il problema della stima da unpunto di vista molto generale. D’altra parte, abbiamo già accennato al fatto chestimare vuole dire valutare in base all’esperienza (il campione) quanto vale unqualche cosa (i parametri). Questo vuole dire che quando si stima un parametroincognito non si fa altro che prendere una decisione su quel parametro mesco-lando informazioni a priori e informazioni campionarie. Vediamo, perciò, c o-me il problema di stima può essere affrontato utilizzando la teoria delle decisionistatistiche di cui nel seguito si daranno brevi cenni.

A tale proposito supponiamo di avere un fenomeno descritto dalla v.c. Xdi cui si conosce la sua funzione di densità (o se discreta la sua distribuzione diprobabilità) a meno di un parametro θ. Supponiamo che tale funzione di den-sità sia data da f(x ; θ) con θ parametro incognito. Il problema è stimare θ uti-lizzando l’informazione sulla funzione di densità di X e le informazioni cam-pionarie ottenute da X. Per fare questo definiamo:

- l’insieme degli stati di natura o insieme parametrico: Ω, definito da tutti i possibilivalori che θ può assumere

- la variabile casuale campionaria: Xn = (X1 ,..., Xn ) ottenuta da X con rimessa

- la funzione di decisione (o stimatore ) : d n = d(X1 ,..., Xn )

- l’insieme delle azioni : D, definito da tutte le possibili decisioni dn

- la funzione di perdita: l(d ; θ) che misura il costo che bisogna sopportare se sisceglie la decisione dn e si verifica θ

- la funzione di rischio: R(dn ; θ) = E[l(dn ; θ) ] che rappresenta la perdita media.Questo ci permette di giudicare uno stimatore non da come si comporta inun dato campione, ma su tutti i possibili campioni che possono essereestratti da X.

Utilizzando questi elementi, è necessario definire una regola, logicamente cor-retta, che ci permetta di scegliere in D la decisione d * ottimale in qualche senso.Una regola di decisione accettabile potrebbe essere la seguente:si sceglie d * tale che sia

Page 125: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 117

∈<

∈≤

Ωθθθ

Ωθθθ

unalmenoper);d(R);d(R

ogniper);d(R);d(R

*

*

La figura seguente illustra il caso in cui è D =d1 , d2 , d3 ove la decisione d3

è quella preferibile dato che, qualsiasi sia θ∈Ω, il relativo rischio è inferiore aquello delle altre due decisioni possibili.

Per poter calcolare R(dn ; θ) è necessario conoscere la forma funzionale di

l(dn ; θ). Nelle pratiche applicazioni si considera, per la sua semplicità di calcolo eper alcune proprietà statistiche che possiede, la seguente

l(dn ; θ) = (dn - θ) 2

che viene anche chiamata perdita quadratica, oppure

l(dn ; θ)= θ−nd

Entrambe le perdite sopra definite sono nulle se la decisione presa coincide conil parametro incognito, mentre crescono quanto più dn e θ divergono.

La regola di decisione sopra riportata ci permette di effettuare un parzialeordinamento sull’insieme delle decisioni D dato che vi sarà un sotto insieme,diciamo D*⊂ D che soddisferà la regola di decisione e D* potrà contenere an-che infiniti elementi.

L’insieme D* viene detto insieme delle decisioni ammissibili rispetto alla funzio-ne di perdita utilizzata.

Page 126: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4118

È chiaro che si è interessati non a D, ma a D* ed al modo come scegliereuna sola decisione (stimatore ) da D*. Naturalmente, se D* contiene un solo d*

questa è la decisione (stimatore ) ottimale di θ. Se D* contiene più di un elementorisulta impossibile, a meno di non introdurre altre condizioni, derivare la deci-sione ottimale.

Anche se esiste uno stimatore ottimo d *, secondo la regola di decisioneconsiderata, può succedere che sia d * = g(Xn ; θ), cioè lo stimatore ottimo ri-

sulti funzione del parametro incognito che si vuole stimare per cui d * ha pocoo punto utilità pratica.

Esistono diverse strategie che permettono di superare le difficoltà prima s e-gnalate, qui di seguito accenniamo ad alcune.

METODO DEL MINI-MAXConsiste nel considerare come stimatore di θ quella decisione d * tale che sia

θmax R(d *; θ) =

θmaxmin

dR(d ; θ),

cioè si sceglie quello stimatore d * il cui rischio massimo è più piccolo dei mas-simi di tutti gli altri stimatori. Questo metodo ha l’inconveniente di focalizzarel’attenzione su un punto specifico: i massimi dei diversi rischi, per cui si puòpresentare una situazione simile a quella della figura seguente.

In tal caso il principio ci porta a scegliere la decisione d2 anche se d1 è netta-

mente preferibile per quasi tutti i θ esclusi quelli di un intorno di θ * in cui il ri-schio di d1 è di poco superiore a quello di d2 .

In ogni caso, questo metodo è molto utile per alcune sue implicazioni teori-che e per i legami che ha con altri approcci.

METODO DELL'AREA MINIMAConsiste nel considerare come stimatore di θ quel d * tale che

Page 127: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 119

A(d *) = ∫Ω

R(d * ; θ) d θ= ∫∈Ω

Ddmin R(d ; θ) d θ

Cioè quello stimatore d * il cui rischio, al variare di θ, ha area minima. Questometodo di stima ha il limite di individuare come stimatore ottimale stimatoriche da un punto di vista intuitivo si è portati a considerare poco accettabili c o-me illustrato nella figura che segue

in cui, se è A(d1 ) = ∞ e A(d2 ) < ∞ si sceglie con questo metodo d2 anche se,intuitivamente, si è portati a preferire d1 .

METODO DELLE PROPRIETÀ OTTIMALILa logica di questo principio è quella di considerare, come stimatori di θ,

quelle decisioni dn che soddisfano alcune proprietà ottimali. In altri termini, al

posto di D si considera un suo sotto insieme, D*, di modo che le decisioni ap-partenenti a D* soddisfano alcune condizioni di ottimalità. Una volta fissatequeste proprietà si elaboreranno dei metodi di stima che, automaticamente,sotto date condizioni più o meno restrittive, posseggono alcune di quelle pro-prietà. Ciò permette di elaborare stimatori con date proprietà senza che debba-no, di volta in volta, essere verificate.

4.4 Alcune proprietà ottimali degli stimatori

La stima di θ sarà accettabile se il relativo stimatore θ soddisfa una o piùproprietà ritenute importanti. In questo paragrafo illustreremo brevemente a l-cune di queste proprietà ottimali.

SUFFICIENZAData la v.c. X con f.d. o distribuzione di probabilità f(x ; θ), con θ inco-

Page 128: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4120

gnito e da stimare, sia X=(X1 ,..., Xn ) la v.c. campionaria estratta da X e d( X) =

d lo stimatore di θ. È evidente che nel passaggio dalla v.c. campionaria n-pla X= (X1 ,..., Xn ) alla v.c. semplice d = d( X) si possono perdere informazioni su θ.

Uno stimatore d( X) è sufficiente se possiede le stesse informazioni cheX=(X1 ,..., Xn ) ha su θ.

Ciò vuole dire che fra tutti i possibili stimatori di θ bisogna prendere in consi-derazione, se esistono, solo quelli che non disperdono alcuna informazione cheil campione ha sul parametro incognito che si vuole stimare.

Esempio 2Se il parametro da stimare è µ e X=(X1 ,..., Xn ) la v.c. campionaria, è evidente che

d1 = ∑i=1

m

Xi, con m < n

è meno informativo su µ di quanto non lo sia

d2 = ∑i=1

n

Xi .

Questo concetto viene formalizzato nella definizione seguente

d( X) è uno stimatore sufficiente per il parametro θ se e solo se la distribuzionecondizionata ( X|d( X) = d) è indipendente da θ per ogni d.

Da questa definizione segue immediatamente che se d è sufficiente per θ, quelloche rimane di X dopo la sintesi, cioè ( X|d( X) = d), non possiede altre infor-mazioni sul parametro incognito θ.

Un modo semplice per stabilire se uno stimatore d( X) sia sufficiente per ilparametro θ è di utilizzare, piuttosto che la definizione precedente, che da unpunto di vista operativo è piuttosto complessa, il seguente teorema riportatosenza dimostrazione.

Teorema (di fattorizzazione)Sia d(X) uno stimatore di θ∈Ω, condizione necessaria e sufficiente perché

Page 129: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 121

d(X) sia sufficiente per θ è che sia

f(x1 ,x2 ,…,xn ; θ) = f(x ;θ) = ∏i=1

n

f(xi ; θ) = g[d(x) ; θ] h(x)

ove g[d(x) ; θ] dipende da θ e dalle osservazioni campionarie solo tramite d(x),mentre h(x) è indipendente da θ.

Come corollario a questo teorema si può dimostrare che se θ = d(X) è suf-ficiente per θ, allora essa è l’unica statistica sufficiente per θ, ad eccezione di una qualsiasifunzione di d(X), con una corrispondenza uno ad uno, che è ancora sufficiente per θ.

L’importanza di questo risultato risiede nel fatto che se esiste uno stimatoresufficiente (cioè che non disperde le informazioni contenute nel campione) perθ allora esistono infiniti stimatori sufficienti date da tutte le sue trasformazionibiunivoche. Questo vuole dire che la sola sufficienza non basta per caratteriz-zare uno stimatore come accettabile, ma è necessario prendere in considerazio-ne anche altre possibili proprietà. Funzioni che non sono in corrispondenza unoad uno con uno stimatore sufficiente possono, in particolari casi, essere ancorasufficienti.

La definizione di sufficienza ed il teorema di fattorizzazione possono essereestesi al caso di un vettore θ di k parametri, ma questo problema non verrà af-frontato in queste lezioni.

Notare che, dato il parametro θ da stimare e la v.c. campionaria X=(X1, ..,Xn ), esiste sempre uno stimatore detto ordinamento statistico,

)X...X( )n()1( ≤≤

ottenuto ordinando in senso non decrescente le n osservazioni campionarie (x1, ..,xn ), che è sufficiente per il parametro o il vettore di parametri. In pratica, sicerca di individuare la statistica sufficiente minimale cioè quel vettore di dimensio-ne m < n e possibilmente con m = 1 nel caso di un singolo parametro, checontenga le stesse informazioni che ha l’ordinamento statistico su θ. Ricordia-mo che l’ordinamento dei dati l’abbiamo più volte utilizzato nella statistica de-scrittiva ed in particolare nel calcolo dei quartili e nella concentrazione.

Esempio 3Supponiamo di avere un fenomeno X distribuito come una v.c. di Poisson con parametro

λ incognito. Si vuole derivare uno stimatore sufficiente per λ a partire dal campione casualex = (x1 ,..., xn ) estratto da X.

In questo problema risulta θ = λ e

Page 130: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4122

p(x ; λ) = !xex λλ −

e quindi, utilizzando il teorema di fattorizzazione, avremo

p(x1, x2, ..., xn; λ) = ∏=

n

1i

p(x i ; λ) = ∏=

−n

1i i

x

!xei λλ

=

= !x!...x!x

e

n21

nxi λλ −∑

in cui si può identificare

d(x) = ∑=

n

1i

xi ; h(x) =!x!...x!x

1

n21

; g[d(x ) ; λ] = λλ n)x(d e−

Questo vuole dire che lo stimatore

d(X) = ∑=

n

1i

Xi

è sufficiente per λ, ma lo è anche lo stimatore

λ = n1

d(X) = ∑=

n

1in1

Xi

essendo una trasformazione lineare, e quindi biunivoca, di d(X). Si noti che in questo caso λè la media campionaria delle osservazioni.

Si noti che dato un generico θ relativo a X ~ f(x ; θ) e la v.c. campionaria(X1 ,..., Xn ), spesso non si riesce a ricavare, ma molte volte non esiste, uno sti-

matore sufficiente per θ e quando esiste non è unico. Una implicazione di que-sta osservazione è che la sola sufficienza non basta per rendere uno stimatore ac-cettabile.

NON DISTORSIONEUna proprietà molto importante di uno stimatore è la non distorsione:

data la v.c. X~f(x ;θ), con θ incognito, lo stimatore dn (X) = d(X1 ,..., Xn ) è non

distorto per θ se E[dn (X)] = θ, qualsiasi sia n.

Page 131: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 123

In altri termini, d(X) è non distorto per θ se il baricentro della sua distribu-zione coincide proprio con θ, cioè d(X) non sovrastima né sottostima, in m e-dia, il parametro o il vettore di parametri di interesse.

La non distorsione non è invariante, in generale, sotto trasformazioni fun-zionali per cui anche se d(X) è non distorto per θ, di solito, g(d(X)) è distortoper g(θ). Notare che la sola non distorsione non basta per rendere accettabile unostimatore dato che possono esistere stimatori non distorti ma del tutto inaccet-tabili come si mostra nell’esempio che segue.

Esempio 4Sia data la v.c. X~f(x ; µ), con µ la media incognita di X. Sia x = (x1 ,..., xn ) un

campione estratto da X, consideriamo gli stimatori:

µ = ∑=

n

1iiX

n1

= X ; )i(µ = Xi , i=1, ..., n

mostriamo che tutti questi stimatori sono non distorti. Infatti, si ha:

E( µ ) =

=

n

1iiX

n1

E = ∑=

n

1in1

E(Xi ) = µ

E( )i(µ ) = E(Xi ) = µ , i = 1, ..., n

che dimostra quanto avevamo asserito. Notare che µ è la media campionaria.

Si può dimostrare che se uno stimatore possiede entrambe le proprietà cheabbiamo illustrato fino ad ora: sufficienza e non distorsione allora è lo stimatore ot-timale per il parametro incognito nel senso che la sua variabilità è la più piccolapossibile.

Abbiamo visto che uno stimatore dn (X) dipende, oltre che dalle caratteristi-che delle v.c. Xi , anche dalla numerosità n. Può capitare che dn (X) sia distortoma che tale distorsione diventi sempre più piccola al crescere di n. In tal casodiremo che

lo stimatore dn (X) è asintoticamente non distorto per θ se risulta

∞→nlim E[dn (X)] = θ

Page 132: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4124

Naturalmente, uno stimatore non distorto è sempre asintoticamente non d i-storto. Se uno stimatore è distorto se ne può misurare la distorsione

Dn = E( θ ) - θ.

Dn tende a zero se lo stimatore è asintoticamente non distorto, mentre è identi-camente pari a zero se è non distorto. Se è Dn > 0 lo stimatore sovrastima s i-stematicamente il parametro incognito, viceversa se è Dn < 0 lo sottostima s i-stematicamente.

EFFICIENZASia X~f( x ; θ) con θ parametro incognito, sia X = (X1 , X2 , ..., Xn ) la v.c.

campionaria ottenuta da X e dn ( X ) uno stimatore di θ. La quantità

E[(dn (X) - θ) 2]

prende il nome di errore quadratico medio (spesso siglato con MSE) dellostimatore dn ( X ). Risulta immediatamente:

E[(dn ( X ) -θ) 2] = E[dn ( X ) - E(dn ( X )) + E(dn ( X )) - θ] 2 =

= E[(dn ( X ) - E(dn ( X ))) + Dn ] 2=

= E[dn (X) - E(dn (X))] 2+ 2nD +2[dn ( X )-E(dn ( X ))] Dn=

= E[dn (X) - E(dn (X))] 2 + 2nD +

2Dn E[dn ( X )-E(dn ( X ))] = var(dn ( X )) + D 2n

ove nell’ultima espressione si è tenuto conto del fatto che la media degli scartidalla media è sempre nulla. In definitiva abbiamo che, qualsiasi sia lo stimatoredn ( X ) di θ risulta sempre

MSE(dn ) = var(dn ( X )) + D 2n.

In altri termini, MSE(dn ) è la somma di due addendi:

- la varianza dello stimatore: var(dn )

Page 133: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 125

- la distorsione al quadrato dello stimatore: D 2n = [E(dn)-θ]2.

Come si può notare, a parità di altre condizioni, MSE decresce al decrescere della distorsione e coincide con la varianza nel caso in cui lo stimatore è non distorto. Quanto detto ci porta a restringere la classe degli stimatori a quelli non distorti e all’interno di questa ricercare quello, se esiste, che ha varianza minima.

Gli stimatori che sono non distorti e con varianza minima fra quelli non di-storti vengono chiamati efficienti o anche stimatori UMVU (Uniformly Mini-mum Variance Unbiased).

Fra le altre cose, si può dimostrare che se dn(X) è non distorto e sufficiente

per θ allora è anche UMVU. Ma risulta anche che non sempre esistono stima-tori non distorti di un parametro θ che si vuole stimare. E quindi non sempre esistono stimatori efficienti. Esempio 5 Supponiamo di avere una popolazione X che assume i tre valori seguenti 1, 2, 3 e quindi possiede la seguente distribuzione di frequenza

xi 1 2 3 Tot fi 1/3 1/3 1/3 1

In tal caso risulta immediatamente µx= 2, 3/22

x =σ . Vogliamo stimare il parametro θ=µx utilizzando i risultati di un campione estratto bernoullianamente di ampiezza n=2. La v.c. campionaria X=(X1, X2), costituita da tutti i possibili campioni che si possono e-strarre da X, assume in tal coso le seguenti 9 coppie di valori

(1, 1) (1, 2) (1, 3) (2, 1) (2, 2) (2, 3) (3, 1) (3 2) (3, 3)

che implicano la seguente variabile casuale campionaria doppia X = (X1, X2)

x1\x2 1 2 3 pi.

1 1/9 1/9 1/9 1/3 2 1/9 1/9 1/9 1/3 3 1/9 1/9 1/9 1/3 p.j 1/3 1/3 1/3 1

Come si può notare, le marginali X1 e X2 della v.c. campionaria hanno la stessa distribuzio-

Page 134: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4126

ne della popolazione X ed inoltre sono indipendenti dato che risulta pi j = pi. p.j equivalente a1/9=(1/3)( 1/3) per ogni i e j.Per stimare µ usiamo le seguenti 6 funzioni della v.c. campionaria:

11 Xˆ =µ ; )X,Xmin(ˆ 212 =µ ; )X,Xmax(ˆ 213 =µ ;

)XX(ˆ 214 +=µ ; 2/)XX(X 21 += ; 216 XX=µ

ed otteniamo per ciascuno i valori che possono assumere

1µ 1 1 1 2 2 2 3 3 3

2µ 1 1 1 1 2 2 1 2 3

3µ 1 2 3 2 2 3 3 3 3

4µ 2 3 4 3 4 5 4 5 6

X 1 1,5 2 1,5 2 2,5 2 2,5 3

6µ 1 2 3 2 2 6 3 6 3

che implicano le seguenti 6 v.c. per ciascuno degli stimatori considerato

1µ 2µ 3µ 4µ X 6µ

xi pi xi pi xi pi xi pi xi pi xi pi

1 1/3 1 5/9 1 1/9 2 1/9 1 1/9 1 1/92 1/3 2 3/9 2 3/9 3 2/9 1,5 2/9 2 2/92 1/3 3 1/9 3 5/9 4 3/9 2 3/9 3 2/9

1 1 1 5 2/9 2,5 2/9 2 1/96 1/9 3 1/9 6 2/9

1 1 3 1/9 1

Nella tabella che segue riportiamo la media, la varianza e l’errore quadratico medio (MSE)per ciascuno dei 6 stimatori che abbiamo derivato

Stimatore 1µ 2µ 3µ 4µ X 6µ

Media 2 1,5555 2,4444 4 2 1,9101Varianza 0,6666 0,4691 0,4691 1,3333 0,3333 0,3512MSE 0,6666 0,6666 0,6666 5,3333 0,3333 0,3593

Si nota così che i due stimatori 1µ e X sono non distorti, ma che X è il più efficiente dei 6

Page 135: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 127

dato che il suo MSE è il più piccolo. Osserviamo che X è la v.c. media campionaria cioè lamedia costruita sulla v.c. campionaria X =(X1, X2).

Esempio 6Nell’esempio 3 abbiamo visto che se X~P( λ) con λ incognita, uno stimatore sufficiente di

λ è dato da

λ = X = ∑=

n

1iiX

n1

.

D’altro lato risulta

E( λ ) =

=

n

1iiX

n1

E = ∑=

n

1in1

E(Xi) = ∑=

n

1in1 λ = λ .

Questo vuole dire che λ è non distorto e sufficiente per λ e quindi efficiente.

Dato che non sempre esistono stime UMVU si è cercato di costruire sti-matori sotto condizioni meno restrittive. La definizione seguente serve a talescopo

Si dice che dn (X) è efficiente asintoticamente per θ se per ogni altro stimatore*nd (X) questi sono entrambi asintoticamente non distorti e risulta

∞→nlim E [ ]2

))X(d(n n θ− <∞→n

lim E [ ]2

))X(d(n *n θ− , per ogni θ∈Ω.

In termini meno precisi, possiamo dire che dn(X) è asintoticamente efficiente

per θ se la sua variabilità tende a zero più rapidamente della variabilità di qual-

siasi altro stimatore )(d *n X .

Infine, diciamo che dn(X) è più efficiente di )(d *n X se

EFR = 1)d(MSE

)d(MSE*n

n <

Quest’ultima formula permette di calcolare l’efficienza relativa fra due stimato-

ri. Si osservi che nel caso in cui dn e *nd sono entrambi non distorti si ottiene più

semplicemente

Page 136: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4128

EFR = )dvar(

)dvar(*n

n

CONSISTENZAAbbiamo visto che non sempre si riesce a costruire stimatori UMVU per

un parametro di interesse sia perché non si riesce ad individuare uno stimatorenon distorto, sia perché spesso riesce difficile mostrare che questo è sufficiente.Per ottenere stimatori con qualche proprietà ottimale si è spesso costretti a r i-chiedere che soddisfino almeno qualche proprietà asintotica, quella più rilevanteda un punto di vista pratico è la consistenza:

lo stimatore dn(X) è consistente in media quadratica a g(θ) se

∞→nlim E[(dn(X) - g(θ))2] = 0; per ogni θ∈Ω

Questa definizione implica che dn(X) è consistente per g(θ) in media quadraticase contemporaneamente è

∞→nlim var(dn (X)) = 0;

∞→nlim Dn (g(θ)) = 0

Naturalmente, nel caso in cui dn(X) è non distorto per g(θ) la definizione diconsistenza in media quadratica diviene

∞→nlim var(dn (X)) = 0

Da un punto di vista grafico, la consistenza è illustrata nella figura seguente

Page 137: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 129

Esempio 7Data una v.c. X~f(x; µ), con σ2< ∞ , abbiamo visto che X è non distorta per µ

inoltre, tenendo conto che le Xi sono v.c. indipendenti, risulta

var( X ) =

=

n

1iiX

n1

var = ∑=

n

1i2n

1var(Xi ) = ∑

=

n

1i2n

1 σ 2 = n

e quindi X è uno stimatore consistente in media quadratica per la media µ.

Esempio 8Data una v.c. X~f(x ; µ , σ2) dimostriamo che

S 2 = ( )∑=

−n

1i

2i XX

n1

è uno stimatore asintoticamente non distorto e consistente per σ 2.Sappiamo che X è uno stimatore non distorto e consistente per µ. In particolare si ha

n

2σ= var( X ) = E( 2X ) - [E( X )] 2 = E( X 2) - µ 2

da cui si ricava

E( X 2) = n

2σ+ µ 2

D’altra parte abbiamo

E(S 2) =

−∑

=

n

1i

22i XX

n1

E =

= ∑=

n

1in1

E(X 2i ) - E( X 2) = ( ) ∑

=

−n

i

22 XE

n1 µ

e sostituendo in questa espressione quella ricavata per E( X 2) si ottiene

E(S2) = µ2 - n

2σ- µ 2 = σ 2 -

n

2σ= 2

n1n σ−

Page 138: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4130

che dimostra come S2 sia uno stimatore asintoticamente non distorto per σ 2. S2 viene dettavarianza campionaria . Da questo risultato è facile verificare che

s 2 = ( )∑=

−−

n

1i

2i XX

1n1

è uno stimatore non distorto per σ 2.Inoltre si ha

var(S2) = E[(S2) 2] - [E(S2)] 2 = E[(m2 - m21 ) 2] - [E(S2)] 2 =

= E(m 22 ) - 2E(m2 m

21 ) + E(m 4

1 ) - 42

2

n

)1n(σ

ove con

mr = ∑=

n

1in1 r

iX

si è indicato il momento campionario r-esimo. E dopo alcuni passaggi algebrici si può dimo-strare che è

var(S2) =

−−

−+−

1n3n

3n

)1n(23

42

γσ

Questo implica che S 2 è consistente, in media quadratica per σ 2. Ovviamente anche s 2 saràconsistente in media quadratica per σ 2.

Esempio 9Data la v.c. doppia (X,Y) da cui è estratto il campione casuale (Xi , Yi ), i=1, 2 ,...,n ,

il coefficiente di correlazione campionario, come stimatore della correlazione ρ di (X,Y), è datoda

21n

1i

2i

n

1i

2i

n

1iii

)YY()XX(

)YY)(XX(

r

−−

−−=

∑∑

==

=

Si può dimostrare che

Page 139: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 131

∞→nlim var( n r) = (1-ρ2) 2

e quindi r è uno stimatore consistente di ρ.

4.5 Alcuni metodi di costruzione delle stime

Nei paragrafi precedenti abbiamo illustrato alcune proprietà ottimali cheuno stimatore deve possedere per essere considerato accettabile. Inoltre, ricor-rendo all’errore quadratico medio, o alla varianza per gli stimatori non distorti,si è elaborata una procedura capace di discriminare fra diversi stimatori.

In questo paragrafo illustreremo i metodi di stima più utilizzati nelle praticheapplicazioni che ci permettono di ottenere, automaticamente e sotto specificatecondizioni, stimatori che posseggono alcune delle proprietà analizzate. In sintesi,i metodi di stima che verranno presi in considerazione sono:

(a) metodo dei momenti(b) metodo dei minimi quadrati(c) metodo della massima verosimiglianza

In fine, tratteremo brevemente della distribuzione di probabilità di alcuni deipiù noti stimatori. In questo ambito presenteremo due tecniche basate sul riusodel campione (il jackknife ed il bootstrap) per ottenere informazione sulla distri-buzione di probabilità degli stimatori.

METODO DEI MOMENTIQuesto metodo di stima è il più semplice da applicare ed è quello che, per

la sua utilizzazione, richiede un numero limitato di condizioni. Infatti, per utiliz-zarlo non è necessaria la conoscenza della distribuzione della popolazione su cuisi vuole fare inferenza, ma solo delle informazioni sulla struttura di alcuni deisuoi momenti. In pratica, questo metodo di stima viene applicato quando nonè possibile ricorrere ad altri più precisi e potenti. La sua logica può essere illu-strata nel modo seguente. Data la popolazione X~f(x ; θθ ) con θθ = (θ1 ,…,θk )vettore di parametri incogniti e da stimare. Siano

µr = ∫+∞

∞−

x r f(x ; θ) dx , r =1,2,...,k

i primi k momenti teorici della popolazione X che si suppone esistano finiti.Naturalmente tali momenti sono funzione dei parametri incogniti θθ , cioè

Page 140: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4132

µr = µr (θθ ), r=1,2,...,k

Il problema che ci si pone è quello di stimare il vettore dei parametri θθ a parti-re dalla v.c. campionaria X = (X1 ,…, Xn ) estratta da X. Se si suppone di c o-

noscere la forma funzionale µr (θθ ), r =1, 2, …, k , indicando con

mr = ∑=

n

1in1 r

iX , r = 1 , 2 ,…, k

i momenti campionari, uno stimatore di θθ può essere ottenuto risolvendo ri-spetto a θθ il seguente sistema di k equazioni in k incognite

==

====

kk

22

11

m)(...................

m)(

m)(

θθ

θθθθ

µ

µµ

Se indichiamo con θθ (( ))kˆˆ θθ ,....,1== una soluzione del sistema, questa rappre-

senta uno stimatore di θθ ottenuto con il metodo dei momenti.

Esempio 10Se X=(X1 ,…, Xn ) è la variabile campionaria generata da un campione casuale estratto dauna qualsiasi v.c. X si ha

µ1 = ∑=

n

1in1

Xi = X

e quindi m1 = X è lo stimatore della media, se esiste, della v.c. X ottenuto con il metodo deimomenti.

Un limite del metodo dei momenti è che bisogna, a priori, conoscere i l e-gami che esistono fra i parametri da stimare ed i momenti della v.c. di cui sivogliono stimare i parametri. L’uso di questo metodo di stima non richiede laconoscenza della distribuzione della v.c., ma solo quella della forma funzionaledei primi k momenti in funzione dei parametri che vogliamo stimare. Inoltre, èun metodo di stima facilmente applicabile e quindi può essere utilizzato per g e-nerare stime preliminari. Il sistema da risolvere è, in generale, non lineare edammette spesso più di una soluzione; in tali casi è necessario utilizzare un qual-che criterio di scelta come l’errore quadratico medio.Si può dimostrare che glistimatori ottenuti con il metodo dei momenti sono, in generale, distorti.

Si può dimostrare che se la v.c. X di cui vogliamo stimare i parametri am-mette i momenti fino all’ordine k, gli stimatori ottenuti con il metodo dei mo-

Page 141: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 133

menti sono consistenti.

Esempio 11Data una qualsiasi v.c. X con i primi due momenti finiti, si voglia stimare media e v a-

rianza di tale v.c. utilizzando il metodo dei momenti. Dato che è µ1 = µ e µ2 = µ 2 +

σ 2 si ottiene il sistema seguente

=+

=

222

1

m

m

σµ

µ

da cui si ricavaµ = X

2σ = ∑ ∑= =

=−=−n

1i

n

1i

22i

22i S)XX(

n1

XXn1

e, come è ben noto, X è non distorto e consistente per µ, mentre 2σ è consistente ed asintoti-camente non distorto per σ 2. Ricordiamo che lo stimatore non distorto di σ 2

s 2 = ∑=

−−

n

1i

2i )XX(

1n1

non è uno stimatore dei momenti.

Con il metodo dei momenti si può ottenere, facilmente, lo stimatore diqualsiasi momento della v.c. X senza conoscere la forma funzionale della f.d. diX. Infatti, lo stimatore dei momenti di µr , se esiste, è dato da

mr = rµ = ∑=

n

1i

riX

n1

che risulta essere non distorto e consistente per µr .

METODO DEI MINIMI QUADRATIQuesto metodo, che viene fatto risalire a Gauss, è largamente utilizzato per

la stima dei parametri specie nell’ambito della modellistica econometrica. Il suosuccesso e la sua conseguente diffusione sono legati, sia ad alcune proprietà chei relativi stimatori, in date circostanze, posseggono, sia alla sua facilità di applica-zione.

Page 142: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4134

Per illustrare la logica di tale metodo supponiamo di avere la v.c. X, la cuidistribuzione di probabilità dipende dal parametro θ da stimare, e la v.c. cam-pionaria X = (X1 ,…, Xn ) estratta da X. Supponiamo, inoltre, che sia

E(X) = g(θ)In tali condizioni si ha

E(Xi ) = g(θθ ), i = 1 , 2 , ..., n

questo implica che gli scarti

ei = Xi - g(θθ ), i = 1 , 2 , ..., n

rappresentano le deviazioni dalla media che si riscontrano nelle osservazionicampionarie. Ovviamente risulta

E(ei) = E(Xi ) - g(θθ ) = 0, i = 1 , 2 , ..., n

Da quanto abbiamo detto sembra naturale scegliere come stimatore di θ quelvalore che minimizza la somma dei quadrati degli scarti, cioè

[ ]∑ ∑= =

=−=n

1i

n

1i

2i

2i min)(gXe

θθ .

Lo stimatore così ottenuto viene chiamato dei minimi quadrati (o anche LSE:Least Square Estimation).

Questo metodo può essere facilmente generalizzato al caso in cui si vuolestimare un vettore di p parametri incogniti e le informazioni di cui si disponenon sono necessariamente indipendenti ed identicamente distribuite. Questoaspetto più generale lo tratteremo nell’ultimo capitolo quando illustreremo ilmodello di regressione.

Per l’applicazione di questo metodo non è necessaria la conoscenza della d i-stribuzione della popolazione, ma solo la forma funzionale di

E(Xi ) = gi ( )Gli stimatori ottenuti con tale metodo sono, in generale, consistenti ma non ipiù efficienti.

Esempio 12Data la v.c. Y con distribuzione dipendente dal parametro θ e tale che sia E(Y) = θ ed

Page 143: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 135

E(Yi ) = θ, i=1,2,…,n, stimiamo θ con il metodo dei minimi quadrati. In tal caso si ha

∑ ∑ =−= imomin)Y(e 2i

2i θ

da cui si ricava

∑∑ =−−= 0)Y(2edd

i2i θ

θ

e lo stimatore LS per θ è dato da

YYn1ˆ

i == ∑θ

Notare che in questo caso è

∑ 2i2

2

ed

d

θ= 2n > 0

e quindi effettivamente θ minimizza la somma dei quadrati degli scarti. Notare che lo sti-matore della media ottenuta con il metodo dei minimi quadrati coincide con quello ottenuto conil metodo dei momenti.

METODO DI MASSIMA VEROSIMIGLIANZAAnche l’idea originaria di questo metodo di stima, pure in un contesto diffe-

rente, pare sia da attribuire a Gauss anche se è stato Fisher ad investigarne leproprietà ed a divulgarlo. Gli stimatori generati da tale metodo vengono di s o-lito indicati con MLE (Maximum Likelihood Estimators) ed hanno una grande rile-vanza sia sul piano teorico che operativo dato che, generalmente, fornisconostimatori abbastanza accettabili per le numerose proprietà, spesso di tipo asin-totico, che posseggono. L’uso di questo metodo di stima, a differenza diquanto accade con quello dei minimi quadrati, richiede la conoscenza della d i-stribuzione della v.c. di cui vogliamo stimare i parametri.

Data la v.c. X con distribuzione di probabilità o funzione di densità f(x ; θ)nota a meno di θ, con θ ∈ Ω, la distribuzione di probabilità (nel caso discreto)o la funzione di densità (nel caso continuo) della v.c. campionaria X = (X1 , X2 ,..., Xn ) generata da n estrazioni bernoulliane da X è data da

f(x1 , x2 , ..., xn ) = f(x1 ; θ) f(x2 ; θ) ... f(xn ; θ)

vista come funzione della n-pla x = ( x1 , x2 , ... , xn ). La stessa funzione si

chiama funzione di verosimiglianza se vista come funzione di θ e si indica con

Page 144: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4136

L(θ ; x) = ∏=

n

1i

f(xi ; θ)

in questo caso (x1 , x2 , ..., xn ) è noto e rappresenta gli n valori che il campionecasuale ha effettivamente assunti. Notare che la funzione di verosimiglianza èfunzione solo di θ ed è sempre non negativa dato che è il prodotto di n fun-zioni di densità.

Data la v.c. X con distribuzione f(x ; θ ) nota a meno di θ su cui è stata c o-struita la funzione di verosimiglianza L(θ ; x), si chiama stimatore ML di θ

quel θ tale che

L(θ ; x) =Ωθ∈

max L(θ ; x) = ∏=

n

1i

maxΩθ

f(xi ; θ )

E' da notare che la definizione di stima ML è equivalente a

L(θ ; x) ≥ L(θ ; x), ∀ θ ∈ Ω;

L(θ ; x) > L(θ ; x), per almeno un θ;

Se la v.c. X è discreta e quindi f(xi ; θ) = P(Xi = xi ; θ), risulta

L(θ ; x) = Ωθ ∈

max P(X1 = x1 , X2 = x2 ,…, Xn = xn ; θ)

e nella stima ML bisogna scegliere quel θ per cui è massima la probabilità che sipresenti proprio il campione che è stato estratto. Se X è continua si ha

f(x i ; θ)d xi = P(xi ≤ Xi < xi + d xi ; θ)

che implica una interpretazione identica al caso discreto. Le definizioni sopradate, e le relative interpretazioni, continuano a valere anche quando θ è un vet-tore di parametri. Nella figura seguente è schematizzata l’individuazione dellastima di massima verosimiglianza come individuazione del massimo assolutonella funzione di verosimiglianza.

Come abbiamo sottolineato, e come è illustrato nella figura che segue, nellascelta della stima ML non è importante quanto vale il massimo della funzionedi verosimiglianza, ma dove questo è localizzato. Se invece di L(θ ; x) conside-riamo il suo logaritmo, essendo la funzione logaritmo monotona crescente, i

Page 145: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 137

punti dove la funzione è massima o minima rimangono immutati. Questo vuoledire che L(θ ; x) e logL(θ ; x) forniscono esattamente la stessa stima ML. Spessosi preferisce ricercare le stime ML massimizzando logL(θ ; x) perché questo nesemplifica la procedura:

l( θ ; x) = logL( θ ; x) = ∑=1

n

i

log f(xi ; θ)

*

Riportiamo, senza dimostrazione, una serie di risultati che caratterizzano glistimatori ML e ne giustificano il loro largo uso.

TeoremaSotto condizioni molto generali risulta che:

(a) se T è l’unica, a meno di trasformazioni uno ad uno, statistica suffi-

ciente per θ e se θ è lo stimatore ML di θ allora θ è funzione di T;

(b) se θ* è uno stimatore UMVU di θ allora lo stimatore ML è fun-zione di θ*;

(c) θ è l’unico stimatore ML consistente di θ;

(d) gli stimatori ML sono asintoticamente normali;

(e) se θ è uno stimatore ML di θ allora g(θ ) è uno stimatore ML di g( θ), qualsiasi sia la funzione g( ⋅).

L’importanza del punto (e) sopra riportato è evidente dato che permette diottenere stimatori ML, con le relative proprietà, come funzioni di altri stimatoriML. In particolare, se si vuole stimare g(θ) e questo è complicato, si può stima-

re θ con ML ottenendo θ , che spesso risulta di più facile derivazione, e quindi

Page 146: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4138

risalire a g( θ ) che è sicuramente uno stimatore ML di g( θ). I risultati stabilitinel caso di stima ML di un solo parametro possono essere estesi, con qualchecomplicazione in più, al caso di più parametri.

Esempio 13Supponiamo che sia X ~ N(µ ; σ 2) con µ e σ 2 incogniti, si vuole stimare tali para-

metri con il metodo della massima verosimiglianza utilizzando il campione x = (x1 ,…, xn )estratto da X.

Dato che

f(x ; µ , σ2) = 22

1

πσexp

−− 2

2 )x(2

1 µσ

la funzione di verosimiglianza risulta pari a

L(µ , σ 2; x)= ∏=

n

1i

2 )2( πσ -1/2 exp

−− 2

i2 )x(2

1 µσ

=

= (2πσ 2)-n/2exp

−− ∑ 2

i2 )x(2

1 µσ

e prendendone il logaritmo si ha

log L(µ , σ2; x) = 2n− log(2π)

2n− log(σ 2) ( )2

i2 x2

1 ∑ −− µσ

Derivando quest'ultima espressione rispetto a µ e σ 2 ed uguagliando a zero si ottiene il s e-guente sistema di due equazioni in due incognite:

=−+−

=−

0)x(2

112n

0)x(1

2i42

i2

µσσ

µσ

da cui, dopo alcuni semplici passaggi, si ottengono gli stimatori ML

Page 147: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 139

=−=

==

∑22

i2

i

S)XX(n1ˆ

XXn1ˆ

σ

µ

che, in questo caso particolare, coincidono con quelli dei momenti.

Se le osservazioni xi , i=1,2,…,n, pur essendo indipendenti non sono identi-

camente distribuite, e quindi la distribuzione di Xi è fi (xi ; θ), allora la funzionedi verosimiglianza diviene

L( θ ; x) = ∏=

n

1i

fi (xi ; θ)

e le proprietà degli stimatori ML non risultano più vere, in particolare non èvero neanche che tali stimatori sono, in generale, consistenti.

4.6 La distribuzione di probabilità di alcuni stimatori campionari

Prima di entrare nel merito delle tecniche che presenteremo, notiamo chenell’inferenza statistica si possono, schematicamente, individuare due momentidistinti:

IIl momento della stima di

una quantità statistica

IIIl momento della valutazionedelle proprietà della quantità

statistica stimata

L’ambito in cui ci muoveremo in questo e nel prossimo paragrafo è essen-zialmente il II: valutare le proprietà statistiche di una quantità stimata con uno deimetodi disponibili. In questo paragrafo l’attenzione è rivolta ad alcuni semplicimetodi analitici utilizzabili per derivare la distribuzione di alcuni stimatori comequelli della media, della varianza, della correlazione, mentre nel prossimo tratte-remo di due procedure numeriche basate su particolari tecniche di ricampio-namento dei dati osservati per derivare la distribuzione, praticamente, di tutti glistimatori che si incontrano nelle applicazioni correnti.

Abbiamo visto che, data una v.c. X con µ e σ 2 finite ma incognite, deglistimatori accettabili di questi parametri sono:

Page 148: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4140

X = 1n ∑

i=1

n

Xi per µ

eM = MedianaX1 , ..., Xn per Me

2σ = ( )∑=

−n

1i

2iX

n1 µ per σ 2, se µ è nota

s 2 = ( )∑=

−−

n

1i

2i XX

1n1

per σ 2, se µ è incognita

e che data una v.c. doppia (X,Y), uno stimatore accettabile del coefficiente dicorrelazione ρ è quello campionario

21n

1i

2i

n

1i

2i

n

1iii

)YY()XX(

)YY)(XX(

r

−−

−−=

∑∑

==

=

Dato che questi stimatori sono delle v.c. con distribuzione di probabilità di-pendente da quella della v.c. di partenza, sorge il problema di derivare, inmodo esatto o approssimato, la loro distribuzione in modo da potere inferiresulle relative proprietà statistiche.

DISTRIBUZIONE DI PROBABILITÀ DELLA MEDIA CAMPIONARIAData la v.c. X con media e varianza finite, supponiamo che σ 2 sia nota.

Uno stimatore accettabile di µ è la media campionaria

∑=

=n

1iiX

n1

X

ove le Xi sono, per costruzione indipendenti, inoltre sappiamo che

E( X ) = µ ; var( X ) = σ2

n

che ci permettono di costruire la v.c. standardizzata

Page 149: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 141

σ

µµ ∑ −=−=

)X(n

)Xvar(

XZ i

ed applicando il teorema limite centrale si ha

Z →→L N(0,1)

Questo vuole dire che se n è sufficientemente grande, in pratica basta che sian≥ 30, qualsiasi sia la distribuzione di X risulta

X ≈

n;N

2σµ

Nel caso particolare, ma di grande rilevanza applicata, in cui è X~N(µ, σ2) se-gue immediatamente che, per una delle proprietà delle v.c. normali (una tra-sformazione lineare di normali indipendenti è ancora una normale) risulta

X ~

n;N

2σµ

qualsiasi sia n.

In definitiva, possiamo affermare che qualsiasi sia la distribuzione di parten-za da cui è estratto il campione, se questa possiede media e varianza finita, allo-

ra la media campionaria X , per n sufficientemente grande, può essere appros-

simata da una v.c. normale con media µ e varianza σ 2/n.

Nelle due pagine seguenti mostriamo la distribuzione effettiva di X apartire da v.c. note ma molto diverse fra di loro. I grafici vanno letti per c o-lonna.

Page 150: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4142

Distribuzione della v.c. X

Distribuzione di X per n=2

Distribuzione di X per n=4

Distribuzione di X per n=25

Page 151: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 143

Distribuzione della v.c. X

Distribuzione di X per n=2

Distribuzione di X per n=4

Distribuzione di X per n=25

Page 152: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4144

Le figure delle due pagine precedenti mostrano quanto sia potente, nel casodello stimatore della media, il Teorema del Limite Centrale. Infatti, partendoda distribuzioni molto diverse (triangolare, uniforme, esponenziale, a forma diU), per n=25 si ottiene una distribuzione che è molto simile a quella della nor-male.

Il risultato precedente può essere facilmente esteso al caso di trasformazionidi X . Infatti, si può dimostrare che data la trasformazione Y = g( X ), se g(⋅)ha derivata prima g’(µ) non nulla in µ, posto

v 2 = σ 2[g’(µ)] 2

si ha

Y = g( X ) ≈ N

n

v),u(g

2

cioè lo stimatore g( X ) di g(µ) è, per n sufficientemente grande, approssimati-

vamente normale con media g(µ) e varianza v 2/n.In definitiva, possiamo affermare che la distribuzione di X o di una sua tra-

sformata regolare g( X ) è sempre, in modo esatto o approssimata, normale.

DISTRIBUZIONE DI PROBABILITÀ DEI PERCENTILI CAMPIONARIData una v.c. X continua, e quindi con f.d. f(x), indichiamo con Qp il

p-esimo percentile di X cioè tale da soddisfare l’equazione seguente

∫∞−

pQ

f(x) dx = p,

e con pQ la relativa stima ottenuta sul campione e definita nel modo seguente

−≥≥

≥≤

p1]Qniosservazioeproporzion[

p]Qniosservazioeproporzion[:Q

p

p

p

Se pQ è unico si dimostra (teorema di Glivenko-Cantelli) che

Page 153: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 145

( ) NQQn Lpp →−

−2

p )]Q(f[

)p1(p;0 .

In altri termini, sotto le condizioni sopra riportate, se n è sufficientemente gran-de (in pratica deve essere n ≥ 80) risulta

pQ ≈ N

−2

pp

)]Q(f[n

)p1(p;Q

Si noti che per p=0.5 il relativo percentile è la mediana, per p=0.25 è il primo

quartile, per p=0.75 è il terzo quartile. Si osservi che pQ è asintoticamente non

distorta e consistente per Qp .

DISTRIBUZIONE DELLA VARIANZA CAMPIONARIADistinguiamo due diverse situazioni

(A) Caso di µ nota

Supponiamo che la v.c. X abbia media µ nota e varianza σ 2 incognita e mo-

menti µ3 e µ4 finiti, in tal caso uno stimatore accettabile di σ 2 è

2σ = ∑=

−n

1i

2i )X(

n1 µ

Dato che le v.c. (Xi - µ)2 sono indipendenti per costruzione ed hanno media evarianza finita per ipotesi, applicando il teorema limite centrale per n sufficien-temente grande risulta

( ))ˆvar(;ˆNˆ 222 σσσ ≈con

var( 2σ ) = ∑=

n

1i2n

1var((Xi - µ) 2) =

n1

var[( X - µ) 2]

= n1

[µ4 - 4µ3 µ + 6µ2 µ 2 - 3µ 4- σ 4]

Nel caso particolare in cui è X~N(µ; σ 2) da 2σ si ottiene

Page 154: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4146

2

2ˆn

σ

σ=

2n

1i

iX∑=

σµ

e per costruzione (Xi - µ)/σ = Zi è una normale standardizzata per cui

2

2ˆnσσ

= ∑=

n

1i

2iZ ~ 2

nχ .

In altri termini, se la variabile casuale X è normale allora 2σ è proporzionale aduna v.c. Chi-quadrato con n gradi di libertà, inoltre risulta immediatamente

E( 2σ ) nn

E2

2n

2 σχσ =

= E( χ2

n ) = σ 2

var( 2σ ) = =

2n

2

nvar χσ

2

4

n

σvar( χ2

n ) =n

2 4σ.

(B) Caso di µ incognita

In questa situazione, uno stimatore accettabile di σ 2 è dato da:

S2 = ∑=

−n

1i

2i )XX(

n1

e vale il seguente

TeoremaSe X~N(µ ; σ2) allora

2

S2 ~ 21n −χ ; X ~ N

n

,2σµ

con X e S2 indipendenti. Una conclusione analoga si ha se al posto di S2 si con-

sidera lo stimatore ottimale s 2.

Page 155: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 147

Questo risultato è di grande importanza pratica perché ci permette di deri-varne altri di notevole interesse. In particolare, dato che

σµ )X(n −

~ N(0; 1); 22 s1n

σ−

~ 21n −χ

e queste v.c. sono indipendenti, segue immediatamente che

t = =

−−

)1n(

)1;0(N2

1nχ sn)X(

1ns1n

1n)X(2

2

µ

σ

σµ −

=

−−

−~ T(n-1)

Cioè, t si distribuisce, al variare del campione nell’universo campionario, comeuna v.c. T di Student con (n-1) gradi di libertà. Come si può notare, la v.c.

sn)X( µ−

ha una distribuzione indipendente dai parametri incogniti µ e σ2, per questoviene detta pivotale.

DISTRIBUZIONE DELLA CORRELAZIONE CAMPIONARIAAbbiamo visto che, data una v.c. doppia (X, Y) una stima accettabile della

correlazione fra X ed Y è data dalla correlazione campionaria la cui distribu-zione è derivata nei teoremi seguenti:

Teorema

Data la v.c. (X, Y) ~ N2 ( µx , µy , σ2x , σ 2

y , ρ ) con correlazione ρ = 0, sia

(Xi , Yi ), i = 1,2,…,n, la v.c. campionaria estratta da (X , Y), sia r la stima cam-

pionaria di ρ, si dimostra che

2r1

2nr

−−

~ T(n-2) .

Osserviamo che in questo caso X ed Y sono indipendenti.

Teorema

Data la v.c. (X , Y) ~ N2 ( µx , µy , σ2x , σ 2

y , ρ), con correlazione ρ ≠ 0, se

Page 156: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4148

(Xi ,Yi ), i =1, 2, …, n, è la v.c. campionaria estratta da (X, Y), posto

Z =

−+

r1r1

log21

; pz =

−+

ρρ

11

log21

per n moderatamente grande risulta

(Z - pz ) ≈ N

−+− )1n(2

41n

1;0

E’ facile verificare che

3n1

)1n(24

1n1 4

−≈

−−+

−ρ

4.7 Due metodi di inferenza basati sul ricampionamento

Nel paragrafo precedente abbiamo derivato, in modo esatto o approssi-mato, la distribuzione degli stimatori della media, dei percentili, della varianza edella correlazione utilizzando procedure di tipo analitico. Di solito queste pro-cedure, esclusi i semplici casi sopra analizzati, richiedono assunzioni molto r e-strittive come la normalità di X, ma anche sotto questa assunzione, in molti casi,la distribuzione che si conosce è solo di tipo asintotico, quando si riesce a deri-varla, e spesso non è analiticamente trattabile. Qui di seguito presentiamo dueprocedure che forniscono informazioni sulla distribuzione di probabilità dellostimatore riutilizzando ripetutamente i dati campionari.

Le procedure di riuso del campione, ed in particolare le metodologie chevanno sotto il nome di Bootstrap e Jackknife, hanno assunto nei problemi di infe-renza un ruolo sempre più rilevante come vie alternative a quella analitica classi-ca. Questo ha portato alla comparsa di un numero sempre più rilevante di l a-vori nella letteratura internazionale sia di tipo teorico che applicato sulle meto-dologie citate. Una caratteristica specifica su cui poggiano queste tecniche di r i-campionamento, ed il Bootstrap in particolare, è la simulazione con metodi MonteCarlo di una procedura statistica, utilizzando il minor numero possibile di a s-sunzioni a priori.

Nel seguito porremo maggiore attenzione alla procedura Bootstrap nellaversione non parametrica, che è quella che riserva i maggiori sviluppi ed i piùinteressanti sbocchi applicativi, e la problematica ad essa connessa, e a quellaJackknife per la sua semplicità d’uso e per le relazioni che questa ha con il

Page 157: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 149

Bootstrap. Più in particolare:- data la variabile casuale o popolazione X con f.r. F(x ; θ), con θ para-

metro incognito di interesse;- sia X=(X1 ,…,Xn ) la v.c. campionaria estratta da X;

- sia nθ = θ(X) uno stimatore di θ ottenuto con uno dei metodi classici distima,

si vuole inferire sulle proprietà statistiche di nθ come stimatore di θ. Da unpunto di vista statistico ciò può volere dire, per esempio:

(a) ottenere una stima di var( nθ )

(b) fissate le costanti a e b, e ottenere una stima di Pa ≤ nθ -θ ≤ b

(c) trovare le quantità σ , )1(x α− , )(x α di modo che sia

Pθ ∈ [ nθ - n-1/2 σ )1(x α− ; nθ - n-1/2 σ )(x α ] = 1-2α.

La soluzione a problemi del tipo sopra esposti può essere ottenuta con duediversi approcci: (i) tenuto conto delle caratteristiche di X, delle informazioni contenute in

X=(X1 ,...,Xn ), del problema che si vuole risolvere, si deriva analiticamente, in

modo esatto o asintotico, la distribuzione di Rn (funzione monotona di nθ )e la si usa per ottenere risposte ai problemi del tipo (a)-(c). Questa imposta-zione è stata seguita nel paragrafo precedente.I casi più noti di statistiche Rn sono

Rn (x ;θ ) = nθ - θ

Rn (x ; θ ) = n

ns

ˆ θθ −

con sn stima dello scarto quadratico medio di nθ ; (ii) in molte situazioni è difficile o impossibile ottenere la distribuzione di pro-

babilità di Rn , altre volte l’approssimazione asintotica che si ottiene è nonsoddisfacente specie per piccoli campioni. In questi casi si può tentare distimare la distribuzione di R n con metodi di simulazione Monte Carlo basati

Page 158: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4150

sul ricampionamento da X=(X1 ,...,Xn ). Le procedure Bootstrap e Jackknifesono di questo tipo.

Qui di seguito presentiamo sinteticamente le due procedure nella loro ver-sione originaria.

LA PROCEDURA JACKKNIFEQuesta procedura è stata proposta per la prima volta da Quenouille nel

1956 e ripresa e generalizzata da Tukey nel 1958. E’ una procedura nata, edusata per molti anni, essenzialmente per ridurre o eliminare la distorsione pre-sente in alcuni stimatori. Successivamente il suo uso è stato esteso alla stimadella varianza di stimatori ed infine per derivare una distribuzione approssimatadello stimatore o di una sua trasformazione.

Dato il campione x=(x1 ,…,xn ) e la stima nθ = θ(x) di θ, costruiamo le

stime )i(θ = θ(x(i) ), i=1, 2 ,…, n, ove

x(i) = x escluso xi .

Le n stime )i(θ rappresentano la distribuzione Jackknife di nθ , queste vengono

utilizzate per ottenere stime Jackknife di θ, della distorsione e della varianza di

nθ . Più in particolare,

(i) la stima Jackknife di θ basata su nθ è

)(Jˆ

⋅θ = ∑=

n

1i)i(

ˆn1 θ ;

(ii) la stima della distorsione di nθ è

d J ( nθ ) = (n-1) ( )(Jˆ

⋅θ - nθ )

si dimostra che questa stima, sotto condizioni non eccessivamente restrittive,

è non distorta per la distorsione vera di nθ

(iii) la stima Jackknife corretta di θ basata su nθ risulta

( )n(.)JnJˆˆ)1n(ˆˆ θθθθ −−−= = )(J

ˆ⋅θ - n ( )n)(J

ˆˆ θθ −⋅ =

Page 159: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 151

= [ ] ( )[ ]∑ ∑= =

−+=−−n

1i

n

1i)i(n)i()i(n

ˆˆnˆn1ˆ)1n(ˆn

n1 θθθθθ ;

(iv) la stima Jackknife della varianza di nθ è data da

( ) [ ]∑=

−−=n

1i

2(.)J)i(n

2J

ˆˆn

1nˆV θθθ

(v) Tukey nel 1958 ipotizzò che

( )nJ

nJJ ˆV

ˆˆt

θ

θθ −=

potesse essere approssimata con una v.c. normale standardizzata. Altri auto-ri come Arvesen, Beran, Miller, Sen dimostrarono che l’ipotesi di Tukey èvera sotto condizioni.

E’ importante osservare che la procedura Jackknife per la stima della va-

rianza di nθ non sempre fornisce risultati accettabili. Per esempio tale stima, ameno di non considerare generalizzazioni particolari del Jackknife qui non pre-sentate, non è consistente per la varianza della mediana campionaria e per i per-centili campionari in generale.

Esempio 14

Sia θ = µ e Xˆn =θ lo stimatore di µ. In questo caso è noto che

E( X ) = µ; var( X ) = σ2/n

ed una stima non distorta di var( X ) è

var^ (x- ) =n

s 2 con s 2 = ∑

=−

n

1i

2ni )ˆx(

1n1 θ .

Se si utilizza la procedura Jackknife si ottiene

Page 160: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 4152

∑ ∑≠ = −

−=−

−−

=−

=n

ij

n

1j

iijj)i( 1n

xxnx

1n1

xn1

1nn

x1n

1x

e quindi

∑=

=−−

==n

1i

2

)i((.)J x)1n(n

xnxnx

n1

x

mentre è

0)xx()1n()x(d (.)JJ =−−= .

In definitiva, in questo caso si haxxx J(.)J ==

Per la stima Jackknife della varianza di x si ottiene:

[ ]2n

1i

in

1i

2(.)J)j(J x

1n

xxn

n1n

xxn

1n)x(V ∑∑

==

−−−=−−= =

= [ ]∑∑==

=−−

=

−−− n

1i

22

i

2n

1i

i

ns

xx1n

1n1

1n

xx

n1n

.

Come si può notare, in questo caso particolare, l’uso della proceduraJackknife genera gli stessi stimatori di quella classica. Naturalmente questo nonsuccede in generale.

LA PROCEDURA BOOTSTRAPQuesta procedura è una generalizzazione di quella Jackknife. E’ stata propo-

sta per la prima volta da Efron nel 1979. Ripresa da altri ricercatori, oltre allostesso Efron, è stata via via approfondita ed applicata a numerose situazioniconcrete.

Dato il campione x = (x1 ,…, xn), estratto bernoullianamente dalla v.c. X

con funzione di ripartizione F(x ;θ), data la stima nθ =θ(x) di θ, si estraggono

con rimessa da x i campioni *B

*2

*1 ,...,, xxx e si calcolano le stime di θ:

)(,...,)(ˆ,)(ˆ *B

*B

*2

*2

*1

*1 xxx θθθθθθ ===

Page 161: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Elementi di teoria della stima parametrica 153

le B stime *bθ rappresentano la distribuzione Bootstrap di nθ e vengono uti-

lizzate per ottenere:

(i) la stima Bootstrap di θ tramite

∑=

=B

1i

*bB

ˆB1ˆ θθ

(ii) la stima Bootstrap della varianza di nθ utilizzando la seguente

( ) [ ]2B

1bB

*bnB

ˆ1B

1ˆV ∑=

−−

= θθθ

(iii) si ipotizza che

( )[ ] 2/1

nB

nBB ˆV

ˆˆt

θ

θθ −=

si distribuisce asintoticamente come una normale standardizzata. Efron, Bickel,Hall fissano le condizioni, che risultano essere molto generali, per cui una taleaffermazione è vera.

Page 162: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano
Page 163: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5

INTRODUZIONE AL TEST DELLE IPOTESI

5.1 Introduzione

Il problema che affronteremo qui di seguito è uno dei più importanti per laStatistica sia da un punto di vista teorico che applicativo: cercare una regola chepermetta di decidere se, dato un certo prefissato livello di probabilità di com-mettere uno specificato errore, sia da accettare o da rifiutare una ipotesi for-mulata su una data v.c. o popolazione. Più precisamente, la problematica puòessere formalizzata nel modo seguente. Supponiamo di avere un fenomeno de-scritto da una v.c. X con distribuzione di probabilità (o funzione di densità, nelcaso continuo) f(x ; θ), con:

a) f( . ; θ) nota e θ∈Ω incognito (caso parametrico)

b) f( . ) incognita (caso non parametrico).

Nel seguito tratteremo più dettagliatamente del caso parametrico, ma nontralasceremo di fornire alcuni utili strumenti per quello non parametrico.

Supponiamo di agire in un ambito parametrico e di voler analizzare un fe-nomeno X che è distribuito secondo una legge probabilistica f(x ; θ) nota a me-no di θ. Supponiamo di aver estratto da X il campione xn = (x1 ,…,xn ). For-

muliamo le seguenti ipotesi su θ e quindi sulla struttura probabilistica di X

Ho : θ ∈ Θo verso H1 : θ ∈ Θ1

con Θo ∩ Θ1 = Ø e tali che Θo ∪ Θ1 = Ω. Bisogna individuare una strategia ot-timale in modo da poter decidere se è da accettare o rifiutare l’ipotesi Ho . Dato

che θ è incognito non sapremo mai se è vera Ho oppure è vera H1 ; potremo

Page 164: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5156

dire solo che Ho è vera con un certo livello di probabilità. L’insieme Ω viene

detto insieme parametrico generato da θ; mentre le ipotesi Ho ed H1 sopra r i-portate si chiamano rispettivamente ipotesi nulla ed alternativa. Nel caso parti-colare in cui Θo si riduce ad un solo punto, Ho si chiama ipotesi semplice. Una

considerazione analoga vale per Θ1 e H1 .La decisione per stabilire se Ho è da rifiutare o accettare (in favore di H1)

viene presa utilizzando le informazioni campionarie contenute in xn = (x1 ,…,xn ). Al variare di tutti i possibili campioni, fissata la numerosità campionaria n,si ottiene la v.c. campionaria Xn = (X1 ,…, Xn ) che descrive un insieme, chia-miamolo C, detto spazio campionario. Il problema del test è di individuare inC una regione C1 per cui se il particolare campione xn = (x1 ,…, xn ) di cui sidispone appartiene a C1 si rifiuta Ho, mentre se appartiene all’insieme comple-mentare Co = C - C1 non si può rifiutare Ho. Come si vede, la decisione se r i-fiutare o meno Ho viene presa sullo spazio campionario, ma viene fatta valereper quello parametrico. Schematicamente questo processo decisionale è rappre-sentato nella figura seguente:

Dato che non sappiamo in quale regione θ cade, le possibili consche si possono avere nel rifiutare o accettare Ho sono le seguenti:

E1 = si rifiuta Ho , mentre in realtà Ho è veraE2 = si accetta Ho , mentre in realtà Ho è falsaG1= si accetta Ho , che è effettivamente veraG2= si rifiuta Ho , che è effettivamente falsa.

Come si vede le prime due delle quattro conseguenze possibili son

eguenze

o errori,

Page 165: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 157

mentre le seconde due danno luogo a decisioni giuste. Da un punto di vistaformale questi quattro possibili risultati sono degli eventi condizionati e si pos-sono scrivere:

E1 = (X n ∈ C1|θ ∈ Θo )

E2 = (X n ∈ C-C1|θ ∈ Θ1 )

G1 = (X n ∈ C-C1|θ ∈ Θo )

G2 = (X n ∈ C1|θ ∈ Θ1 ).

L’evento E1 prende il nome di errore del primo tipo, l’evento E2 prende il nome dierrore del secondo tipo.

Di solito, l’errore del primo tipo viene considerato più rilevante per le con-seguenze pratiche che può portare e quindi si cerca di controllarlo in qualchemodo. Notiamo, infine che

G1 = E 1 ; G2 = E2 .

Dato che E1 , E2 , G1 , G2 sono degli eventi, essendo funzione della v.c. cam-pionaria X n, ammetteranno una qualche probabilità e precisamente:

P(E1 ) = P( X n ∈ C1|θ ∈ Θo ) = α(C1 ; θ)

P(E2 ) = P( X n ∈ C-C1|θ ∈ Θ1 ) = β(C1 ; θ)

Naturalmente risulta

P(G1 ) = 1 - α(C1 ; θ)

P(G2 ) = 1 - β(C1 ; θ)

La probabilità dell’errore del primo tipo α(C1 ; θ) viene chiamata livello di

significatività del test. La probabilità di G2 , indicata di solito con π(C1 ; θ) = 1 -

β(C1 ; θ), viene chiamata potenza del test. La regione C1 viene chiamata regione cri-tica, mentre Co viene detta regione di accettazione.

Come si può notare, i due errori sono funzione della regione critica e delvalore vero di θ . L’ipotesi Ho riflette, in generale, la situazione prima chel’esperimento (l’estrazione del campione di n elementi) venga effettuato nel sen-so che se si accetta Ho la situazione rimane immutata. In questa impostazione

Page 166: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5158

bisogna cautelarsi dalle conseguenze che si hanno per il rifiuto di Ho , dato checiò comporta la modifica delle condizioni e delle acquisizioni fino ad allora ri-tenute valide. E’ partendo da queste considerazioni che si ritiene più gravel’errore del primo tipo rispetto a quello del secondo tipo ed è per questo che siprocede in modo da cautelarsi il più possibile rispetto alla possibilità di com-mettere tale errore (impostazione di Neyman e Pearson).

Esempio 1Supponiamo di avere la popolazione X~f(x ; θ), ove X rappresenta il reddito di una

qualche categoria di lavoratori e sia θ = µ. Supponiamo che dalle dichiarazioni dei redditirisulti che, in media, questi soggetti abbiano dichiarato µ o = 15 mila euro. Supponiamo

che il ministro delle finanze sia poco convinto della veridicità delle dichiarazioni delle personesuddette. In tal caso, le ipotesi che il ministro vuole sottoporre a test sono

Ho : µ ≤ µo = 15.000 verso H1 : µ > µo = 15.000,

osserviamo che lo spazio parametrico è dato dall’intera retta reale Ω = (- ∞ ; +∞ ). Perdecidere se si deve accettare o rifiutare Ho si estrae, con rimessa, da X un campione di n ele-menti xn = (x1 , x2 , ..., xn ) e sulla base delle informazioni contenute in questo campione sidecide su Ho. Al variare del campione varia xn e descrive la v.c. campionaria Xn = (X1 ,X2 , ..., Xn ) che descrive il nostro spazio campionario. In questo contesto sulla base dei risul-tati del campione posso:

E1 = Penalizzare quei soggetti (rifiuto Ho ), mentre hanno detto il veroE2 = Accettare quanto dichiarato (accetto Ho ), mentre hanno detto il falsoG1 = Accettare quanto dichiarato (accetto Ho ) ed hanno detto il veroG2 = Penalizzare quei soggetti (rifiuto Ho ) che hanno dichiarato il falso.

Osserviamo come effettivamente E1 sia l’errore più grave perché se viene commesso si penalizza(per esempio si commina una condanna penale) un innocente.

5.2 Il lemma di Neyman-Pearson

Come emerge dal paragrafo precedente, il problema che si deve affrontareè di individuare la regione critica C1 tale che α(C1 ; θ) e β(C1 ; θ) siano piccoli

qualsiasi sia θ. D’altro lato, si evince immediatamente che se è α(C1 ; θ) = 0 ne-

cessariamente deve essere β(C1 ; θ) = 1 e viceversa e quindi non è possibile de-

cidere rendendo nulli contemporaneamente α e β. La strategia per risolvere il

Page 167: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 159

problema, ormai generalmente accettata, è quella di scegliere C1 in modo che

α(C1 ; θ) non superi una certa soglia prefissata, qualsiasi sia θ, e contempora-

neamente sia β(C1 ; θ) minimo. Più precisamente:

il test uniformemente più potente è quello che permette di scegliere la regionecritica C1 tale che, per ogni altra regione critica C*

1 , sia contemporaneamente:

P(E1) = P(Xn ∈ C*1 |θ∈Θo ) = P(Xn ∈ C1|θ∈Θo ) ≤ α

min P(E2 ) = min P(Xn ∈ C-C*1 |θ ∈ Θ1 ) = P(Xn ∈ C-C1|θ ∈ Θ1 )

per qualsiasi θ ∈ Θ1.

Un test che soddisfa la definizione sopra riportata ha la potenza massimadato che in tal caso risulta π(C1 ; θ) > π(C*

1 ; θ). I test uniformemente più po-

tenti non sempre esistono, il lemma seguente mostra che tale test sicuramenteesiste, e mostra come ottenerlo, in un caso particolare:

Lemma (di Neyman e Pearson)Data la v.c. X, che per semplicità supponiamo continua, con f.d. f(x ; θ), se

Ho : θ = θo verso H1 : θ = θ1

e quindi si ha Ω = θo ∪θ1, se Xn=(X1 ,…, Xn ) è la v. c. campionaria, allora iltest con

P(Xn ∈ C1|θ = θo ) = α

basato sulla regione critica C1 tale che

k);(L

);(L

0n

1n ≥θθ

x

xper X∈ C1 ; );(L

);(L

0n

1n

θθ

xx

< k per X ∉ C1 ,

ove k è una costante per cui P(Xn ∈ C1|θ = θo ) = α mentre L(xn ; θ) è la fun-zione di verosimiglianza, è il test più potente.

Per poter applicare il lemma è, comunque, necessario conoscere la distribu-zione di Xn a meno di θ in modo da poter costruire la funzione di verosimi-

Page 168: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5160

glianza. Inoltre, questo lemma permette di ottenere la regione critica solo in casimolto particolari.

Il problema maggiore risiede nel fatto di dovere individuare una statistica pi-votale (cioè indipendente dai parametri della v.c. di partenza) che, fissata la pro-babilità dell’errore di primo tipo, minimizzi quello del secondo tipo qualunquesia il valore del parametro incognito in Θ1. Se abbandoniamo la seconda carat-teristica, o quanto meno richiediamo che questa si verifichi solo per grandicampioni, si ha un allargamento della classe dei possibili test che si possono co-struire in modo da comprendere anche casi di importanza applicativa. Questa èla strategia che seguiremo nel seguito.

5.3 Test basato sul rapporto di verosimiglianza. Caso di Ho semplice (LRT)

Data la variabile casuale X con distribuzione di probabilità (discreta o conti-nua) f(x ; θ) si voglia sottoporre a test le ipotesi

Ho : θ = θo verso H1 : θ ∈ Θ1

con Ω = θo ∪Θ1. Sulla base di un campione casuale xn = (x1 ,…,xn ) si c o-struisce la funzione di verosimiglianza

L( xn ; θ ) = ∏=

n

1i

f(xi ; θ)

che sotto Ho diviene

L( xn ; θo ) = ∏=

n

1i

f(xi ; θo )

mentre la stima di massima verosimiglianza di θ è, come sappiamo, quel θ taleche risulti

Ωθ ∈max L( xn ; θ ) = L( xn ; θ

)

Si chiama rapporto di massima verosimiglianza (nel seguito MLR) la funzione

λ(xn ) = );(Lmax

);(L

n

on

θθ

Ωθx

x

=)ˆ;(L

);(L

n

on

θ

θ

x

x,

Page 169: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 161

da cui segue immediatamente che0 < λ( xn ) ≤ 1.

Se λ( xn ) è vicino ad 1 si è portati ad accettare Ho dato che, per n grande, risulta

θo ≈ θ ; viceversa, se λ( xn ) è lontano da 1 allora Ho è poco verosimile e si è

portati a rifiutarla dato che θo ≠ θ .

Queste considerazioni ci portano ad affermare che

il test basato su LRT definisce la regione di rifiuto (regione critica) costituita datutti i campioni xn tali che

Pλ(Xn ) ≤ k | θ = θo = α

E’ facile verificare che se anche H1 è semplice ed il parametro è uno solo, iltest basato su MLR coincide con quello più potente. Se H1 è composta il testbasato su MLR non sempre coincide con quello uniformemente più potente.Per poter determinare la regione critica nel test basato su MLR è necessarioderivare la distribuzione di probabilità di λ(Xn ).

Nei due esempi seguenti tratteremo due casi particolari di test basati suMLR.

Esempio 2Supponiamo che X~N(µ; σ 2), con σ 2 noto, e si voglia sottoporre a test le ipotesi

Ho: µ = µo verso H1: µ ≠ µo

sulla base di un campione di ampiezza n estratto da X. In questo caso si ha

L(xn ; µo ) = (2πσ 2)-n/2 exp

−− ∑ 2

oi2 )x(2

1 µσ

L(xn ; x ) = (2πσ 2)-n/2 exp

−− ∑ 2

i2 )xx(2

e quindi la regione critica è data da

Page 170: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5162

λ( xn ) = exp

−−− ∑∑ 2

oi22

i2 )x(2

1)xx(

21 µ

σσ=

= exp

−− 2

o2 )x(2

n µσ

= exp

−−

2

o

n/

x21

σµ

≤ k

che, equivalentemente, può essere scritta nel modo seguente

2

o

n/

x

−σ

µ ≥ -2 log k.

D’altro lato, dato che 0 < k ≤ 1 segue che log(k) < 0 e quindi - 2log(k) > 0. Posto-2log(k) = z 2 si ottiene

2

o

n/

x

−σ

µ ≥ z 2 ⇔ z c =

n/

|x| o

σµ−

≥ z α/2.

La statistica z c viene chiamata statistica test e sotto l’ipotesi Ho, in questo caso, si distribui-sce come una v.c. Normale standardizzata così che si rifiuta Ho al livello α se risulta z c ≥z α/2, ove z α/2 si trova sulle tavole della normale standardizzata ed è ottenuta in modo chefissato α deve essere

α =

≥− 2

2/o z

n/

|X|P ασ

µ

Il test basato su MLR ha alcune importanti proprietà come stabilito nel s e-guente

Teorema (di Wilks)Data la v.c. X con distribuzione f(x; θ) se si sottopongono a test le ipotesi

Ho : θ = θo verso H1 : θ∈Θ1

utilizzando il rapporto di verosimiglianza allora

1) -2 log λ( X n ) 2

)g(L χ→

ove g è il numero dei parametri da sottoporre a test. Questo risultato permette

Page 171: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 163

di costruire il test anche se non è nota la distribuzione di λ(Xn )sotto la condi-zione che n sia sufficientemente grande (spesso basta che sia n≥ 25)

2) Se C1 è la regione critica per Ho, allora

∞→nlim PXn∈ C1|θ ∈ Θ1 =

∞→nlim P(G2 ) = 1

indipendentemente da θ. In altri termini, se n è sufficientemente grande allora lapotenza del test è vicina ad uno per ogni θ ≠ θo .

Esempio 3Supponiamo che sia X~N(µ , σ 2), con µ e σ 2 incogniti, e si voglia sottoporre a test le

ipotesi

Ho : µ = 2; σ 2= 9 verso H1 : µ ≠ 2; σ 2 ≠ 9

supposto di avere estratto un campione casuale con n=30, X =3, S2=30. In questo caso,utilizzando il rapporto di massima verosimiglianza si ha

λ(xn ) =

−−

−−

∑−

2i2

2/n2

2i

2/n

)xx(n1

S2n

exp)S2(

)2x(181

exp)92(

π

π=

= 2/n2

9S

exp

−−− 22 )2x(

18n

S18n

2n

o equivalentemente

- 2 log(λ(xn )) = -n [log S2 - log9 + 1 - S2/9 - ( x - 2)2/9].

La distribuzione esatta sia di λ(Xn ) che di -2log(λ(Xn )) è molto complicata e quindi sipuò ricorrere all’approssimazione con il Chi-quadrato per ottenere una regione critica appros-simata. In questo caso si ha

- 2log (λ(Xn )) 2

)2(L χ→ .

Dato che

Page 172: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5164

-2 log (λ(xn )) = -30[log30-log9 + 1 - 30/9 - (3-2)2/9] = 37.21,

dalle tavole del Chi - quadrato risulta

2)05.01;2( −χ = 5.99; 2

01.01;2( −χ = 9.21; 2)001.01;2( −χ = 13.8,

possiamo rifiutare Ho al livello α =1‰ .

5.5 Test basato sul rapporto di verosimiglianza. Caso di Ho complessa (LRT)

Se le ipotesi Ho e H1 sono entrambe complesse, cioè se

Ho : θ∈Θo verso H1 : θ∈Θ1,

con Ω = Θo∪Θ1, allora

il test MLR è basato sul rapporto

λ(xn ) = ),(Lsup

),(Lsup

n

n0

θ

θ

Ωθ

Θθ

x

x

∈ = )ˆ,(L

),(Lsup

n

n0

θ

θΘθ

x

x∈

Quanto abbiamo detto fino ad ora può essere esteso al caso in cui θ sia unvettore di parametri incogniti.

Una generalizzazione di quanto affermato nel teorema riportato nel para-grafo precedente è data nel seguente

Teorema (di Wilks)Data la v.c. X con distribuzione f(x ;θ) se si sottopongono a test le ipotesi

Ho : θ∈Θo verso H1 : θ∈Θ1

Allora

-2 log λ(Xn ) 2

)g(L χ→

oveg = Dimensione(Ω) - Dimensione(Θo ) .

Page 173: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 165

5.6 Particolari test basati su MLR

In questo paragrafo presentiamo alcuni test, di larga utilizzazione pratica, ba-sati sul rapporto di massima verosimiglianza e sotto l’ipotesi che la popolazio-ne, o le popolazioni, di partenza siano distribuite normalmente.

TEST SULLA MEDIA

Supponiamo che sia X~N(µ ; σ 2), con µ e σ 2 incogniti e quindi risulti

θ =(µ ; σ 2), e si voglia sottoporre a test le ipotesi

Ho : µ = µo , σ 2>0 verso H1: µ ≠ µo , σ 2>0

utilizzando il MLR test. In questo caso Ω è costituito da un semipiano, mentreΘo si riduce ad una semiretta così come illustrato nella figura

Si ha

0

supΘθ ∈

L(xn ; µ , σ 2) = L(xn ; µo , s2o ), con s ∑ −= 2

oi2o )x(

n1 µ

Ωθ ∈sup L(xn ; µ , σ 2) = L(xn ; x , S 2 ), con S ∑ −= 2

i2 )xx(

n1

e quindi il rapporto di verosimiglianza è

λ( xn ) =

−−

−−

2i2

2/n2

2oi2

o

2/n2o

)xx(S2

1exp)S2(

)x(s2

1exp)s2(

π

µπ

Page 174: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5166

Dopo una serie di sviluppi, che per brevità non riportiamo, si arriva alla s e-guente statistica test:

t =s

)X(n

)XX(

X()1n(n o

2i

)o µµ −=−

−−

∑ ~ T(n-1)

con

s 2 = ∑ −−

2i )XX(

1n1

ed indicando con tc il valore di T ottenuto nel campione

si rifiuta Ho se risulta

|tc| = ≥−

s

xn oµ t(n-1; 1-α/2)

Graficamente si ottiene

Naturalmente, con gli stessi ragionamenti sopra fatti si ha che:

a) se si vuole sottoporre a test le ipotesi

Page 175: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 167

Ho : µ ≤ µo , σ 2>0 verso H1 : µ > µo , σ 2>0

si rifiuta Ho al livello α se risulta

tc = s)x(n oµ− ≥ t(n-1; 1-α) = - t(n-1; α) .

Graficamente si ha una situazione come quella descritta nella figura seguente

b) se si vuole sottoporre a test le ipotesi

Ho : µ ≥ µo , σ 2>0 verso H1 : µ < µo , σ 2>0

si rifiuta Ho al livello α se risulta

tc = ( )

)1;1n();1n(0 tt

sxn

ααµ

−−− −=≤−

Graficamente si ha una situazione come quella descritta nella figura seguente

Page 176: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5168

Ricordiamo che la v.c. T di Student è simmetrica intorno allo zero e quindi

risulta t(n-1; 1-α) = - t(n-1; α). Si osservi ancora che se come stima di σ 2 al posto di

s 2 (stima non distorta di σ 2) si usa S 2 (stima asintoticamente non distorta di

σ 2), tenuto conto delle relazioni che intercorrono fra s 2 ed S 2, segue immedia-tamente che tc si può scrivere indifferentemente

tc = s

)x(nS

)x(1n oo µµ −=−−.

Nelle pratiche applicazioni, di solito, i livelli a cui si fissa α sono rispettiva-mente 5%, 1%, 1‰ ed è conveniente utilizzare la prima delle due espressioni.

Giustificazione empiricaVediamo ora di dare una giustificazione, basata su argomentazioni di tipo

intuitivo, alla derivazione della statistica test tc sopra riportata. Per fare questo fo-calizziamo la nostra attenzione al caso in cui

Ho : µ ≤ µo , σ 2>0 verso H1 : µ > µo , σ 2>0

(per gli altri il ragionamento è simile) ove µ e σ 2 sono i parametri incogniti diuna v.c. X distribuita come una normale. Sappiamo che la stima ottimale di µ e

σ 2 è data rispettivamente da x e s 2 e queste sono indipendenti. In tale situa-zione siamo portati a rifiutare Ho se ( x - µ o ) è positiva e grande, mentre siamo

portati ad accettarla se ( x - µ o ) è piccola. Bisogna stabilire cosa si intende pergrande e per piccola. Puntualizzando, se è vera Ho , una statistica test che sembra

Page 177: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 169

plausibile è

( x - µo ) ~ N

n

;0 2σ

e dato che la sua distribuzione dipende dal parametro incognito σ 2 non puòessere usata per costruire il test. Se la standardizziamo otteniamo

2

o

2

o )x(n

n/

x

σ

µ

σ

µ −=

−~ N(0, 1)

che, dipendendo ancora da σ, non è pivotale e, quindi, non utilizzabile come sta-

tistica test. Se al posto di σ 2 sostituiamo la sua stima ottimale s 2 otteniamo

tc = s

)x(n oµ−~ T( n-1)

che è la statistica test pivotale derivata in precedenza.

Esempio 4Supponiamo di avere un fenomeno aleatorio X e che sia X~N(µ, σ 2) con µ e σ 2 in-

cogniti. Si vuole sottoporre a test le ipotesi

Ho : µ ≤ 3 verso H1 : µ >3

Estraiamo da X un campione casuale di n = 10 elementi ottenendo i seguenti risultati cam-pionari

3; 5; 4; 2; 5; 6; 3; 4; 5; 2

La media e la varianza campionaria sono in questo caso, rispettivamente

x = 3.9; S 2 = m2 -

2x = 1.69; S = 1.3

che implicano

Page 178: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5170

077.23.1

)39.3(3S

)x(1nt o

c =−=−−= µ

Dalle tavole della v.c. T di Student con g = 9 gradi di libertà otteniamo

t( 9; 1-0.05) = 1.833; t( 9; 1-0.01) = 2.821

Questo vuole dire che al livello di α = 5% si può rifiutare Ho ma non la si può rifiutare al

livello di α = 1%. In definitiva diremo che il test è significativo al 5%.Se le ipotesi da sottoporre a test fossero state

Ho : µ = 3 verso H1 : µ ≠ 3

in tal caso il valore di |tc | sarebbe stato esattamente lo stesso, mentre avremmo avuto

t( 9; 1-0.025) = 2.262; t( 9; 1-0.05) = 3.250

ed in questo caso non potevamo rifiutare Ho neanche al livello del 5% .

Esempio 5Data la popolazione X~N(µ , σ 2), con µ e σ 2 incogniti, verificare

Ho : µ ≤ 20 verso H1 : µ > 20

utilizzando le informazioni di un campione di n=26 elementi da cui si è ricavato x = 22.5e S 2 = 16. Sappiamo che in questo caso la regione critica ottimale, ottenuta tramite il rap-porto di massima verosimiglianza, è data da

Page 179: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 171

tc = ≥−

−1n/S

x oµ t( 25; 1-α)

che in questo caso diventa

tc = 25/4

205.22 −= 3.125 ≥ t( 25; 1-α)

ove t( 25; 1-α) è, al solito, l’(1-α) percentile della T-di Student con 25 gradi di libertà. In par-

ticolare, per i tre livelli di α = 5%; 1%; 1‰ si ottiene rispettivamente

t( 25; 1-.05) = 1.708; t( 25; 1-.01) = 2.465; t( 25; 1-.001) = 3.45

ed essendo

tc = 3.125 > t( 25; 1-.01) = 2.465; tc = 3.125 < t( 25; 1-.001) = 3.45

si rifiuta Ho al livello α = 1%, ma non si può rifiutare al livello dell’1‰. In tal caso si dicepiù sinteticamente che il test è significativo all’1%. D’altro lato, si ricava che la regione criticaè anche data da

λ2/n(x) = ≤

−+

1nT

1

12 k1

o equivalentemente da

-2log(λ(x)) = n log ≥

+1n

T1

2

k2

Ma per n moderatamente grande, se è vera Ho , sappiamo dal Teorema di Wilks che è

-2log(λ(X )) = n log ≈

+1n

T1

2

2)1(χ

e quindi una regione critica approssimata è ottenuta da

Page 180: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5172

P 2)1(χ ≥ k = 1 - P 2

)1(χ < k = α ⇔

P 2)1(χ < k| µ = µo = 1-α

ove k = 2)a1;1( −χ si deriva dalle tavole della v.c. 2

)1(χ . In questo caso risulta

n log

+1n

T1

2

= 26 log

+

25)1257.3(

12

= 8.57

Mentre per i soliti tre livelli di α = 5%; 1%; 1‰, dalle tavole del Chi-quadrato con ungrado di libertà otteniamo rispettivamente

2)05.01;1( −χ = 3.84; 2

)01.01;1( −χ = 6.63; 2)0.0011;1( −χ = 10.8

e dato che è

-2log(λ(x)) = 8.57 > 2)05.01;1( −χ = 3.84;

-2log(λ(x)) = 8.57 < 2)001.01;1( −χ = 10.8

si arriva alle stesse conclusioni di quelle ottenute con la regione critica esatta.

TEST SUL CONFRONTO FRA DUE MEDIESupponiamo che X1~N(µ1 ; σ 2

1 ) e X2~N(µ2 ; σ 22 ) siano due v.c. indipen-

denti e si voglia sottoporre a test, utilizzando MLR, le ipotesi

Ho : µ1 = µ2 , σ 21 >0, σ

22 > 0

Η1 : µ1 ≠ µ2 , σ 21 >0, σ

22 > 0

Per far questo utilizziamo i due campioni indipendenti

x1 = (x11 , x12 ,..., x1m ); x2 = (x21 , x22 ,..., x2n )

estratti, rispettivamente da X1 ed X2 . Si ha

Page 181: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 173

Ω = µ1 , µ2 , σ 21 , σ 2

2 : spazio a quattro dimensioni

Θo = µ1= µ2 , σ 21 , σ 2

2 : spazio a tre dimensioni.

Dato che i due campioni sono indipendenti la funzione di verosimiglianza è

L( x1 , x2 ; µ1 , µ2 , σ 21 , σ

22 ) = L1( x1 ; µ1 , σ

21 ) L 2 ( x2 ; µ2 , σ

22 )

ed il rapporto di verosimiglianza è pari a

λ( x1 , x2 ) = [ ] )ˆ,ˆ,x,x(L

),(L),(Lmax

22

2121

222

211

,, 21 σσσµσµ

σσµ

con µ = µ1 = µ2 . E risulta molto complicata la ricerca del massimo del nume-

ratore di λ(x1 ,x2 ). Questo problema, noto come problema di Behrens-Fisher,non ammette una soluzione esatta e le soluzioni approssimate trovate sono tuttepiù o meno soddisfacenti. Una delle più semplici dovuta a Banerji nel 1960propone di usare la seguente regione critica al livello α:

rifiutare Ho se la disuguaglianza seguente è vera

| 1x - 2x | ≥ 2/1

2

22

22

1

21

21

n

St

n

St

+ ⇔ n1n2( 1x - 2x )2 ≥ n2

21t S 2

1 + n1 22t 2

2S

ove n1 = m-1, n2 = n-1, ti è il valore calcolato sulla T-di Student con ni gradi dilibertà tale che

2/tTP i)n( iα=≥ per i= 1, 2.

Il problema risulta di più facile soluzione se viene ridotto al seguente

Ho : µ1 = µ2 = µ , σ 21 = σ 2

2 = σ 2 >0

verso

Page 182: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5174

H1 : µ1 ≠ µ2 , σ 21 = σ 2

2 = σ 2 >0

In questo caso le due v.c. X1 ed X2 hanno la stessa variabilità e quindi lastessa forma e differiscono, se Ho è falsa, solo per la media (caso di omosche-dasticità). Si ha che

Ω = µ1 , µ2 , σ 2: spazio a tre dimensioni

Θo = µ , σ 2: spazio a due dimensioni

In tal modo, la stima ML di µ1 , µ2 , σ 2 in Ω è data, rispettivamente, da

x 1 = ∑=

m

1im1

x1i ; x 2 = ∑=

n

1in1

x2i

S2 =

−+−

+ ∑∑==

22i2

n

1i

21i1

m

1i

)xx()xx(nm

1

per cui

L( x1 , x 2 , S2)=

2/)nm(

22i2

21i1 )xx()xx(2

nm+

−+−+

∑∑πexp-(m+n)/2

Viceversa, la stima ML di µ e σ 2 in Θο è data, rispettivamente, da

x = nmxnxm 21

++

S 2=

−+−

+ ∑∑==

n

1i

22i2

m

1i

21i1 )xx()xx(

nm1

=

=

++−+−

+ ∑∑==

2 21

22i2

n

1i

21i1

m

1i

) xx(nm

mn)xx()xx(

nm1

Page 183: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 175

e quindi, il rapporto di verosimiglianza risulta pari a

2/)nm(

22i2

n

1i

21i1

m

1i

221

)xx()xx(

)xx(nm

mn

1)(

+

==

−+−

−++=

∑∑xλ

che dopo alcune semplificazione, non riportate per brevità, diviene:

[λ(X)]2/(m+n)

= 12

2nmT

1−

−+

+

Per quanto detto nel caso del test su una sola media si ha:

1) Se è H1: µ1 ≠ µ2 ⇔ H1: µ1 - µ2 ≠ 0

si rifiuta Ho se risulta

)2/1;2mn(22

21

21c t

nm)2nm(mn

s)1n(s)1m(

xxt α−−+>

+−+

−+−

−=

Graficamente le regioni di accettazione e rifiuto sono:

con g= m+n-2.

2) Se è H1: µ1 > µ2 ⇔ H1: µ1 - µ2 > 0

Page 184: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5176

si rifiuta Ho al livello α se

tc = nm

)2nm(mn

s)1n(s)1m(

xx22

21

21

+−+

−+−

− > t(m+n-2;1-α) ,

che graficamente diviene:

3) Se è H1 : µ1< µ2 ⇔ H1 : µ1 - µ2 < 0

la regione critica è data da (si rifiuta Ho se)

tc = nm

)2nm(mn

s)1n(s)1m(

xx22

21

21

+−+

−+−

− < t(m+n-2;α) = - t(m+n-2;1-α) ,

che graficamente diviene:

Giustificazione empiricaVediamo ora di dare una giustificazione di tipo intuitivo alla derivazione

della statistica test tc sopra riportata. Per fare questo focalizziamo la nostra at-tenzione al caso in cui si vuole sottoporre a test

Ho : µ1 ≤ µ2 , σ 2>0 verso Η1 : µ1 > µ2 , σ 2>0

ove i tre parametri µ1 , µ2 , σ 2 sono relativi a X1~N(µ1 ; σ 2) e X2~N(µ2 ; σ 2)con X1 e X2 indipendenti. In tal caso siamo portati a rifiutare Ho se x 1 - x 2 è

Page 185: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 177

positiva e grande, mentre siamo portati ad accettarla se la stessa è piccola. Bisognastabilire cosa si intende per grande e per piccolo. Se è vera Ho una statistica testplausibile è

( 1x - 2x ) ~ N

+

nm;0

22 σσ= N

+

n1

m1

;0 2σ ,

ma non è utilizzabile dato che la sua distribuzione dipende dal parametro inco-

gnito σ 2. Se la standardizziamo otteniamo

n1

m1

xx 21

+

σ~ N(0, 1)

che, dipendendo ancora da σ 2, non è utilizzabile come statistica test. Se al po-

sto di σ 2 sostituiamo la sua stima ottimale

s 2 =2nm

)xx()xx(m

1i

n

1i

22i2

21i1

−+

−+−∑ ∑= = =

2nm

SnSm

2nm

s)1n(s)1m( 22

21

22

21

−++

=−+

−+−

otteniamo sotto Ho

tc = 2/1

21

n1

m1

s

xx

+

−=

nm)2nm(nm

SnSm

xx22

21

21

+−+

+

−~ T(m+n-2)

che è la statistica pivotale derivata in precedenza. Notare che per la stima di σ 2,comune a X1 e X2 , abbiamo utilizzato congiuntamente le informazioni cam-

pionarie provenienti da X1 e da X2 , in tal modo s 2 risulta non distorta e suffi-

ciente, e quindi ottimale, per σ 2.

TEST SU UNA PROPORZIONESupponiamo di avere una popolazione finita P composta da H unità di rile-

vazione (ampiezza della popolazione) con un carattere di interesse dicotomiconel senso che K unità della popolazione sono del tipo 1 ed H-K del tipo 0. In

Page 186: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5178

pratica, vi sono molte situazioni con tali caratteristiche, per esempio: buo-no/cattivo; giusto/sbagliato; si/no; maschio/femmina; testa/croce; acqui-sto/non acquisto; produco/non produco; ecc. Indichiamo con

p = HK

, q = 1-p = H

KH −

rispettivamente la proporzione degli elementi di tipo 1 e di tipo 0 presenti nellapopolazione. In genere, è nota H ma è incognita K e quindi p. Il problema chesi vuole affrontare è quello di costruire un test per il parametro incognito p deltipo:

Ho : p = po verso H1 : p > po

con 0 < po < 1 fissato. Per dare una risposta al problema, estraiamo bernoullia-namente (cioè con reimmissione) da P un campione di ampiezza n ottenendo(x1 , x2 , ..., xn ) . Al variare del campione ciascuna xi descriverà una v.c. Xi conla stessa struttura della popolazione e precisamente

P(Xi = 1) = p; P(Xi = 0) = 1-p = q, per i =1, 2, ..., n .

In altri termini, ciascuna Xi è una v.c. di Bernoulli indipendente e la stima ot-timale di p è data semplicemente dalla frequenza relativa:

p = n

x...xx n21 +++

che, per quanto già visto per la v.c. Binomiale frequenza, risulta

p ~ BF(n, p)con

E( p ) = p , var( p ) = p qn .

Ma allora, ricorrendo ad una procedura simile a quella del test sulla media, sipuò utilizzare come statistica test la seguente

Page 187: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 179

z c = )p1(p)pp(n

n)p1(p

pp

oo

o

oo

o

−−

=−

ed è facile verificare che, al variare del campione, se Ho è vera, zc descrive la v. c. Zc con

E(Zc) = 0, var(Zc) = 1.

La distribuzione esatta di Z è di complessa derivazione. D’altro lato, ricordando il teorema del limite centrale, si ricava facilmente che per n moderatamente grande si ha

Zc ≈ N(0, 1).

In pratica, si può ritenere n grande se risulta n>10 nel caso in cui sia p≈q e negli altri casi se è

−−

−≥

≥−

11p1(Hp3

p1(Hp30n

15p1(np

)oo

)oo

)oo

in queste condizioni si rifiuterà Ho al livello α se risulta

zc > z(1-α).

Se l’ipotesi alternativa è H1: p < po la relativa regione critica al livello α è

data da

zc < z(α) = - z(1-α),

mentre se l’ipotesi alternativa è H1: p ≠ po la regione di rifiuto al livello α è data da

| zc | > z(1-α/2) ove le quantità del tipo z(α) sono i percentili della normale standardizzata e sono riportati nelle tavole della normale standardizzata.

Page 188: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5180

TEST SUL CONFRONTO DI DUE PERCENTUALINel caso in cui si voglia sottoporre a confronto le percentuali p1 e p2 di due

popolazioni dicotomiche:

Ho : p1 = p2 verso H1 : p1 > p2

utilizzando le informazioni di due campioni bernoulliani estratti indipendente-mente da ciascuna delle due popolazioni:

x11 , x12 , ..., x1n ; x21 , x22 , ..., x2m

con ragionamenti del tutto simili si ha che la statistica test risulta pari a

z c = [ ]( )m/1n/1)p1(p

pp 21

+−−

ove abbiamo posto:

p 1 = n

x i1

n

1i∑

= , p 2 = m

x i2

m

1i∑

= , p =mn

pmpn 21

++

.

Sotto Ho, per n ed m sufficientemente grandi, risulta Zc ≈ N(0, 1) per cui

si rifiuterà Ho al livello α se risultaz c > z(1-α).

Per i casi H1: p1 < p2 ed H1: p1 ≠ p2 si procede con la usuale tecnica vistaprecedentemente.

Se l’estrazione campionaria è fatta senza reimmissione, come succede nelle pra-tiche applicazioni, gli sviluppi formali sono più complessi anche se i risultati fi-nali si modificano solo marginalmente. Infatti, in questo caso, indicando con f =nH la percentuale di elementi estratti dalla popolazione, detta anche frazione di

campionamento, si dimostra che è ancora

Page 189: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 181

p = n

x...xx n21 +++; E( p ) = p

mentre

var( p ) = )f1(npq −

e sotto Ho , se n è grande ed f piccola, si ottiene

z c =

)f1(n

)p1(p

pp

oo

o

−−−

che al variare del campione si distribuisce con buona approssimazione comeuna v.c. N(0, 1) e quindi la regione critica è definita come al solito. E’ interes-sante osservare che per popolazioni infinitamente grandi è f = 0 ed i risultati,come intuitivamente atteso, coincidono con quelli dell’estrazione bernoulliana.

Esempio 6In una fabbrica con H=1120 operai ve ne sono alcuni che soffrono di una determinata

allergia che si sospetta dovuta alla presenza di una particolare sostanza usata nella lavorazio-ne. Inoltre, è noto che nella popolazione in generale la percentuale di coloro che soffrono diquella allergia, è pari a po = 0.30. Si vuole stabilire se fra gli operai della fabbrica vi è unamaggiore incidenza di quella patologia rispetto a quanto succede nella popolazione in generaleoppure no. In tal caso bisogna sottoporre a test

Ho : p = po= 0.3 verso H1 : p>0.3

Per rispondere al quesito viene estratto a caso un campione di N=95 operai e sottoposti allarelativa prova allergologica. Da queste prove è risultato che 36 operai erano allergici alla s o-stanza sospetta e 59 non allergici. Avremo, pertanto

p = 36/95 =0.379, 1- p = 59/95 = 0.621

e quindi, supponendo che l’estrazione sia bernoulliana otteniamo

z c = 1.68

e dato che per α = 0.05 risulta z(1-0.05) = 1.65, rifiuto l’ipotesi Ho al livello del 5%. Sel’estrazione fosse stata effettuata senza reimmissione in tal caso avremmo avuto f= 95/1120

Page 190: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5182

= 0.084821 e quindi

z c = 1.756

ed anche in questo caso avremmo rifiutato Ho al livello del 5%. In definitiva possiamo direche, con un livello di errore del primo tipo pari al 5%, la sostanza utilizzata in quella produ-zione ha una incidenza nell’allergia superiore a quanto riscontrato nella popolazione. Osser-viamo, infine, che in questo caso si ha

=−−

−>

>=−

8.5511p1(np3

p1(np3095

1595.19)p1(np

)oo

oo

oo

e quindi l’approssimazione alla normale risulta giustificata.

TEST SU DATI APPAIATISupponiamo di avere una popolazione doppia (X,Y) e precisamente (X,

Y)~N(µx , µy , σ 2x , σ 2

y , σx y ), ove i cinque parametri della normale doppia

sono incogniti, e si voglia sottoporre a test

Ho : µy ≤ µx verso H1 : µy > µx

sulla base di un campione di ampiezza n estratto da (X,Y) :

(x1 , y1 ), (x2 , y2 ), ..., (xn , yn ) .

Osserviamo che, affinché il test abbia senso, i due caratteri X ed Y devonoessere confrontabili. In particolare X può essere interpretato come il carattere dicontrollo, mentre Y come il trattamento in un dato esperimento a cui gli n soggettisono stati sottoposti. Per esempio se ad n individui viene prima somministrato,a loro insaputa, un placebo e poi un dato farmaco allora X è l’effetto placeboed Y l’effetto farmaco. Osserviamo ancora che in situazioni del genere fra X edY esiste di solito un qualche legame lineare misurato da σx y di cui bisogna tenerconto nel test. In altri termini, si tratta di un test sul confronto fra medie condati dipendenti. Osserviamo inoltre che, per ciascun soggetto, la decisione disomministrare prima il farmaco o prima il placebo viene effettuata a caso.

La derivazione formale del test avviene con una procedure simile, anche sepiù elaborata, a quella illustrata nel caso di X ed Y indipendenti. Qui di seguitoriportiamo, per semplicità, la giustificazione empirica.

Page 191: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 183

Anche in questo caso è plausibile rifiutare Ho se y( - x ) è positiva e grandee quindi bisogna stabilire quando quella quantità è grande e quando è piccola. SeHo è vera, per una proprietà della normale, al variare del campione si ha

( )XY − ~ N

−+n

2;0

xy2y

2x σσσ

e standardizzando si ottiene

( )xy

2y

2x 2

XYn

σσσ −+

−~ N(0, 1).

Sostituendo in quest’ultima espressione al posto di σ 2x , σ

2y , σx y la loro stima

ottimale data rispettivamente da

s 2x = ∑

=

−−

n

1i

2i )xx(

1n1

; s 2y = ∑

=

−−

n

1i

2i )yy(

1n1

sxy = ∑=

−−−

n

1iii )yy)(xx(

1n1

si ricava

tc =( )

xy2y

2x s2ss

XYn

−+

−~T(n-1) .

Si rifiuta Ho al livello prefissato α se risulta

tc > t(n-1; 1-α).

Con un ragionamento simile:a) si rifiuta Ho : µy ≥ µx verso H1 : µy < µx se

tc < -t(n-1; 1-α) ,

Page 192: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5184

b) si rifiuta Ho : µy = µx verso H1 : µy ≠ µx se

|tc | < t(n-1; 1-α/2) .

Notare che posto D = Y - X, che rappresenta il vantaggio del trattamento sulcontrollo, si ha immediatamente

var(D) = var(Y-X) = xy2y

2x 2σσσ −+

D ~ N ( )xy2y

2x

2zz 2, σσσσµ −+=

di = yi - xi , i = 1, 2, ..., n ;

d = ∑=

−n

1iii )xy(

n1

= y - x ; var(D ) =n

2 xy2y

2x σσσ −+

s 2D = ∑

=−

n

1i

2i )dd(

1n1

= s 2x + s 2

y - 2 sx y ,

e la statistica test tc si può scrivere più semplicemente come

tc = Ds

dn~ T(n-1) .

In altri termini, il test su dati appaiati si riduce al test sulla media di Z ed inquesto particolare caso si testa Ho : µD ≤ 0 verso H1 : µD > 0. Si osservi chenelle pratiche applicazioni è conveniente calcolare la statistica test in questo ulti-mo modo.

Esempio 7Nella tabella seguente abbiamo riportato il consumo di gasolio per miglia di N=7

macchine prima (X) e dopo un dato trattamento (Y)

Page 193: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 185

Macchine 1 2 3 4 5 6 7xi 17.2 21.6 19.5 19.1 22.0 18.7 20.3yi 18.3 20.8 20.9 21.2 22.7 18.6 21.9di=yi -xi 1.1 -0.8 1.4 2.1 0.7 -0.1 1.6

Si vuole sottoporre a test l’ipotesi che il trattamento non ha avuto, in media, alcun effetto con-tro l’ipotesi che ha avuto un effetto positivo. Per far questo utilizziamo il test per dati appaiaticalcolando la stima della media e della varianza di Z. Otteniamo:

76.11.07.01.24.18.01.1

d+−+++−= =

76

= 0.857

s 2D = 1.022857 e quindi tc =

0136.1857.07

= 2.237

e dato che al livello α = 0.05 risulta t(6;1-0.05) = 1.943 avremo tc =2.237 > t(6;1-0.05) =1.943 per cui rifiuteremo l’ipotesi che il trattamento non abbia alcun effetto e siamo portati adaccettare quella che abbia, invece, un effetto positivo.

Notare che se in questo caso non avessimo tenuto conto della dipendenza dei dati avremmodovuto utilizzare la statistica test

( ) n)1n(n

ss)1n(

yxt

2

2y

2x

c

+−

−=

ottenendo tc = 0.97 che ci porterebbe, erroneamente, all’accettazione di Ho e quindi al rifiutoche il trattamento abbia in media effetto sul consumo di gasolio.

TEST SULLA VARIANZASupponiamo che sia X1~N(µ ; σ 2), con µ e σ 2 incogniti, e si voglia sotto-

porre a test, utilizzando la MLR, le ipotesi.

Ho : σ 2 = σ 2o verso H1 : σ 2 > σ 2

o

Nella figura che segue sono indicati gli spazi Ω , Θ1 , Θo.

Page 194: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5186

Ω

Abbiamo già visto che è

L(xn ; µ , σ 2) = (2πσ 2)-n/2 exp

−− ∑ 2

i2 )x(2

1 µσ

.

e dopo alcuni sviluppi si ottiene il rapporto di massima verosimiglianza:

λ( xn) = 2/n

2o

2S

σ

exp 2n

)xix(2

12

2o

+

−∑−σ

dopo una serie di passaggi risulta

si rifiuta Ho al livello α se

∑ −−>− 2)1;1n(

2i2

0

)xx(1

αχσ

⇔ 2)1;1n(2

o

2

2o

22c

nSs)1n(αχ

σσχ −−>=

−= .

Page 195: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 187

Se le ipotesi da sottoporre a verifica sono

Ho : σ 2 = σ 2o verso H1 : σ 2 < σ 2

o

la regione critica per Ho , con gli stessi ragionamenti, diventa

∑ −−<− 2)1;1n(

2i2

0

)xx(1

αχσ

⇔ 2)1;1n(2

o

2

2o

22c

nSs)1n(αχ

σσχ −−<=

−=

Giustificazione empiricaQui di seguito diamo una giustificazione empirica per la determinazione

della regione di rifiuto del test. Osserviamo che si vuole sottoporre a test

Ho : σ 2 = σ 2o ⇔

2o

2

σσ

= 1 verso H1 : σ 2 > σ 2o ⇔

2o

2

σσ

> 1

sulla base di un campione casuale (x1 , x2 , ..., xn) estratto da X~N(µ , σ 2).

Sappiamo che la stima ottimale per σ 2 è s 2 e quindi risulta plausibile utilizzarecome statistica test

2o

2sσ

nel senso che più questa quantità è grande più si è portati a rifiutare Ho . Ma sap-piamo che, se è vera Ho , al variare del campione è

2o

2

2o

2

cSns)1n(

σσχ =

−= ~ 2

)1n( −χ

che è pivotale e quindi utilizzabile per costruire il test.

Esempio 8

Data la popolazione X~N( µ ; σ 2) si voglia sottoporre a test

Page 196: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5188

Ho : σ 2 = σ 2o = 4 verso H1 : σ 2 > σ 2

o

tenuto conto che sulla base di un campione di n=26 osservazioni risulta

∑=

−==n

1i

2i

2 )3x(n1

s;3x = 6.3

Sappiamo che la regione di rifiuto per Ho è data da

2)1;1n(2

o

2

2o

22

o

in

1i

2c

nSs)1n(xxαχ

σσσχ −−

=≥=

−=

−= ∑

nel nostro caso si ha

χ 2c = 25

6.34 = 39.375

mentre dalle tavole del Chi-quadrato con (n-1) = 25 gradi di libertà risulta

2)05.01;1n( −−χ = 37.7; 2

)01.01,1;n( −−χ = 44.3

ed essendo

χ 2c < 2

)05.01;1n( −−χ = 37.7 e χ 2c > 2

)01.01;1n( −−χ = 44.3

si rifiuta Ho al livello del 5%, ma non si può rifiutare al livello dell’1%. In altri termini, iltest è significativo al 5%.

CONFRONTO FRA DUE VARIANZESupponiamo che siano X1~N(µ1 ; σ 2

1 ) e X2~N(µ2 ; σ 22 ) due popola-

zioni indipendenti e si voglia sottoporre a test le ipotesi

Ho : σ 21 = σ 2

2 = σ2 verso H1 : σ 21 > σ 2

2

utilizzando le informazioni contenute nei due campioni casuali

x1 = (x11 , ..., x1n ); x2 = (x21 , ..., x2m ) .In questo caso è

Page 197: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 189

Ω = µ1 , µ2 , σ 21 , σ 2

2 Θo = µ1 , µ2 , σ 2

e quindi

Ωmax L( µ1 , µ2 , σ 2

1 , σ 22 ) =

Ωmax L1( µ1 , σ

21 )

Ωmax L2 ( µ2 , σ

22 )

o

maxΘ

L( µ1 , µ2 ,σ 2) = o

maxΘ

L1( µ1 , σ 2) o

maxΘ

L2( µ2 , σ 2)

E dopo alcuni passaggi dato che sotto Ho , è

F =

=

=

m

1i

221i2

n

1i

21i1

)1m/()XX(

)1n/()XX(

= 22

21

ss

~ )1m;1n(F −−

In conclusione, si rifiuta Ho al livello α se risulta

Fc = 22

21

22

21

S

S1m

mn

1n

s

s−

−= > F(n-1, m-1;1-α) .

Per calcolare Fc si pone al numeratore la stima della varianza supposta in H1

maggiore. Naturalmente i valori della F(n-1, m-1;1-α) si ricercano sulle tavole della

F-di Fisher con (n-1 , m-1) gradi di libertà al livello 1-α.

Giustificazione empiricaSappiamo che X1~ N(µ1 ; σ 2

1 ) e X2~ N(µ2 ; σ 22 ) sono indipendenti

e si vuole sottoporre a test le ipotesi

Ho : σ 21 = σ 2

2 ⇔ 22

21

σσ

= 1 verso H1 : σ 21 > σ 2

2 ⇔ 22

21

σσ

> 1

utilizzando le informazioni contenute nei due campioni casuali

x1 = (x11 , ..., x1n ); x2 = (x21 , ..., x2m ).

Page 198: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5190

Consideriamo le stime ottimali di σ 21 e σ 2

2 ottenendo s 21 e s 2

2 e la statistica

22

21

ss

che ci porterà a rifiutare Ho quanto più questa è di molto più grande di 1, masappiamo che sotto Ho è

Fc = 22

21

ss

~ F( n-1 , m-1)

che è pivotale e quindi utile per costruire il test.

Esempio 9Supponiamo che sia X1~N(µ1 ; σ

21 ) e X2~N(µ2 ; σ

22 ) si vuole sottoporre a test le

ipotesiHo : σ

21 = σ 2

2 verso H1 : σ21 > σ 2

2

sulla base di un campione di n=15 elementi estratti da X1 , che ha fornito

s 21 = 2

1i1 )xx(1n

1 −− ∑ = 8,

ed un campione di m=20 elementi estratti da X2 , che ha fornito

s 22 = 2

2i2 )xx(1m

1 −− ∑ = 4.

Sappiamo che in tali circostanze la regione critica ottimale è data da

Fc = 22

21

ss

> F(n-1, m-1; 1-α)

e nel nostro caso è

Fc = 2 ; F(14 , 19 ; 1- 0.05) = 2.23

Page 199: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 191

per cui non si può rifiutare Ho al livello α = 5%.

TEST SUL COEFFICIENTE DI CORRELAZIONEBisogna distinguere due casi: ρ = 0 e ρ ≠ 0.

Caso di ρ=0

Supponiamo di avere la v.c. doppia (X, Y)~N2(µ1 , µ2 , σ 2x , σ 2

y , ρ) e si

voglia sottoporre a test

Ho : ρ = 0 verso H1 : ρ ≠ 0

sulla base del campione (x1 , y1 ),…,(xn , yn ) estratto dalla normale doppia (X,Y). In tal caso sappiamo che, sotto Ho , è

tc = 2r1

2nr

−~ T(n-2)

ove r è la stima dei momenti di ρ:

r =∑ ∑

∑−−

−−2

i2

i

ii

)yy()xx(

)yy)(xx(

Si rifiuta, al livello α, Ho se è

|tc| = 2r1

2n|r|

−> t(n-2; 1-α/2) .

Caso di ρ≠ 0

Si voglia sottoporre a test

Ho: ρ = ρo ≠ 0 verso H1: ρ ≠ ρo, con 0 < |ρo| < 1.

È possibile trovare solo una regione approssimata basata sulla seguente tra-sformazione (detta di Fisher)

Page 200: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5192

z c =

−+

r1r1

log21

; z o =

−+

o

o

11

log21

ρρ

dato che si può dimostrare, come accennato nel capitolo precedente, che sottoHo al variare del campione è

(Z c – z o) 3n − →L N(0; 1),

questo risultato ci permette di derivare la seguente regione critica approssimata.

Per n moderatamente grande si rifiuta, al livello α , Ho se risulta

3nzz oc −− > z (1-α/2 ) ,

ove, al solito, con z(1-α/2) si è indicato l’(1-α/2)-esimo percentile della normale

standardizzata.

Esempio 10Data la normale doppia (X, Y), vogliamo sottoporre a test le ipotesi

Ho: ρ = 0.5 verso H1: ρ ≠ 0.5

sulla base di un campione di n=103 elementi e con r = 0.4. In queste condizioni è

zc =

6.04.1

log21

= 0.4236; zo

=

5.05.1

log21

= 0.549

e quindi

|z c – z o| 3103 − = |0.4236 - 0.549|10 = 1.254

Dalle tavole della normale standardizzata, con α =0.05, risulta z(1- 0.025) = 1.96, e con

quel fissato α non si può rifiutare Ho.

5.7 Alcuni test non parametrici

In questo paragrafo presenteremo brevemente alcuni test non parametrici didiffusa utilizzazione in una grande varietà di pratiche applicazioni.

Page 201: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 193

TEST DI ADATTAMENTOSupponiamo di avere una qualsiasi v.c. X discreta o discretizzata con struttu-

ra probabilistica incognita ed una v.c. Y discreta o discretizzata nota. Inoltre,supponiamo che entrambe assumano le stesse modalità ai , le modalità possono

essere sia delle qualità che delle quantità. In particolare supponiamo che la d i-stribuzione di Y sia la seguente

yi a1 a2 a3 ... ak Tot.pio p1o p2o p3o ... pko 1

Se poniamo pi = P(X = ai ), i =1, 2, ...,k , le ipotesi che vogliamo sottoporre atest sono

Ho : pi = pio , i=1,2,..,k, ⇔ Distrib.(X) = Distrib.(Y)

H1 : pi ≠ pio , per almeno una i ⇔ Distrib.(X) ≠ Distrib.(Y)

Queste ipotesi vanno verificate sulla base di un campione di ampiezza n estrattobernoullianamente da X e riportato nella distribuzione di frequenza della tabellaseguente

Valori xi a1 a2 … ak Tot.Frequenze ni n1 n2 … nk nStime di pi p 1 p 2 … p k 1

ove con ni abbiamo indicato la frequenza assoluta riferita alla modalità ai e con

p i = ni /n la frequenza relativa, cioè la percentuale delle volte che su n provefatte su X si è presentato il risultato ai che, per quanto detto nel capitolo relativoalle variabili casuali, sono stime ottimali delle probabilità pi .

Questo tipo di test lo risolveremo in due modi alternativi, ma che, di solito,portano agli stessi risultati. Il primo modo è quello di calcolare il rapporto dimassima verosimiglianza ed utilizzare l’approssimazione asintotica. Precisamen-te, in questo caso è

Dimensione( Ω) = k-1; Dimensione( Θo ) = 0,

Page 202: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5194

notare che la dimensione di Ω è k-1 dato che le variabili sono k date da p1 , ...,pk ed esiste l’unico vincolo

∑ iop = ∑ ip = 1.

Tenuto conto che ad ogni estrazione campionaria di tipo bernoulliano è asso-ciata una v.c. di Bernoulli, avremo n v.c. di Bernoulli indipendenti di cui n1 as-sumeranno il valore a1 con probabilità p1 , n2 assumeranno il valore a2 con pro-babilità p2 , ..., nk assumeranno il valore ak con probabilità pk ; la relativa funzionedi verosimiglianza sarà data da

L(pi ) = ∏=

k

1i

p ini

e il rapporto di massima verosimiglianza è

λ = i

i

ni

k

1i

nio

k

1i

p

p

=

= = in

i

iok

1i pp

∏=

= n n

in

i

iok

1i np

∏=

e quindi, per n sufficientemente grande, sotto Ho si ha

-2 log(λ) = - 2∑=

k

1i

ni log (pio/ ip ) = -2n log(n) - 2 ≈

=

k

1i i

ioi n

plogn 2

)1k( −χ

Si rifiuta Ho al livello α se risulta

-2 log(λ) > 2)1,1k( αχ −− .

Alternativamente, si può anche dimostrare che, se n pio ≥ 5 per tutti gli i =1,2 ,…,k, allora se Ho è vera risulta

2cχ = ∑∑

=−

=

≈−=− k

1i

2)1k(

io

2i

k

1i io

2ioi n

pnn

pn)pnn( χ

Page 203: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 195

e si rifiuta Ho al livello α se risulta

2cχ > 2

)1;1k( αχ −− .

Il test basato sul Chi-quadrato sopra descritto è indipendente dalle modalitàai e quindi può essere applicato anche a fenomeni qualitativi non ordinabili. Sidimostra che questo test è poco potente, cioè la probabilità dell’errore del s e-condo tipo è elevata e si tende a non rifiutare Ho anche quando è manifesta-mente falsa.

Se la distribuzione della v.c. di confronto Y è continua, per esempionell’intervallo (a, b) contenente il minimo ed il massimo delle ai , e se supponia-mo che le ai siano state ordinate in senso crescente, questa viene discretizzatacalcolando le probabilità

pio = Phi-1 ≤ Y < hi, per i=2,...,k-1

p1o = Pa ≤ Y < h2; pko = Phk-1 ≤ Y ≤ b

ove si è posto hi = (ai + ai+1)/2. Queste probabilità verranno utilizzate per cal-colare la relativa regione critica.

Esempio 11In un grande magazzino si suppone che la probabilità che un avventore entri nel nego-

zio e faccia delle compere in uno dei sei giorni lavorativi della settimana è data da:

giorni: L M M G V S pio: 0.1 0.1 0.1 0.1 0.2 0.4

Si vuole verificare tale ipotesi sulla base di una indagine campionaria fatta su n=200 clientiscelti a caso che ha dato i seguenti risultati

Page 204: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5196

Distribuzione empirica

giorni ni ipL 24 0.120M 25 0.125M 23 0.115G 18 0.090V 45 0.225S 65 0.325Tot.200 1.000

Distribuzione teorica

giorni n pio

L 20M 20M 20G 20V 40S 80

Tot. 200

Sappiamo che una regione critica approssimata è data da

-2log(λ) = -2 ∑=

k

1i

ni log

i

io

pp

> 2)1;1k( αχ −−

ove k rappresenta il numero delle modalità della distribuzione, ed una alternativa alla prece-dente è data da

2)1;1k(

k

1i i

2ii2

c np)npn(

αχχ −−=

>−= ∑

È facile verificare che nel nostro esempio risulta

-2log(λ) = -2 ∑=

k

1i

ni log

i

io

pp

= 6.152

∑=

−=k

1i io

2ioi2

c pn)pnn(χ = 6.1375

2)05.01,1k( −−χ = 11.1

ed ambedue le regioni critiche ci portano all’accettazione di Ho .

TEST SULL’INDIPENDENZAData una qualsiasi v.c. doppia (X, Y) discreta si vuole sottoporre a test

Ho : X ed Y sono indipendenti

Page 205: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 197

versoH1 : X ed Y non sono indipendenti

sulla base di un campione casuale di n unità estratto da (X, Y). Se supponiamoche X ed Y sono v.c. discrete o discretizzate ed assumono coppie di valori (xi ,yj ) per cui P(X=xi , Y=yj )= pi j , i=1, ..., k , j=1, ..., h , allora l’ipotesi Ho è equi-valente alla seguente

Ho : pi j = pi . p. j , per ogni i , j ,

ove con pi. e p.j abbiamo indicato le probabilità delle marginali X ed Y e piùprecisamente

pi . = P(X = xi ) , p. j = P( Y = yj ) .

I risultati del campione possono essere riportati in una tabella a doppia e n-trata del tipo seguente

Y\X x1 x2 … xh

y1 n11 n21 … nh1 n. 1

y2 n12 n22 … nh2 n. 2

... ... ... ... ... ...yk n1k n2k .. nhk n. k

n1 . n2 . ... nh . n

in cui le marginali ni . ed n. j sono supposte fissate e quindi uguali per tutti i pos-sibili campioni di ampiezza n che si possono estrarre da (X, Y). In queste con-dizioni risulta

Dimensione( Ω) = h k-1; Dimensione( Θo ) = h-1+k-1e quindi

Dimensione( Ω) - Dimensione( Θo ) = h k-1- (h-1+k-1) = (h-1) (k-1)

e questo perché esistono i vincoli:(a) la somma delle frequenze ni j deve essere pari ad n,(b) le frequenze marginali sono fissate.

Page 206: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5198

Con un ragionamento simile a quello fatto per il test di adattamento, si veri-fica facilmente che la funzione di verosimiglianza è data da

L(pij ) = ∏j,i

p ijnij

ed il rapporto di massima verosimiglianza diviene

∏∏

∏ ∏

= =

= ==k

1i

h

1j

nij

k

1i

h

1j

nj.

n.i

ij

j..i

p

pp

λ

ove si è posto

.ip = n

n .i ; j.p = n

n j. ; ijp = n

nij

Anche in questo caso, per N sufficientemente grande, sotto Ho risulta

-2 log( λ ) =

= 2

+∑∑ )nlog(n)nlog(n

i jijij ≈

−− ∑∑

jj.j.

i.i.i )nlog(n)nlog(n 2

)1h)(1k( −−χ

e si rifiuta Ho al livello α se è

-2 log( λ) > [ ]2

1);1h)(1k( αχ −−− .

Si dimostra anche che, se ≥n

nn j..i 5, per ogni i, j (in altri termini, in ogni

casella della tabella doppia teorica le frequenze sono pari ad almeno 5), allora

Page 207: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 199

≈−

= ∑∑=

k

1i

h

j*ij

2*ijij2

cn

)nn(χ 2

)1h)(1k( −−χ

ove si è posto

*ijn =

n

nn j..i

e si rifiuta per Ho al livello α se risulta

2cχ > 2

]1);1h)(1k[( αχ −−− .

Esempio 12Data la seguente tabella che classifica i voti, riportati da un campione casuale di studenti,

per classi di voti e diversa facoltà

Fac.\Voti 18-21 22-24 25-27 28-30 TotaleA 15 8 10 7 40B 3 2 4 6 15C 4 3 8 5 20D 10 4 0 11 25

Totale 32 17 22 29 100

si vuole sottoporre a verifica l’ipotesi che Voti e Facoltà siano indipendenti. Per far questo a c-corpiamo le righe A e B da un lato e quelle C e D dall’altro, inoltre mettiamo insieme le c o-lonne 18-21 e 22-24. In tal modo otteniamo la seguente tabella

Fac.\Voti 18-24 25-27 28-30 Totale

A ∪B 28 14 13 55C ∪D 21 8 16 45

Totale 49 22 29 100

per la quale, a differenza di quella originaria, è sempre

*ijn = ≥

n

nn j..i 5

e la relativa regione critica al livello α è data da

Page 208: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5200

2

i j*ij

2*ijij2

c )1);1k)(1h((n

)nn(α

χχ−−−

>−

= ∑∑

o equivalentemente

2

i j .j.i

2ij2

c )1);1k)(1h((1

nn

nn

αχχ

−−−>

−= ∑∑

Tenuto conto che è 966.12c =χ

2)05.1,2( −χ = 5.99

non è possibile rifiutare Ho al livello di probabilità del 5%. Se utilizziamo la regione criticaottenuta con il rapporto di verosimiglianza si ottiene

- 2 log(λ) = 5.452

ed ancora una volta non è possibile rifiutare Ho.

TEST DI WILCOXONQuesto test viene utilizzato per confrontare due medie, relative a popola-

zioni indipendenti, quando non è plausibile l’ipotesi di normalità delle stesse e lanumerosità dei due campioni è relativamente piccola. Supponiamo di avere ledue popolazioni X ed Y con funzione di ripartizioni date rispettivamente daF(t) e G(t) incognite. Si vuole sottoporre a test

Ho : F(t) = G(t) verso H1 : G(t) ≤ F(t) .

Notiamo che se H1 è vera la v.c. Y tende ad assumere valori più grandi della v.c. X.Inoltre, tenendo conto che

F(t) = P(X ≤ t) e G(t) = P(Y ≤ t)

segue che, se H1 è vera, deve essere

P(Y>t) ≥ P(X>t) = 1-G(t) ≥ 1-F(t) ⇔ G(t) ≤ F(t).

Questo vuol dire che, equivalentemente, si ha

Page 209: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 201

H1: P(Y>t) ≥ P(X>t) ⇔ G(t) ≤ F(t).

Se la H1 è vera si dice che Y è stocasticamente più grande di X. Graficamente, se èvera H1 , si ha una situazione come quella descritta nella figura seguente

Per risolvere il problema se accettare o rifiutare Ho estraiamo, senza ripetizio-ne, da X un campione di ampiezza n e, indipendentemente, da Y un campionedi ampiezza m ottenendo rispettivamente:

x1 , x2 , ...., xn

y1 , y2 , ...., ym

Consideriamo il campione di ampiezza n +m:

x1 , x2 , ...., xn , y1 , y2 , ...., ym ,

ordiniamolo in senso crescente ed associamogli i primi n+m numeri interi:

In,m = 1, 2, ..., n, n+1, n+2, ..., n+m;

consideriamo i ranghi delle n estrazioni dalla X e delle m estrazioni dalla Y

r1 , r2 , ..., rn rn+1 , rn+2 , ..., rn+m ove:

r1 è il posto occupato dalla X1 in In, m

r2 è il posto occupato dalla X2 in In, m

..............................................rn è il posto occupato dalla Xn in In, m

Page 210: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5202

rn+1 è il posto occupato dalla Y1 in In, m

...............................................rn+m è il posto occupato dalla Ym in In, m

Bisogna ora:(a) selezionare una statistica test,(b) trovare il valore soglia per il test, fissato α .

Si può dimostrare che non esiste una soluzione ottimale per il punto (a),d’altro lato è intuitivo capire che più la media delle Y è grande rispetto alla m e-dia delle X, più si è portati a rifiutare Ho . In questa ottica, siccome non cono-sciamo la distribuzione di X e di Y e quindi non abbiamo informazioni sulleloro medie, la cosa più ovvia è di confrontare la media di r1 , r2 , ..., rn conquella di rn+1 , rn+2 , ..., rn+m costruendo, in similitudine a quanto fatto per ilconfronto di due medie provenienti da due popolazioni normali indipendenti,la relativa statistica tc :

mnnm

)rr(2mn

1

rrt

mn

1i

2i

12c +

−−+

−=

∑+

=

ove si è posto:

1r = ∑=

n

1in1

ri ; 2r = ∑+

+=

mn

1nim1

ri ; r = ∑+

=+

mn

1imn1

ri .

Ricordando quanto detto per l’uniforme discreta, si ha immediatamente

r = 2

1mn ++; 2

i

mn

1i

)rr( −∑+

=

= (n+m) 12

1)mn( 2 −+.

Inoltre

∑+

=

mn

1i

ri = ∑=

n

1i

ri + ∑+

+=

mn

1ni

ri

ma allora, posto

Wc = ∑+

+=

mn

1ni

ri

è facile verificare che è

Page 211: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 203

tc = 2/1

2 1)mn(

)2mn(nm12m1

−+−+

Wc - (n+m+1) 2/1

2 1)mn(

)2mn(nm3

−+−+

.

Notiamo che tc dipende, a meno di costanti note, funzioni di n e di m, solo daWc . La statistica Wc è detta statistica di Wilcoxon. In definitiva, possiamo affer-

mare che per sottoporre a test Ho basta calcolare solo Wc , cioè la somma dei

ranghi del campione estratto da Y (quello supposto statisticamente più grande).Per derivare il valore critico, fissato α = P(E1 ), è necessario derivare, sotto

l’ipotesi Ho, la distribuzione di Wc al variare dei due campioni estratti rispetti-

vamente da X e da Y. Osserviamo che Wc assume il valore minimo quando

tutti gli m ranghi delle Yi sono ai primi m posti ed in tal caso si ha Wm=1+2+...+m=m(m+1)/2, mentre assume il valore massimo quando tutti gli mranghi delle Yi sono agli ultimi m posti ed in tal caso si ha WM=(n+1)+(n+2)+...(n+m)=m(m+2n+1)/2 e quindi si ha che

2)1m(m + ≤ Wc ≤

2)1n2m(m ++

e di conseguenza si è portati a rifiutare Ho quando Wc è grande. L’esempio che

segue mostra come il test va costruito in un caso concreto.

Esempio 13I controllori di un impianto nucleare operano con due differenti politiche, diciamo la PI e la

PII. Nella tabella che segue sono riportati i tempi, misurati in ore, fino a che si verifica unguasto sia sotto PI che sotto PII. Si vuole sottoporre a test

Ho : PI = PII

H1 : PII migliore di PI ⇔ GII(t) ≤ FI(t)

Per stabilire se accettare o rifiutare Ho furono condotti n=5 esperimenti sotto PI e m=5 sottoPII ottenendo

1 2 3 4 5X: PI 7 26 10 8 29Y: PII 3 150 40 34 32

Page 212: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5204

In questo caso è n=m=5. Attribuiamo i ranghi alle n+m=10 osservazioni, per far questodobbiamo in primo luogo ordinare le 10 osservazioni in senso crescente indicando quale si rife-risce ad X e quale ad Y ed otteniamo:

ri 1 2 3 4 5 6 7 8 9 10

3 7 8 10 26 29 32 34 40 150X x x x x xY y y y y y

I ranghi saranno

(r1 , r2 , r3 , r4 , r5 ) = (2, 3, 4, 5, 6) per il carattere X(r6 , r7 , r8 , r9 , r10 ) = (1, 7, 8, 9, 10) per il carattere Y

AvremoWc = 1+7+8+9+10 = 35

Bisogna verificare se il valore Wc=35 è da considerare “grande” oppure piccolo. Nel casoin questione, sappiamo che è 15 ≤ Wc ≤ 40 e quindi:

più Wc è “vicino” a 40 più siamo portati a rifiutare Ho

più Wc è “vicino” a 15 più siamo portati ad accettare Ho

Per stabilire se Wc =35 è grande o piccolo è necessario calcolare la probabilità, ottenuta alvariare del campione nell’universo campionario, dell’evento: (W≥ 35 sotto l’ipotesi che Ho siavera). Se questa probabilità è “grande” sono portato ad accettare Ho, se è “piccola” sono por-tato a rifiutare Ho . In termini formali bisogna calcolare:

p = P(W ≥ 35 | Ho ).

Osserviamo che se in questo caso usassimo l’usuale test t sul confronto fra due medie indi-pendenti otterremmo

x = 16 y = 51.8 s 2x = 90 s 2

y = 2574.56

tc = 10

)255(25

)56.2574(4)90(4

168.51 −++

−= 1.55

Page 213: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 205

e rifiuteremmo Ho (cioè che µx e µy sono uguali) con una probabilità compresa fra 5% e10%. Notiamo ancora che in questo caso l’ipotesi che le due varianze siano uguali (indispen-sabile per poter applicare correttamente il t-test) non può essere accettata dato che risulta

Fc = 2x

2y

s

s= 28.61 mentre F(4, 4; 1-0.01) = 16.00

cosa che può avere forti conseguenze sulla potenza del test t.

Per l’uso del test W sono state costruite delle tavole, riportate in appendice,che permettono di calcolare p a partire dalla distribuzione di

U = W - 2

)1m(m +

con n, m ≤ 10 ed m ≥ n. Le tavole suddette riportano le probabilità

P(W ≥ Wc ) = P

+

−≥+

−2

)1m(mW

2)1m(m

W c =

= P

+

−≥2

)1m(mWU c = PU ≥ n m - a = PU ≤ a

in funzione delle costanti

a = n m - Wc+ 2

)1m(m +

k1 = minn, mk2 = maxn, m

Esempio 14Nel caso dell’esempio precedente risulta:

P(W ≥ 35) = PU ≥ 25 - 5Con

Wc = 35; n = 5; m = 5; k1 = 5; k2 = 5; a = 25-35+15 = 5

ed in corrispondenza della tripla

Page 214: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5206

(k1 = 5; k2 = 5; a = 5)

dalla tavola citata si trova p = 0.0754 che è vicino a quello trovato sotto l’ipotesi di normali-tà e di uguale variabilità di X ed Y.

Nel caso in cui è n, m > 10 il valore di p può essere trovato utilizzandol’approssimazione di U alla normale. Per far questo è necessario derivare lamedia e la varianza di U. Si può dimostrare che è

E(U) = 2

nm; var(U) =

12)1mn(nm ++

e che risulta

++

−2/1

12)1mn(nm

2nm

U N(0, 1)

pertanto

si rifiuta Ho al livello α se è

++

−2/1

12)1mn(nm

2nm

U z(1-α).

Osserviamo che nell’esercizio precedente risulta 1.57 ≥ z(1-α) che porta al ri-

fiuto di Ho solo se è α ≥ 0.059 contro il valore di p=0.0754. Come si puònotare, l’approssimazione asintotica non è molto buona e questo dipende e s-senzialmente dal fatto che in questo caso è n, m < 10.

Si può dimostrare che la v.c. U è simmetrica intorno alla sua media e quindisi ha

+= k

2nm

UP =

−= k

2nm

UP

ma allora la quantità

Page 215: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 207

2nm

U −

è una statistica test per il caso bilaterale

Ho : F(t) = G(t)

H1 : G(t) < F(t) ∪ F(t) < G(t).

Si può, inoltre, dimostrare che il test di Wilcoxon è competitivo con il testT-di Student dato che la massima perdita di potenza di W rispetto a t è inferio-re al 5% nel caso in cui il test t è ottimale (fenomeni distribuiti normalmente econ uguale varianza), altrimenti la potenza di W è nettamente superiore a quelladel test t.

Nel test di Wilcoxon sopra illustrato si è implicitamente supposto che fra idati campionari di X e di Y non vi siano valori ripetuti. In pratica spesso alcunivalori possono ripetersi ed in tal caso il valore dei ranghi non può essere asso-ciato a ciascun xi ed yi in modo univoco. Quando si presentano casi di questotipo ai valori che si ripetono viene sostituito al rango teorico la loro media. Peressere più chiari, supponiamo che i valori osservati per Y ed i relativi ranghi inassenza di ripetizioni fossero

yi : 76 81 81 90 90 90 100ri : 5 7 8 10 11 12 14

in tal caso questi ranghi dovranno essere sostituiti dai seguenti

ri : 5 7.5 7.5 11 11 11 14

ove 7.5 è la media di 7 ed 8 mentre 11 è la media di 10, 11 e 12, quindi si pro-cede come già visto. Il test che ne risulta è ancora abbastanza buono specie se ned m sono maggiori di 10.

TEST DEI SEGNIQuesto test è la variante non parametrica del test sul confronto fra medie

per dati appaiati se l’ipotesi di normalità bivariata non è sostenibile; inoltre, ve-dremo che può essere particolarizzato per sottoporre a test una sola media ri-muovendo l’ipotesi di normalità del fenomeno.

Supponiamo di avere un fenomeno bivariato (X, Y) e di aver osservato a

Page 216: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5208

caso un campione di n coppie (xi , yi ) indipendenti ed identicamente distribuite.Più in particolare supponiamo che:

xi è il controlloyi è il trattamento.

Sia Z = Y-X e zi = yi - xi , i=1,2,..., n. Supponiamo che la funzione di ripartizio-ne F(t) di Z sia incognita ma continua. Si vuole sottoporre a test l’ipotesi

Ho : Il trattamento Y non ha effetto.

Questa ipotesi equivale a dire che Zi = Yi - Xi ha la stessa funzione di ripartizio-ne di - Zi = Xi - Yi . Ma allora Zi è simmetrica intorno allo zero, cioè:

P- Z ≥ t = PZ ≥ - t = 1 - PZ < -t,

In definitiva, Ho diviene

Ho : F(t) = 1 - F(-t) = )t(F

ove si è posto )t(F = 1 - F(-t).Per quel che riguarda l’ipotesi alternativa, in questo caso, è

H1 : Il trattamento Y ha effetto positivo

che è equivalente a dire che Z è stocasticamente più grande di -Z, cioè

PY - X > t ≥ PX - Y > t

che a sua volta equivale a F(t) ≤ )t(F . In definitiva, le ipotesi che si vuole sot-toporre a test possono essere formalizzate nel modo seguente

Ho : F(t) = )t(F verso H1 : F(t) ≤ )t(F .

Sia S la statistica così ottenuta

sc = Numero[z i = ( yi - xi ) > 0]

cioè sc = numero delle differenze (yi -xi ) positive. Osserviamo che, nell’universo dei

campioni, è sempre 0 ≤ S ≤ n questo vuol dire che si rifiuta Ho se sc è grande,cioè supera un certo valore critico. Dall’impostazione data al problema sc può an-

Page 217: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 209

che essere interpretata come numero di successi (quanti zi sono positivi) in n proveindipendenti e dato che

P(Z i > 0) = 1 - F(0).

Segue immediatamente che sc , sotto Ho, ed al variare del campione nell’universo

campionario genera la v.c. Binomiale S :

S ~ B(n; 1-F(0))

Se Ho è vera ci si aspetta che il numero delle z i positive sia uguale a quelle nega-

tive, in altri termini che 1-F(0) = 21

per cui risulta

(S | Ho ) ~ B(n; 1/2)

pertanto il valore critico si ottiene dalla v.c. Binomiale con parametri (n; 1/2 ) r i-portata in una delle tavole dell’appendice. Inoltre, se è n > 10 la B(n; 1/2) è be-ne approssimata da una normale con media n/2 e varianza n/4 per cui

si rifiuta Ho al livello α se risulta

n

21

2n

s2 c

−−

> z(1-α)

ove la costante 1/2 è stata introdotta per tenere conto del fatto che la Bino-miale, che è discreta, è stata approssimata con la Normale che è continua.

Esempio 15Riprendiamo i dati dell’esempio 7

Macchine 1 2 3 4 5 6 7xi 17.2 21.6 19.5 19.1 22.0 18.7 20.3yi 18.3 20.8 20.9 21.2 22.7 18.6 21.9zi=yi-xi 1.1 -0.8 1.4 2.1 0.7 -0.1 1.6

da cui risulta immediatamente sc = 5 ed avremo

Page 218: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5210

p = P(S ≥ 5) = P(S=5) + P(S=6) + P(S=7) =

= 52 2

1

2

157

+ 62

121

67

+ 70 2

1

2

177

= 0.22656

La probabilità di rifiutare Ho quando è vera è più del 22% e quindi si è portati ad accettareHo . Se utilizziamo l’approssimazione normale otteniamo

n

21

2n

s2 c

−−

= 0.7559 > z(1-α)

e dalle tavole della normale segue immediatamente che questa disuguaglianza è verificata se è 1-α ≤ 0.7749 che implica α ≥ 0.2251 che è una discreta approssimazione del valore esattoprima derivato. Ricordiamo che nell’esempio 7 il test su dati appaiati sotto l’ipotesi di normali-tà portava al rifiuto di Ho.

Osserviamo che questo test può anche essere utilizzato per ipotesi alternativebilaterali tenendo conto che in tal caso la statistica test diviene semplicemente

n2n

s2 c −

Osserviamo ancora che il test proposto può essere utilizzato, come caso parti-colare, per costruire test non parametrici su una media ponendo nelle formulee nei ragionamenti precedenti zi = yi - µo .

Nel test del segno appena visto viene preso in considerazione il segno delledifferenze zi =yi - xi ma non il loro valore, questo porta ad una riduzione dellapotenza che lo rende spesso non affidabile.

5.7 Cenni agli intervalli di confidenza

In questo paragrafo tratteremo brevemente di un argomento di grande uti-lità pratica. Nelle applicazioni a fenomeni concreti, il più delle volte, non interes-sa sapere se per un generico parametro incognito θ è da accettare o rifiutareuna data ipotesi, ma in quale intervallo cade una volta fissata una determinataprobabilità. In termini generali, fissata la probabilità di errore del primo tipo α

Page 219: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 211

bisogna derivare le funzioni c1(Xn) e c2(Xn) di modo che risulti

αθ −=≤≤ 1)(c)(cP n2n1 XX

e l’intervallo [c1(Xn) ; c2(Xn)] sia ottimale in qualche senso. Nel seguito per otti-male intenderemo l’inervallo più piccolo possibile. Ove Xn indica, come al s o-lito, la v.c. generata dal campione di n elementi estratto da X. Rileviamo che[c1(Xn) ; c2(Xn)] è esso stesso una v.c. visto che è funzione di Xn e quindi laformula sopra scritta va interpretata come

il più piccolo intervallo casuale [c1(Xn) ; c2(Xn)] che contiene, nell’1-α per cento deicasi, il parametro incognito θ.

In pratica, si possiede un solo campione xn = (x1 , x2 , …, xn ) che permettedi calcolare un solo intervallo. Per questo si parla di intervallo di confidenza o in-tervallo fiduciario visto che si spera che quest’unico intervallo contenga il para-metro vero con probabilità pari ad 1-α.I casi che illustreremo nel seguito, di rilevanza pratica, chiariscono quanto si èfin qui affermato. In generale, per derivare tale intervallo utilizzeremo la regionedi accettazione dei test bilaterali.

INTERVALLO DI CONFIDENZA PER LA MEDIA

Sia X~N(µ ; σ 2), con µ e σ

2 incogniti, e si voglia costruire, sulla base del

campione osservato x=(x1 ,…,xn ), un intervallo in cui con probabilità pari ad

1- α cada il valore incognito della media. Questo intervallo viene detto intervallodi confidenza per la media.

Dal test delle ipotesi bilaterale della media sappiamo che per Ho : µ = µo

verso H1 : µ ≠ µo ha senso usare la statistica

tc = s)x(n oµ−

che sotto Ho si distribuisce come una T-di Student con (n-1) gradi di libertà conregione critica C1 data, per la simmetria della v.c. T, da

s|x|n oµ− ≥ t(n-1; 1-α/2) = - t(n-1; α/2)

Page 220: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5212

ove al solito è

P(T ≥ t (n-1; 1-α/2) ) = α/2; P(T ≤ t(n-1; α/2) ) = α/2.

Questo implica che la regione di accettazione C o è data, qualsiasi sia µo , da

t(n-1; α/2) ≤ s

)x(n µ− ≤ t(n-1; 1-α/2)

che, dopo semplici passaggi algebrici, tenuto conto della simmetria della v.c. T,implica il seguente

intervallo di confidenza per µ

x - n

st(n-1; 1-α/2) ≤ µ ≤ x +

n

st(n-1; 1-α/2)

Se la popolazione di partenza non è normale l’intervallo trovato è valido soloasintoticamente.

Esempio 16Data la popolazione X~N(µ ; σ 2), con µ e σ 2 incogniti, si vuole costruire per µ un

intervallo di confidenza al livello 1 - α = 0.95 sulla base di un campione di n=10 osserva-zioni per il quale è risultato x = 3 e s 2 = 5.

Sappiamo che l’intervallo di confidenza ottimale per µ al livello 1- α è

++ −−− )2/a1,1n()2/a,1n( t

n

sx;t

n

sx

Dato che è

Page 221: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 213

t(9; 1- α /2) = - t(9; α /2) = 2.262

l’intervallo di confidenza risulta pari a

[3 - 10/5 2.262; 3 + 10/5 2.262] = [1.4005; 4.8526]

INTERVALLO DI CONFIDENZA PER UNA PERCENTUALEAbbiamo visto che nel caso di popolazioni dicotomiche ed estrazione ber-

noulliana un test accettabile per Ho: p = po verso H1: p po è basato sulla stati-stica asintoticamente pivotale

z c =)p1(p

)pp(n

oo

o

−−

che sotto Ho si distribuisce asintoticamente come una N(0, 1). La relativa regio-ne critica C1 è

)p1(p

ppn

oo

o

−> z(1-α/2)= - z(α/2)

questo implica che la regione di accettazione è data, qualsiasi sia po , da

z(α/2) ≤)p1(p

)pp(n

oo

o

−−

≤ z(1-α/2)

che dopo semplici trasformazioni, tenendo conto della simmetria della normalee sostituendo ai valori incogniti le relative stime, implica il seguente

intervallo di confidenza al livello 1-α per il parametro p nel caso di estrazionebernoulliana

p - z(1-α/2) n)p1(p − ≤ p ≤ p + z(1-α/2) n

)p1(p −

Notiamo che l’errore tollerabile ε al livello 1-α prima di effettuare l’estrazionedel campione è dato da

Page 222: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 5214

ε = | p - p| = z(1-α/2) n)p1(p −

ove p è incognito. Se teniamo conto che p(1-p) è massimo per p=1/2 si ha i m-mediatamente che

ε = | p - p| ≤ z(1-α/2) n2

1

questo permette di calcolare l’errore massimo tollerabile al livello (1-α) fissato n, daquesta è possibile derivare n fissato ε:

n ≤ 2

2)2/1(

4

z

εα−

che rappresenta la numerosità massima del campione, fissato l’errore tollerabile, allivello (1-α). Con un ragionamento simile, nel caso di estrazione senza reimmis-sione si ha che

l’intervallo di confidenza al livello 1-α per il parametro p nel caso di estrazionesenza reimmissione è dato da

p - z(1-α/2) )f1(n

)p1(p −− ≤ p ≤ p + z(1-α/2) )f1(n

)p1(p −−

mentre, l’errore massimo tollerabile, fissato n ed α, è pari a

ε = | p - p| ≤ z(1-α/2) n2

)f1( −,

la numerosità massima, fissato l’errore tollerabile ed α, è pari a

n ≤2

)2/1(2

2)2/1(

zH4

zH

α

α

ε −

+

ove con H si è indicata la numerosità della popolazione da cui il campione vie-ne estratto.

Page 223: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Introduzione al test delle ipotesi 215

Esempio 17Riprendiamo il caso riportato nell’esempio 6 in cui è

H = 1120, n = 95, f = 0.08482, p = 0.379

In queste condizioni l’intervallo di confidenza per p nel caso di estrazione con reimmissione allivello 1-α = 0.95 è dato da

0.379 - 1.96(0.049774) ≤ p ≤ 0.379 + 1.96(0.049774) ⇔

⇔ [0.2814 ≤ p ≤ 0.4765]

Nel caso di estrazione senza reimmissione l’intervallo di confidenza è dato da

0.379 - 1.96(0.049774)0.95665 ≤ p ≤ 0.379 + 1.96(0.049774)0.95665 ⇔

⇔ [0.2857 ≤ p ≤ 0.4723]

Come si può notare l’intervallo di confidenza ottenuto nel caso di estrazione in blocco, comeatteso, è più corto di quello dell’estrazione bernoulliana. Questo è una conferma della maggioreefficienza dell’estrazione in blocco rispetto a quella bernoulliana.

Deriviamo ora l’errore massimo tollerato per n=95 ed al livello α = 5% nei due sistemidi estrazione. Dalle formule sopra riportate otteniamo

ε ≤ 1.96(0.0512989) = 0.1005 per il caso bernoullianoε ≤ 1.96(0.0512989)0.95665 = 0.0962 per il caso in blocco.

Come si può vedere l’errore massimo è abbastanza rilevante visto che in ogni caso supera il9%.

Page 224: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano
Page 225: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6

IL MODELLO DI REGRESSIONE

6.1 Introduzione

In questo capitolo conclusivo generalizziamo quanto esposto nell’ultimo ca-pitolo del Volume I. In particolare affrontiamo da un punto di vista probabili-stico il problema di grande rilevanza pratica riguardante l’esistenza di una rela-zione fra una data variabile (variabile endogena o dipendente ) ed una o più altre va-riabili (variabili esplicative o indipendenti ). Il legame è del tipo cause-effetto che suppo-niamo di tipo unidirezionale: sono le variabili esplicative che causano quella di-pendente, ma non è ammesso, logicamente, il viceversa. Questa problematica èil primo passo di una disciplina abbastanza importante e complessa che vasotto il nome di Econometria.

Da un punto di vista formale, se indichiamo con Y la variabile dipendente econ X1 , X2 , ..., Xk le k variabili esplicative che entrano nel problema si suppo-ne che sia

Y = f(X1 , X2 , ..., Xk ; β ) (1)

ove f( ) è una qualche funzione nota a meno del vettore di parametri β. Piùprecisamente:

X1 , X2 , ..., Xk sono le causeY è l’effettoββ è un vettore di parametri incognitif( ) è una funzione nota

Se si escludono fenomeni di tipo fisico, ed anche in quell’ambito la cosa èdiscutibile, è ben difficile sostenere che fra cause ed effetto vi sia una perfettarelazione matematica. Di solito su Y, oltre alle k variabili esplicative (X1 , X2 ,..., Xk ) individuate, esercitano la loro influenza tutta una serie di micro-cause

Page 226: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6218

(compresi gli inevitabili errori di misurazione dei fenomeni) di difficile o i m-possibile osservazione che sintetizziamo sotto la voce caso. Da un punto di vistastatistico queste micro-cause possono essere rappresentate da una variabile ca-suale non osservabile, che chiamiamo errore o scarto, e che indichiamo con e.Un modo molto semplice per includere in Y l’influenza di e è quello di som-mare questa variabile casuale nella (1) ottenendo il modello di regressione

Y = f(X1 , X2 , ..., Xk ; β ) + e (2)

Nella (2) Y è essa stessa una variabile casuale visto che è una funzionedell’errore casuale e. Nel seguito supporremo che il carattere descrivente Y è unfenomeno continuo, l’estensione al caso discreto non viene qui presentata.

Esempio 1Indichiamo con R il reddito individuale di un certo insieme di soggetti, con C i relativi con-

sumi, dalla teoria economica sappiamo che ha senso scrivere

C = f(R ) + e

In altri termini, con questa relazione diciamo che i consumi individuali sono una qualche fun-zione del reddito individuale a cui si somma una variabile scarto che può essere identificata coni diversi gusti, la diversa religione, errori di misurazione ecc.

Indichiamo con D la domanda di un dato bene, P il prezzo unitario di quel bene, R ilreddito del consumatore, Pc il prezzo unitario di un bene complementare, Ps il prezzo unitariodi un bene sostitutivo, sappiamo dalla teoria economica che ha senso la relazione seguente

D = f(P, R , Pc , Ps ) + e

Indichiamo con CA il consumo di carburante e con CI la cilindrata di date autovetture,ha senso scrivere la relazione seguente

CA = f(CI ) + e.

Nella (2), per procedere oltre, esplicitiamo la forma funzionale di f( ) equindi ci poniamo così in un ambito parametrico (le uniche incognite sono iparametri ββ presenti nel modello). Si potrebbe anche utilizzare un approcciopiù complesso, che in questa sede non viene presentato, in cui la forma funzio-nale f( ) è essa stessa incognita (caso non parametrico) e da stimare. Per sempl i-ficare ancora gli sviluppi ed i risultati teorici, nel seguito supporremo che f( ) sialineare e di conseguenza parleremo di modello di regressione lineare.

Nel caso in cui vi sia una sola variabile esplicativa ed f( ) è lineare si parla di

Page 227: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 219

regressione lineare semplice, se le variabili esplicative sono più di una si parla di regres-sione lineare multipla. Tratteremo in modo diffuso della regressione lineare sem-plice avvertendo che, almeno da un punto di vista concettuale, tutto ciò cheviene detto per questo caso vale per quello, più interessante da un punto di vi-sta applicativo, multiplo. La scelta di analizzare e presentare in modo detta-gliato il modello di regressione lineare semplice è che in tal caso molti sviluppiformali si semplificano ed i relativi calcoli applicativi possono essere eseguitianche con una semplice calcolatrice tascabile. D’altro lato, almeno concettual-mente, faremo vedere come questi sviluppi si generalizzano al caso multiplo epresenteremo in tal senso anche qualche applicazione a fenomeni reali.

6.2 La costruzione del modello di regressione

La costruzione di un modello, ed in particolare quello di regressione, consi-ste in una serie di passaggi, di stadi, logici e formali molto complessi che ren-dono l’operazione abbastanza delicata. Vediamo di ripercorrerne, sintetica-mente le tappe più rilevanti:

(1) in primo luogo è necessario individuare il fenomeno su cui si vuole c o-struire il modello;

(2) tenendo conto della teoria o di pezzi di teoria già esistenti si individuano lavariabile dipendente Y e quelle esplicative (X1 , X2 , ..., Xk ), quindi si rac-colgono informazioni statistiche su (Y ; X1 , X2 , ..., Xk );

(3) utilizzando la teoria già esistente o lavori che già hanno affrontato, in tempio contesti differenti, la stessa problematica ed i relativi risultati ottenuti siformula il modello di regressione esplicitando la forma funzionale f( );

(4) si stimano i parametri incogniti del modello formulato con un metodo distima che porti, quanto meno, a stimatori consistenti;

(5) si verifica che il modello formulato e stimato sia “accettabile” sottopo-nendolo ad una serie di test;

(6) se il modello viene “accettato” si usa a fini interpretativi, previsivi, descrittivi,di controllo ecc. Se il modello non viene ritenuto idoneo a rappresentare ilfenomeno in studio si ritorna al punto (1) per ripercorrere il ciclo e termi-narlo fino a che il modello non viene accettato.

Nella figura che segue sono riportate le tappe dello schema logico per lacostruzione di un modello.

Come si può arguire da quanto abbiamo detto schematicamente qui sopra,le fasi più delicate nell’elaborazione di un modello sono la sua formulazione -identificazione e la sua verifica. Infatti, un modello elaborato per uno o più de-

Page 228: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6220

gli scopi sopra accennati può non superare la fase di verifica (fallimento delmodello). In tal caso è necessario cercare di scoprire gli ostacoli che lo rendononon utilizzabile e rimuoverli. In generale, i motivi più frequenti per cui un mo-dello fallisce sono dovute ad una o più delle seguenti cause:

(i) la teorizzazione che è stata utilizzata per formulare il modello non regge allaprova dei fatti ed il modello elaborato non si adatta alla realtà osservata. Èmolto difficile individuare una tale fonte di errore. Ogni modello, perquanto complesso, è una semplificazione della realtà e di solito si assumeche sia valido per quella realtà fino a prova contraria;

(ii) la teorizzazione è corretta ma la formulazione-identificazione del modello èerrata. Così, se utilizziamo un modello lineare, mentre in realtà le relazionisono non lineari i risultati che si ottengono sono scadenti;

(iii) i dati a disposizione, in qualità o in quantità, oppure il metodo di stima nonsono idonei.

6.3 Il modello di regressione lineare semplice

Poniamo ora la nostra attenzione al caso di un modello di regressione linea-re semplice. In altri termini, supponiamo che per i fenomeni che si stanno stu-diando si può ritenere valido un modello di regressione lineare semplice equindi che sia

Page 229: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 221

Y = βo + β1 X + e (3)

con: Y la variabile dipendente che descrive il fenomeno di interesse, X l’unicavariabile esplicativa (causa) di Y, e la variabile casuale scarto non osservabile, βo

e β1 due parametri incogniti e da stimare.

Osserviamo che nella (3), βo + β1 X rappresenta l’equazione di una retta ove

βo è la relativa intercetta mentre β1 è il coefficiente angolare. Per poter proce-dere alla stima dei parametri incogniti del modello (3) è necessario:

(a) avere informazioni sulle due variabili osservabili Y ed X ,(b) formulare delle ipotesi sulla variabile casuale scarto non osservabile e.

A tale proposito supponiamo di disporre di un campione casuale di n coppieestratte da (X , Y) ottenendo la seguente rilevazione statistica:

(x1 , y1 ), (x2 , y2 ), ..., (xn , yn ).

Naturalmente, queste n coppie di osservazioni possono essere analizzate congli strumenti della statistica descrittiva di cui abbiamo parlato nei capitoli inizialied in particolare possono dare luogo ad una distribuzione di frequenza doppiaed ai relativi indici descrittivi ivi presentati.

Se il modello (3) è vero, e tale lo riteniamo fino a prova contraria, allora sa-rà vero per ogni coppia di osservazioni ottenendo

y1 = βo + β1 x1 + e1y2 = βo + β1 x2 + e2......................………

yn = βo + β1 xn + en

ove e1 è la variabile casuale scarto non osservabile associata alla prima osserva-zione campionaria, e2 è la variabile casuale scarto non osservabile associata allaseconda osservazione campionaria, ..., en è la variabile casuale scarto non osser-vabile associata alla n-esima osservazione campionaria. Ovviamente, le n coppiedi osservazioni potrebbero anche costituire una serie storica doppia osservatain n tempi diversi sulla stessa unità di rilevazione in tal caso anche ei , i=1,2,...,n,risulta ordinata nel tempo.

Page 230: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6222

Esempio 2Nel caso del consumo in funzione del reddito, il modello di regressione lineare diviene

C = βo + β1 R + e

ed avendo a disposizione le n coppie di osservazioni (ci , ri ) avremo:

ci = βo + β1 ri + ei i = 1, 2, ..., n

Se le n coppie di osservazioni (ci ,ri ) sono state ottenute intervistando n individui a caso diuna data popolazione allora queste sono scambiabili e le informazioni contenute nella rileva-zione doppia sono equivalenti a quella della distribuzione di frequenza doppia ad essa associa-ta. Se le n coppie di osservazioni si riferiscono sempre alla stessa unità di rilevazione (lo stessoindividuo, oppure la stessa regione, oppure lo stesso paese) osservata in n tempi diversi, di solitoequispaziati, allora si ha una serie storica doppia le cui coppie di rilevazioni non sono scam-biabili pena la perdita di informazioni sull’evoluzione temporale del fenomeno.

Una volta formulato il modello e ottenute le n coppie di osservazioni è n e-cessario stimare i parametri incogniti. Per poter far questo bisogna formularele ipotesi classiche del modello di regressione:

(1) il modello è perfettamente specificato, nel senso che non vi sono altre va-riabili che spiegano Y e la forma lineare del modello è corretta;

(2) la variabile X è deterministica, nel senso che al variare del campione varia-no i valori assunti da ei ma le xi sono sempre le stesse;

(3) E(ei ) = 0 per i = 1,2,.., n.In altri termini, le n variabili casuali scarto ei valgono in media tutte zero equindi, in media, non esercitano alcuna influenza su Y;

(4) var(ei ) = σ 2 per i = 1, 2,..., n.In altri termini, le n variabili casuali scarto hanno tutte la stessa variabilità(ipotesi dell’omoschedasticità);

(5) cov(ei , ej ) = 0 per i ≠ j = 1 , 2 , ..., n .In altri termini, fra variabili casuali scarto relative ad osservazioni diversenon esistono legami lineari (ipotesi dell’incorrelazione);

(6) ei ~N(0 , σ 2), i = 1, 2,..., n , e sono indipendenti fra di loro.In altri termini, le variabili casuali scarto si distribuiscono come normali

indipendenti tutte con la stessa media pari a zero e la stessa varianza σ 2

(ipotesi di normalità, questa ipotesi include le ipotesi (3)-(5)).

Page 231: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 223

Da quanto è stato detto fino ad ora rileviamo che in complesso i parametri

da stimare sono tre e precisamente βo , β1 , σ 2.Se il modello di regressione lineare fosse stato multiplo, per esempio con le

tre variabili esplicative X, Z, V, avremmo dovuto avere n quadruple di infor-mazioni (yi , xi , zi , vi ), i=1,2,...,n, e per ciascuna di esse sarebbe risultato

yi = βo + β1 xi + β2 z i + β3 vi + ei (4)

In tal caso le ipotesi classiche fatte continuerebbero a valere con l’aggiuntadell’ulteriore ipotesi che fra le xi , z i , vi non vi siano perfetti legami lineari,mentre i parametri da stimare crescerebbero, in questo caso sarebbero cinque e

precisamente: βo , β1 , β2 , β3 , σ 2.Ritornando al caso semplice, tenuto conto dell’ipotesi (3) si ha immediata-

menteE(Yi ) = βo + β1 xi , i = 1, 2, ..., n

questo vuol dire che Y, in media, è una funzione lineare della X, inoltre tenutoconto contemporaneamente dell’ipotesi (2) risulta

var(Yi ) = var(ei ) = σ 2, i = 1, 2, ..., n

che per l’ipotesi (6) implica

Yi ~ N[ βo + β1 xi , σ 2] , i = 1, 2, ..., n

cioè le Yi sono normali indipendenti. Considerazioni analoghe valgono per il

caso multiplo.

6.4 La stima dei parametri del modello

Dato il modello di regressione lineare semplice, utilizzando le n informa-zioni campionarie, stimiamo in primo luogo i due parametri βo e β1 . Per farquesto utilizziamo il già visto Metodo dei Minimi Quadrati.

Per capire come opera logicamente questo metodo di stima nel caso delmodello di regressione consideriamo la rappresentazione grafica a scatter dellecoppie di valori osservati (xi , yi ), i=1,2,...,n. In altri termini, riportiamo su unsistema di assi cartesiani le n coppie di punti osservati, si otterrà una rappresen-

Page 232: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6224

tazione tipo quella riportata nella figura seguente. Il problema che si vuole a f-frontare è di adattare agli n punti la retta “ottimale” il che equivale a scegliere lacoppia di parametri ottimali (βo , β1 ) che descrivono tale retta. Come è bennoto, in n punti passano infinite rette e quella “ottimale” deve essere scelta secon-do una qualche funzione obiettivo.

Il metodo dei minimi quadrati ordinari in sigla OLS (Ordinary Least Squa-res), sceglie, fra le infinite rette possibili, quella che minimizza la somma dei quadratidegli scarti.

Questo vuol dire che nel metodo dei minimi quadrati il criterio obiettivoper la scelta della retta “ottimale” è la minimizzazione della somma dei quadratidegli scarti. Traduciamo quanto detto qui sopra in espressioni algebriche inmodo da poter ottenere delle formule operative per le stime dei due parametridella retta in questione. Dalla relazione ipotizzata

yi = βo + β1 xi + ei , i = 1, 2, ...,n

si ricavano gli n scarti:ei = yi - βo - β1 xi , i = 1, 2, ...,n

e quindi la somma dei loro quadrati:

∑=

n

1i

2ie = ∑

=

−−n

1i

2i1oi )xy( ββ

e fra le infinite coppie ( βo , β1 ) e quindi fra le infinite corrispondenti rette pos-sibili scegliamo quella che minimizza l’ultima espressione,

Page 233: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 225

cioè quella per cui risulta

∑=

n

1i

2ie = 2

i1oi

n

1i

)xy( ββ −−∑=

= minimo(βo , β1 )

La soluzione del problema di minimo per ottenere le stime di βo e β1 èprettamente matematico ed in questo caso ha una soluzione piuttosto semplice.Infatti, per trovare questo minimo basta considerare le derivate prime di

∑ 2ie rispetto alle due incognite βo e β1 , uguagliarle a zero, risolvere il relativo

sistema di equazioni lineari. Più precisamente:

2i1oi

n

1io

)xy( βββ

−−∂∂ ∑

=

= 2 ))(xy( 1i1oi

n

1i

=

−−∑ ββ =

= -2 )xy( i1oi

n

1i

ββ −−∑=

= 0

2i1oi

n

1i1

)xy( βββ

−−∂∂ ∑

=

= 2 )x)(xy( ii1oi

n

1i

−−−∑=

ββ =

= -2 )xy( i1oi

n

1i

ββ −−∑=

xi = 0.

Da cui, dividendo ambo i membri delle due equazioni per -2, deriviamo il s e-guente sistema lineare nelle due incognite βo e β1:

=−−

=−−

=

=

0x)xy(

0)xy(

ii1oi

n

1i

i1oi

n

1i

ββ

ββ

che posto

x = ∑=

n

1in1

xi y = ∑=

n

1in1

yi

Page 234: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6226

mxy = ∑=

n

1in1

xi yi m2x = ∑=

n

1in1

x 2i

può essere scritto

=−−=−−

0mnxnmn

0xnnyn

x211xy

1o

ββββ

Dividendo ambo i membri delle due equazioni per n, ricavando βo dalla primaequazione e sostituendolo nella seconda si può scrivere

=−−−=

x211xy

1o

mx)xy(m

xˆy

ββββ

PostoSxy = mxy - yx : covarianza campionaria di (X, Y)

S 2x = m2x - x 2 : varianza campionaria di X

si ottiene

=−=

2x1xy

1o

SS

xy

βββ

Risolvendo rispetto ai due parametri incogniti si ha infine che

le stime dei minimi quadrati ordinari dei parametri della retta di regressione s o-no

1β = 2x

xy

S

S, oβ = y - xˆ

L’equazione della retta di regressione che minimizza la somma dei quadrati de-gli scarti è data da

y = xˆˆ1o ββ +

Osserviamo che:

Page 235: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 227

(a) la retta di regressione passa sempre per il punto medio ( x , y ), infatti in

xˆˆy 1o ββ += per xx = si ottiene

xˆˆ1o ββ + = ( ) yxˆxˆy 11 =+− ββ

(b) in corrispondenza di ciascuna xi osservata è possibile individuare la relativa

yi stimata, che indichiamo con iy , situata sulla retta di regressione:

iy = i10 xˆˆ ββ + i = 1, 2, .., n

(c) dai valori osservati yi e da quelli stimati iy possiamo derivare gli scarti sti-

mati, che indichiamo con ie , dati da

ie = yi - iy i = 1 , 2 , .., n

(d) se ricordiamo che una delle proprietà della media aritmetica è quella di mi-nimizzare la somma dei quadrati degli scarti ci rendiamo subito conto che laretta di regressione stimata con il metodo dei minimi quadrati è proprio unastima in media ed è presumibile che le stime così ottenute abbiano le stesseproprietà della stima della media;

(e) una conseguenza di quanto detto al punto (d) è che la somma degli scartistimati è sempre nulla: la somma degli scarti positivi è pari alla somma degliscarti negativi. La dimostrazione formale di questa affermazione è semplice,infatti

i

n

1i

e∑=

= )yy( ii

n

1i

−∑=

= ( )[ ]∑=

+−n

1ii1oi xˆˆy ββ =

Page 236: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6228

∑=

n

1iiy - ∑

=

n

1ioβ - i

n

1i1 xˆ∑

=

β = ∑=

n

1iiy - ( )∑

=

−n

1i1 xˆy β - 1β ∑

=

n

1iix =

= n y - ( ) 0xˆnxˆnynynxˆnxˆnyn 1111 =−+−=−− ββββ

che dimostra quanto affermato. Graficamente si ha una situazione simile aquella riportata nella figura seguente

Una immediata implicazione di questa uguaglianza è che

∑=

n

1iiy = ∑

=

n

1iiy

e dividendo ambo i membri per n segue immediatamente che la mediacampionaria delle yi è esattamente uguale alla media campionaria delle iy ;

(f) le stime oβ e 1β sono funzioni delle sole osservazioni campionarie e quindial variare del campione variano e descrivono due variabili casuali. Le pro-

prietà di oβ e 1β sono derivate dal comportamento di tali v.c.

Esempio 3Su 7 autovetture a gasolio, scelte a caso da un dato parco macchine, è stato verificato il

consumo, per miglia, prima di un determinato intervento (variabile X) e dopo l’intervento (va-riabile Y) ottenendo le 7 coppie di risultati seguenti

(17.2; 18.3) (21.6; 20.8) (19.5; 20.9) (19.1; 21.2)

(22.9; 22.7) (18.7; 18.6) (20.3; 21.9)

Page 237: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 229

si vuole verificare se fra X ed Y esiste il legame lineare :

Y = βo + β1 X + e

In questo caso notiamo che il legame logico è del tipo X “causa” Y, infatti Y è ottenuto“dopo” X. Inoltre, se costruiamo la rappresentazione a scatter (X, Y) otteniamo la figura chesegue

Da questo grafico deduciamo che il legame lineare ipotizzato è abbastanza plausibile visto chele sette coppie di osservazioni tendono a disporsi lungo una retta crescente. Per quanto riguar-da la stima di βo e β1 con il metodo dei minimi quadrati, i calcoli possono essere organizzaticome nella tabella seguente. A partire dalle 7 coppie di osservazioni (xi , yi ), riportate nelle

prime due colonne della tabella, deriviamo le 2ix e xi yi riportate nella terza e quarta colonna

rispettivamente.

xi yi2ix xi yi iy ie = yi- iy

17.20 18.30 95.840 14.760 18.60094 -0.30094521.60 20.80 66.560 49.280 22.07043 -1.27043319.50 20.90 80.250 07.550 20.41454 0.48546019.10 21.20 64.810 04.920 20.09913 1.10086822.00 22.70 84.000 99.400 22.38584 0.31416118.70 18.60 49.690 47.820 19.78372 -1.18372320.30 21.90 12.090 44.570 21.04536 0.854645

138.40 144.40 2753.240 2868.300 144.39996 0.000033

Dalla tabella deriviamo immediatamente:

x = 7

4.138= 19.771429 y =

74.144

= 20.62857

Page 238: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6230

m2x = 7

24.2753= 393.32001 mxy =

73.2868

= 409.75715

2xS = m2x -

2x = 2.4106 Sxy = mxy - yx = 1.9008

che ci permettono di ottenere le stime cercate

1β = 2x

xy

S

S= 0.78852 oβ = y - 1β x = 5.0384

Una volta ottenute le stime dei due parametri deriviamo le stime della variabile dipendente

iy = oβ + 1β xi:

11o1 xˆˆy ββ += = 5.0384 + (0.78852)17.20 = 18.600944

21o2 xˆˆy ββ += = 5.0384 + (0.78852)21.6 = 22.070432...................................................................................................

71o7 xˆˆy ββ += = 5.0384 + (0.78852)20.3 = 21.045356

Ottenuti i valori stimati iy (penultima colonna della tabella sopra riportata) deriviamo lestime dei residui ie = yi - iy riportate nell’ultima colonna della citata tabella. Osserviamo,infine, che teoricamente dovrebbe risultare

∑ iy = ∑ iy ; ∑ ie = 0

1 2 3 4 5 6 718

19

20

21

22

23

Y Y^

In pratica, per gli arrotondamenti che necessariamente devono essere fatti, queste uguaglianzequasi mai sono verificate in modo esatto come si nota anche dalla tabella sopra riportata ove le

Page 239: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 231

dette uguaglianze sono solo praticamente confermate, sono cioè vere a meno di approssimazionitrascurabili.

Nel grafico qui sopra riportato abbiamo messo a confronto i valori osservati della varia-bile dipendente Y con quelli ottenuti con il modello lineare. Vediamo che il modello ipotizzatoriesce a cogliere in modo accettabile il fenomeno preso in considerazione.

Nella figura seguente abbiamo riportato il diagramma a scatter fra i due fenomeni osser-vati con la relativa retta di regressione adattata e l’indicazione dell’ampiezza dei residui sti-mati oltre che del relativo segno.

18

19

20

21

22

23

17 18 19 20 21 22 23

Y

X

Nell’esempio sopra riportato abbiamo mostrato in dettaglio come si puòprocedere per costruire le stime dei minimi quadrati dei due parametri βo e β1

nel modello di regressione lineare semplice e come sia possibile con semplicistrumenti grafici verificare, in prima approssimazione, la bontà del modelloipotizzato. In pratica, i calcoli sopra riportati ed i relativi grafici non vengonofatti manualmente, ma si utilizzano in modo sistematico gli strumenti che ven-gono forniti dalla tecnologia. La diffusione e l’utilizzo intensivo dei computers(hardware) e dei relativi programmi di calcolo (software) permettono di effet-tuare queste elaborazioni in modo preciso e veloce. Naturalmente l’utilizzatoredeve sapere cosa l’elaboratore sta calcolando e come i risultati vanno interpre-tati. Tutto questo è ancora più rilevante quando il modello utilizzato è di regres-sione multipla (le variabili esplicative sono più di una) e le relative elaborazionibisogna necessariamente effettuarle con tali strumenti avanzati. Teniamo contoche nelle pratiche applicazioni molto spesso il modello è di tipo multiplo. Inquesto caso la procedura di stima è una semplice generalizzazione di quella vistama, ripetiamo, i calcoli diventano molto più lunghi e complessi e quindi noneseguibili se non con gli strumenti informatici ormai largamente disponibili.

Per rimanere nel concreto, supponiamo che il modello di cui vogliamo sti-

Page 240: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6232

mare i parametri sia il seguente

yi = βo + β1 xi + β2 z i + β3 vi + ei , i = 1 , 2 , .., n

in questo caso è necessario risolvere il seguente problema di minimo

∑=

n

1i

2ie = 2

i3i2i1oi

n

1i

)vzxy( ββββ −−−−∑=

= minimo(βo , β1 , β2 , β3 )

che si ottiene risolvendo rispetto a (βo , β1 , β2 , β3 ) il seguente sistema non omo-geneo di quattro equazioni lineari che ammetterà, sotto l’ipotesi che fra le trevariabili esplicative non vi siano perfetti legami lineari, una ed una sola soluzio-ne. Tale soluzione la daremo in forma esplicita nelle pagine successive quandoriscriveremo il modello di regressione in termini di matrici e vettori.

=−−−−−=∂

=−−−−−=∂

=−−−−−=∂∂

=−−−−−=∂

∑∑

∑∑

∑∑

∑∑

==

==

==

==

0v)vzxy(2e

0z)vzxy(2e

0x)vzxy(2e

0)vzxy(2e

i

n

1ii3i2i10i

n

1i

2i

3

i

n

1ii3i2i10i

n

1i

2i

2

n

1iii3i2i10i

n

1i

2i

1

n

1ii3i2i10i

n

1i

2i

0

βββββ

βββββ

βββββ

βββββ

Nell’esempio che segue stimeremo un modello di regressione con tre varia-bili esplicative e ne commenteremo i relativi risultati.

Esempio 4Nella tabella seguente riportiamo i tassi relativi ai Nati vivi (NV), Matrimonialità

(MTR), Mortalità (MRT), in Cerca di prima occupazione (CPO) relativi al 1993 per leventi regioni italiane:

NV MTR MRT CPO NV ePiemonte 7.5 4.9 11.4 2.507 8.024250 - 0.524250Valle d'Aosta 7.4 4.8 10.1 1.201 8.094782 - 0.694782Lombardia 8.4 4.7 9.0 1.739 8.341146 0.058853Trentino-Alto A. 10.5 5.2 9.0 0.879 9.181734 1.318266

Page 241: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 233

Veneto 8.2 5.0 9.1 1.495 8.847956 - 0.647956Friuli-Ven. Giu. 7.2 4.4 12.5 1.581 6.582482 0.617518Liguria 6.5 4.7 13.8 3.055 6.915501 - 0.415501Emilia-Romagna 7.1 4.4 11.4 1.503 6.938589 0.161411Toscana 7.0 4.6 11.5 2.468 7.413622 - 0.413622Umbria 7.9 5.0 11.2 2.927 8.336814 - 0.436813Marche 8.2 4.7 10.2 2.199 8.001959 0.198041Lazio 9.7 4.9 8.9 4.835 9.162971 0.537028Abruzzo 9.4 4.8 9.8 3.955 8.556788 0.843211Molise 9.2 4.9 10.3 5.622 8.800165 0.399834Campania 13.4 6.3 7.8 11.030 13.01526 0.384737Puglia 11.7 6.1 7.5 7.281 12.23962 - 0.539623Basilicata 9.4 5.5 8.3 7.199 10.81801 - 1.418008Calabria 10.9 5.4 8.0 9.527 11.03327 - 0.133274Sicilia 12.4 5.7 9.1 8.389 11.08948 1.310516Sardegna 9.3 5.0 8.1 7.006 9.905586 - 0.605586Italia 9.4 5.1 9.5 4.602 9.400000 0.000000

Le variabili sopra riportate sono state ottenute tramite le seguenti:

NV = 1993nelmediaepopolazion

1993nelvivinatinumero× 1000

MTR = 1993nelmediaepopolazion

1993nelmatrimoninumero× 1000

MRT = 1993nelmediaepopolazion

1993nelmortinumero× 1000

CPO = 1993nelmediaepopolazion

1993neleoccupazion1cercain a

× 100

Osserviamo che utilizziamo dati relativi e non assoluti visto che vogliamo capire se esiste unlegame fra NV (l’effetto) e MTR, MRT, CPO (le cause) e questo ha senso solo se eliminia-mo la diversa numerosità di popolazione esistente fra le diverse regioni italiane. Per i fenomeniin studio ipotizziamo che il seguente modello lineare

NV = βo + β1 MTR + β2 MRT + β3 CPO + e

Page 242: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6234

sia idoneo a spiegare il fenomeno Nati vivi per le diverse regioni italiane. Da un punto di vistalogico ci attendiamo che: (a) fra Matrimoni e Nati vivi vi sia un legame lineare positivo (questo ci fa attendere un

β1>0) visto che è logico supporre un aumento del tasso di natalità in corrispondenzadell’aumento del tasso di matrimonialità;

(b) il legame sia negativo fra Morti e Nati vivi (valore atteso di β2 < 0) dato che in unapopolazione sviluppata, come quella italiana, la mortalità è alta perché la popolazione è piùvecchia e quindi la natalità è più bassa;

(c) siamo molto scettici a ipotizzare un legame diretto ed immediato fra in Cerca di primaoccupazione e Nati vivi anche se non può essere escluso del tutto dato che chi è giovane e nonha un lavoro difficilmente si sposa e mette al mondo figli. In margine, notiamo la forte dico-tomia che esiste fra le regioni del centro-nord e quelle del sud.

I legami a coppie (NV, MTR), (NV, CPO), (NV, MRT) sono riportati negli scatterseguenti

5

8

10

13

15

4.0 4.5 5.0 5.5 6.0 6.5

5

8

10

13

15

0 25 50 75 100 125

che confermano le ipotesi fatte, in particolare emerge un legame lineare non marginale fra NVe CPO.

Le stime dei quattro parametri con il metodo dei minimi quadrati sono rispettivamente:

5

8

10

13

15

5 8 10 13 15

Page 243: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 235

oβ = 2.1456; 1β = 1.9073; 2β = - 0.3331; 3β = 0.0131

ed il segno dei valori stimati è quello atteso. Queste stime ci hanno permesso di ottenere i valo-ri stimati di NV tramite la seguente

VN = 2.1456 + 1.9073 MTR - 0.3331MRT + 0.0131CPO

ed i relativi residui stimati e . I valori di VN e di e sono riportati nelle ultime due co-lonne della tabella. Nella figura che segue abbiamo riportato i grafici dei valori osservati estimati della variabile dipendente NV, per le 20 regioni ed il relativo scatter. I risultati sem-brano complessivamente accettabili.

5 10 15 206

7

8

9

10

11

12

13

14

NV

^NV

5

8

10

13

15

5 8 10 13 15

NV^

Una volta stimati i parametri βi del modello di regressione è necessario

stimare anche σ 2, la varianza comune delle variabili casuali ei . Ricordiamo, i n-

Page 244: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6236

fatti, che per ipotesi si ha

σ 2 = var(ei ) = var(Yi ) , i = 1, 2, ..., n

conei = Yi - E(Yi ) , i = 1, 2, ..., n

e sembra ovvio che la stima di questo parametro debba essere fatta a partiredagli scarti stimati

ie = yi - iy , i = 1, 2, ..., n

che conferma come iy , e quindi iβ , siano delle stime in media. Come a b-biamo già mostrato per la stima della varianza in generale uno stimatore nondistorto e consistente è dato dalla somma dei quadrati degli scarti dalla mediastimata diviso per i gradi di libertà (che in quel contesto erano n-1). Nel caso delmodello di regressione lineare semplice, yi = βo + β1 xi + e i , la somma degliscarti dalla media stimata è data da

2ii

n

1i

)yy( −∑=

= 2i

n

1i

e∑=

mentre i relativi gradi di libertà sono n-2 dato che per ottenere gli ie è necessa-

rio prima stimare i due parametri incogniti βo e β1. In definitiva una

stima accettabile di σ 2 nel caso del modello di regressione lineare semplice èdata da

s 2 = 2i

n

1i

e2n

1 ∑=−

.

Con ragionamenti del tutto simili si ottiene la stima di σ 2 nel caso di modellodi regressione lineare multiplo. Così per il modello di regressione lineare defi-

nito nella (4) la stima di σ 2 è data da

s 2 = 2i

n

1i

e4n

1 ∑=−

Page 245: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 237

Esempio 5La stima di σ 2 nel caso visto nell’esempio 3 è data da

s 2 = 5

382467.5= 1.076493

La stima di σ2 nel caso visto nell’esempio 4 è data da

s 2 = 1661101.9

= 0.600688.

6.5 Proprietà delle stime dei minimi quadrati

Nel paragrafo precedente abbiamo visto come è possibile stimare i para-metri del modello di regressione lineare utilizzando il metodo dei minimi qua-drati. Le stime ottenute sono delle stime in media e quindi dovrebbero posse-dere le stesse proprietà che gode la classica stima della media: non distorsione econsistenza. Qui di seguito dimostriamo in modo formale queste proprietà dellestime dei minimi quadrati per il caso del modello di regressione lineare sempl i-ce. Ricordiamo che è

Yi = βo + β1 xi + eiinoltre

nSxy = )YY)(xx( ii

n

1i

−−∑=

=

)xx( i

n

1i

−∑=

Yi - )xx(Y i

n

1i

−∑=

= )xx( i

n

1i

−∑=

Yi ,

n S 2x = )xx( i

n

1i

−∑=

2 = )xx)(xx( ii

n

1i

−−∑=

= )xx( i

n

1i

−∑=

xi

ove si è tenuto conto che la somma degli scarti dalla propria media è sempreidenticamente nulla. In tal modo avremo

Page 246: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6238

1β = 2x

xy

S

S=

2i

n

1i

ii

n

1i

)xx(

)YY)(xx(

−−

=

= = 2x

ii

n

1i

nS

Y)xx( −∑= =

= 2x

i i1oi

n

1i

nS

)e x)(xx( ++−∑=

ββ=

= βo 2x

i

n

1i

nS

)xx( −∑= + β1 2

x

ii

n

1i

nS

x)xx( −∑= +

2x

ii

n

1i

nS

e)xx( −∑= =

= β1 + 2x

in

1i nS)xx( −∑

=

ei = β1 + ∑i=1

n

w1i ei

Allo stesso modo risulta

oβ = Y - 1β x = βo + β1 x + ∑=

n

1in1

ei - xenS

)xx(i2

x

in

1i1

−+ ∑

=

β =

= βo + ∑=

n

1in1

ei - 2x

in

1i nS)xx(

x−∑

=

ei = βo +

−−∑

=2x

in

1i nS

x)xx(n1

ei =

= βo + ∑=

n

1i

woi ei

ove si è posto

w1i = 2x

i

nS)xx( −

, woi =

−− 2

x

i

nS

x)xx(n1

= 2x

ix2

nS)xxm( −

.

Da queste espressioni deduciamo che le due stime sono pari ai rispettivi pa-rametri incogniti più una combinazione lineare delle variabili casuali ei . Inoltre,da queste relazioni, tenendo conto che le xi sono deterministiche mentre le eisono variabili casuali incorrelate e con media zero, risulta immediatamente:

Page 247: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 239

E( oβ ) = βo +

−−∑

=2x

in

1i S

xxx1

n1 )(

E(ei ) = βo

E( 1β ) = β1 + 2x

in

1i nS)xx( −∑

=

- E(ei ) = β1

e quindi queste stime sono non distorte.Ricordando quanto detto per le combinazioni di variabili casuali incorrelate convarianza costante si ha

var( oβ ) = 2

2x

in

1i2 S

x)xx(1

n1

−−∑

=

var(ei ) =

=

−−

−+∑

=2x

i4x

22i

n

1i2 S

x)xx(2

S

x)xx(1

n

1 σ 2 =

= σ 2

−−

+∑∑

==2x

i

n

1i4x

2i

n

1i

2

2 S

)xx(x

2S

)xx(x

nn1

=

= σ 2

+ 4

x

2x

2

2 S

nSxn

n1

= σ 2

+ 2

x

2

Sx

1n1

= σ 2 2x

x2

nSm

ove si è tenuto conto che S 2x = m2x - x 2; allo stesso modo

var( 1β ) = 2

2x

in

1i nS

)xx(

−∑=

var(ei ) = σ 2 4x

2

2i

n

1i Sn)xx( −∑

=

=

= σ 2 4x

2

2x

SnnS

= σ 2 2xnS

1

e quindi queste stime sono consistenti.

Si può ancora dimostrare (Teorema di Gauss-Markov) che le stime dei minimi

Page 248: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6240

quadrati, oltre ad essere non distorte, consistenti e lineari nelle ei , sono quelle

che hanno la varianza minima fra tutte le stime non distorte e lineari nelle ei . Insigla si dice che tali stime sono BLUE (Best Linear Unbiased Estimates). Conuna procedura simile, anche se un pò più elaborata, si può dimostrare che an-

che s 2 è non distorta e consistente per σ 2.Dalle espressioni di var( oβ ) e var( 1β ) vediamo che queste sono funzione

del parametro incognito σ 2 che può essere stimato con s 2. Ciò vuol dire che lestime delle varianze dei parametri stimati, che indichiamo rispettivamente con

s 2

oβ e s 2

1β , sono date rispettivamente da

2

os β = s 2

2x

x2

nSm

, 2

1s β = s 2

2xnS

1

che essendo funzione solo dei dati osservati possono essere calcolate numeri-camente.

Nel caso del modello di regressione multipla le stime che si ottengono sonoancora BLUE, ma gli sviluppi formali sono più complessi. In tal caso il calcolonumerico viene fatto solo tramite computer utilizzando l’appropriato software.

Esempio 6

Nel caso dell’esempio 3 le stime di s 2oβ e 2

1s β sono rispettivamente

s 2oβ = 25.0918, s 2

1β = 0.0638

Nel caso dell’esempio 4 le stime s 2

iβ sono rispettivamente

2o

s β = 16.0851, 21

s β = 0.4232, 2

2s β = 0.0227, 2

3s β = 0.00009304.

6.6 La verifica del modello di regressione

Una volta che il modello è stato identificato e stimato è necessario procede-re alla sua verifica. In altri termini è necessario stabilire se si adatta in modosoddisfacente ai dati osservati. Da un punto di vista analitico questo implica ve-rificare se, con i dati che si hanno a disposizione, effettivamente tutte le variabiliesplicative, o solo alcune di queste, si possono statisticamente considerare causedella variabile dipendente. Questa verifica può essere eseguita utilizzando stru-menti diversi. Qui di seguito ne analizzeremo solo tre: test sui parametri stimati,

Page 249: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 241

un indice di accostamento globale del modello ai dati osservati, alcune analisisui residui.

Perché un modello sia considerato accettabile e quindi idoneo ad essere uti-lizzato è necessario che superi tutte le verifiche di cui tratteremo nel seguito. Sequalcuna di tali verifiche non è superata è necessario riformulare il modello, i n-tegrando eventualmente le osservazioni di cui si dispone.

TEST SUI PARAMETRI DEL MODELLOConsideriamo per il momento il caso del modello di regressione lineare

sempliceyi = βo + β1 xi + ei

e la relativa stima

iy = oβ + 1β xi

si vuole sottoporre a test

Ho : βo = 0 verso H1 : βo ≠ 0Oppure

Ho : β1 = 0 verso H1 : β1 ≠ 0

È immediato capire che se si dovesse accettare, per esempio, l’ipotesi Ho : β1 =0 vorrebbe dire che la variabile X non esercita alcuna influenza su Y e quindi ilmodello va riformulato scegliendo altre variabili esplicative più idonee a spiega-re il fenomeno Y. Da un punto di vista intuitivo siamo portati a rifiutare Ho se

il valore stimato | 1β | è grande e lontano da zero, viceversa siamo portati ad

accettare Ho se | 1β | è piccolo e vicino a zero. Per stabilire fino a che puntodetto valore è grande o piccolo è necessario conoscere, al variare del campio-

ne, la distribuzione probabilistica di 1β o di una sua trasformazione monotona

di modo che sia pivotale (cioè indipendente dai parametri incogniti). È a questofine che si introduce l’ipotesi di normalità: le variabili casuali scarto ei si sup-pongono indipendenti fra di loro e distribuite come una normale con media

zero e varianza costante. Tenendo conto di questa ipotesi e del fatto che sia 1β

che oβ sono delle combinazioni lineari delle ei , per una delle proprietà dellanormale si ha immediatamente

1β ~ N

2x

2

1 S1

n;σβ

Page 250: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6242

oβ ~ N

2x

x22

oS

mn

; σβ

Come si può notare da queste due espressioni la distribuzione delle stime 1β e

oβ , al variare del campione, è simile (a meno di una costante moltiplicativadella varianza) a quella della media campionaria x sotto l’ipotesi di normalità:

X ~ N

n

;2σµ ,

questo ci porta a costruire una statistica test simile a quella utilizzata per la me-dia. In definitiva, la statistica test per

Ho : βo = 0 verso H1 : βo ≠ 0è data da

toc = o

s

|ˆ| o

β

β=

x2

xo

m

Ss

n|ˆ|β.

Si rifiuta Ho al livello α se risultatoc > t(n-2; 1- α/2) .

Allo stesso modo la statistica test per

Ho : β1 = 0 verso H1 : β1 ≠ 0

è data da

t1c =

1s

|ˆ| 1

β

β=

sn|ˆ| 1β

Sx .

Si rifiuta Ho al livello α set1c > t(n-2 ; 1- α/2) .

Page 251: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 243

Ovviamente, per i test unilaterali del tipo Ho : β1=0 verso H1 : β1>0 si pro-cede con una tecnica simile a quella già vista nel capitolo relativo alla teoria deltest.

Nel caso di modello di regressione lineare multiplo la logica del test sui pa-rametri è esattamente la stessa, ma non sono più valide le formule che abbiamoappena visto. In tal caso, la verifica di

Ho : βi = 0 verso H1 : βi ≠ 0, i = 0, 1, ..., k

implica una statistica test del tipo

tic = i

s

|ˆ| i

β

β=

sn|ˆ| iβ δix , i = 0, 1, ..., k

ove δix è una complicata quantità positiva funzione dei valori osservati sulle va-riabili esplicative calcolabile numericamente (tramite elaboratori) ma non facil-mente esplicitabile in modo formale.

In questo caso, se le variabili esplicative del modello sono k, si rifiuterà Ho al

livello α se risultatic > t(n-k-1; 1- α/2) i = 0, 1, ..., k .

Esempio 7Riprendiamo il caso riportato nell’esempio 3 e costruiamo i test per

Ho : βi = 0 verso H1 : βi ≠ 0, i = 0, 1

Abbiamo già visto che è

oβ = 5.0384 , 1β = 0.7885 , 2o

s β = 25.0918 , s 21β = 0.0638

e quindi risulta

to c = 0918.25

0384.5= 1.006 e t1 c =

0638.0

7885.0= 3.12

ed essendo t(5; 2.5%) = 2.571, al livello α=5%, non si può rifiutare l’ipotesi Ho per i = 0,viceversa possiamo rifiutarla per i=1. Questo vuol dire che il modello di regressione va rifor-mulato nel seguente

Page 252: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6244

Y = β1 X + e

In tal caso si otterrà 1β = 1.0417907 e 21

s β = 0.00039175 che implicano

t1c = 1.0417907

0.00039175 = 52.63

e rifiutiamo ancora l’ipotesi Ho che β1 sia pari a zero. In definitiva, il modello di regressioneprivo di intercetta potrebbe essere quello idoneo per descrivere il fenomeno Y in funzione di X.Osserviamo che un modello di regressione accettabile deve avere almeno 15 gradi di libertà cong = n-k-1. In questo caso i gradi di libertà sono solo cinque e di conseguenza i risultati sonomolto instabili.

Riprendiamo ora l’esempio 4, abbiamo visto che le variabili esplicative sono tre e risulta:

oβ = 2.1456; 1β = 1.9073; 2β = - 0.3331; 3β = 0.0131

s 2oβ = 16.0851; s 2

1β = 0.4232; s 22β = 0.0227; s 2

3β = 0.00009304

da queste ricaviamo

to c = 0851.16

1456.2= 0.53, t1 c =

4232.0

9073.1= 2.93,

t2 c = 0227.0

3331.0= 2.21, t3 c =

00009304.0

0131.0= 1.36

ricordando che è n = 20, al livello α = 5%, avremo t(16; 1-0.025)=2.12 pertanto non possia-

mo rifiutare Ho: βi = 0 per i = 0, 3. In altri termini, sia l’intercetta βo che β3 , il coeffi-ciente di COP, non sono statisticamente diversi da zero al livello del 5%. Tenuto conto di que-sti risultati riformuliamo il modello

NV = β1 MTR + β2 MRT + ee stimiamone i relativi parametri ottenendo:

1β = 2.4871; 2β = - 0.3548

s 21β = 0.019418; s 2

2β = 0.005014

risulta

Page 253: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 245

t1 c = 019418.0

4871.2= 17.85; t2 c =

005014.0

3548.0= 5.01

mentre è t(18; 1-0.025)=2.101 ed in entrambi i casi si può rifiutare l’ipotesi Ho e affermare cheentrambi i parametri sono da considerarsi statisticamente diversi da zero. Da questo secondocaso possiamo trarre alcune utili considerazioni:(a) dato che è

corr(NV; CPO) = 0.804

si poteva a priori pensare che effettivamente la variabile CPO avesse una qualche influenzasu NV, da quanto è emerso in questa analisi tale legame è di tipo spurio essendo eviden-temente già conglobato in MTR;

(b) l’esclusione di una variabile nel modello di regressione può portare a risultati molto diversinella stima dei parametri, infatti la stima di β1 dal caso di tre variabili esplicative al casodi due variabili esplicative passa, rispettivamente, da 1.9073 a 2.4871

(c) in termini di accostamento globale l’esclusione o l’inclusione della variabile non significativaCPO non crea grandi differenze, come si può verificare controllando il grafico seguente co-struito con βo = β1 = 0 e quello visto nell’esempio 4 in cui erano presenti tutti e quattroi parametri.

5 10 15 20

6

7

8

9

10

11

12

13

14

NV

NV

MISURA DELLA BONTÀ DI ADATTAMENTODefiniamo ora uno strumento che ci permetta di misurare l’accostamento

tra i dati osservati e quelli stimati e quindi di stabilire se globalmente il modello diregressione stimato descrive in modo accettabile le osservazioni che si hanno adisposizione. In altre parole, vogliamo calcolare un indice che ci indica fino ache punto il modello di regressione lineare stimato, nella sua globalità, appros-sima i dati osservati.

Page 254: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6246

Consideriamo, per il momento, il caso della regressione lineare semplice. Inquesto contesto la situazione ottimale si ha quando tutte le n coppie (xi , yi ) os-

servate sono allineate lungo una retta che, ovviamente, coincide con quella diregressione per cui i relativi residui osservati ie sono tutti identicamente nulli.Viceversa il caso peggiore si ha quando tutte le n coppie osservate (xi , yi ) sono

disperse nel piano (X, Y) e risulta del tutto irrealistica l’approssimazione conuna retta. Le due situazioni qui richiamate sono schematizzate nelle figure s e-guenti

1) Caso ottimale 2) Caso peggiore

Nelle pratiche applicazioni ben difficilmente si hanno situazioni estremecome quelle sopra illustrate e sorge la necessità di misurare fino a che punto si èvicini al caso ottimale o a quello peggiore. A tale scopo si costruisce un indice

di correlazione multipla, che si indica con R2, e misura l’intensità del legame l i-neare esistente fra la variabile dipendente Y e quelle esplicative X1 , X2 , ..., Xk .

Prima di definire questo nuovo indice dimostriamo che è sempre

( ) 0yye ii

n

1i

=−∑=

Infatti,

( )=−∑=

yye ii

n

1i

∑=

−−n

1iiii )yy)(yy( =

∑=

−−+−−n

1i1oi1oi1oi )xˆˆxˆˆ)(xˆˆy( ββββββ =

= 1β ∑=

−−−n

1iii1oi )xx)(xˆˆy( ββ =

Page 255: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 247

1β ( )∑=

++−−−n

1ii1oi

2i1ioii xxˆxˆxyxˆxˆxy ββββ =

−∑

=

n

1iii1 yxβ oβ ∑

=

n

1iix - 1β ∑

=

n

1i

2ix - ∑

=

n

1iiyx + n oβ x + 1β

∑=

n

1iixx =

= ( )21ox21oxy1 xˆnxˆnyxnmˆnxˆnmnˆ βββββ ++−−− =

= 1β n [mxy - yx - 1β (m2x - x 2)] = 1β n (Sxy - 1β S 2x ) =

= 1β n

− 2

x2x

xyxy S

S

SS = 0

Tenendo conto di questo risultato si ha immediatamente

∑=

−n

1i

2i )yy( = ∑

=

−+−n

1i

2iii )yyyy( = [ ]∑

=

−+n

1i

2ii )yy(e =

[ ]∑=

−+−+n

1iii

2i

2i )yy(e2)yy(e = ∑

=

n

1i

2ie + ∑

=

−n

1i

2i )yy(

Se dividiamo il primo e l’ultimo membro di quest’ultima uguaglianza per n siottiene

∑=

−n

1i

2i )yy(

n1

= ∑=

n

1i

2ien

1+ ∑

=

−n

1i

2i )yy(

n1

o equivalentemente

S 2y = S 2

e + S 2y

In altri termini,

se il modello di regressione è lineare ed è stimato con il metodo dei minimiquadrati, allora la varianza stimata (stima distorta) delle y osservate è sempreuguale alla varianza dei residui stimati più la varianza delle y interpolate.

Page 256: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6248

Se dividiamo ambo i membri dell’ultima uguaglianza per S 2y si ottiene

1 = 2y

2e

S

S+ 2

y

2y

S

S

Siamo ora in condizione di dare la seguente definizione

l’indice R2 è dato da

R2 = 2y

2y

S

S= 1 - 2

y

2e

S

S

e misura la percentuale della variabilità di Y spiegata dal modello di regressioneadattato ad Y.

Da quanto abbiamo appena detto è facile verificare che è sempre

0 ≤ R2 ≤ 1Per meglio illustrare il significato di questo indice, analizziamo i due casi estre-

mi: R2 = 0 ed R2 = 1.

Caso di R2 = 0.

R2 = 0 è equivalente a S 2y = 0, cioè

)yy(n1

i

n

1i

−∑=

2 = 0

che equivale a

( yy1 − ) = ( yy 2 − ) = ... = ( yy n − )= 0da cui infine

1y = 2y = ... = ny = y .

In altri termini, nel caso di R2 = 0 tutti i valori interpolati sono uguali fra di loroe coincidono con la propria media. Nel caso della regressione lineare semplicesi ha una situazione come quella schematizzata nella figura seguente

Page 257: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 249

y-

Quanto detto si verifica se e solo se risulta 1β = 0 e quindi oβ = y , ma que-sto vuol dire che al variare di X la Y, in media, non varia. In altri termini, in uncaso del genere la variabile esplicativa X non esercita, in media, alcuna influenzasu Y per cui il modello considerato non è accettabile e va riformulato. Questeconsiderazioni possono essere estese al caso multiplo con k ≥ 2 variabili espli-

cative. Infatti, si può dimostrare che R2 = 0 è equivalente a 1β = 2β = .... = kβ

= 0 e quindi o β = y . Questo vuol dire che, in media, nessuna delle k variabiliesplicative X1 , X2 , ..., Xk esercita una influenza su Y, di conseguenza il modello

utilizzato è inaccettabile e va riformulato.È anche possibile elaborare un test delle ipotesi che permetta di stabilire se

R2 è significativamente diverso da zero. Più precisamente, supponendo che lev.c. scarto ei siano tutte indipendenti e distribuite normalmente, le ipotesi che

vengono sottoposte a test sono

Ho: β1= β2 = ... = βk = 0

H1: almeno uno dei βi ≠ 0,

in tal caso si può dimostrare che la statistica test ottimale è data da

Fc = )1kn/()R1(

k/R2

2

−−−=

2e

2y

S

S

k)1kn( −−

che, sotto Ho, si distribuisce come una v.c. F(k; n-k-1). Questo vuol dire che si ri-

getta, al livello α, l’ipotesi Ho se risulta

Page 258: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6250

Fc > F( k; n-k-1; α )

Ove F( k; n-k-1; α ) è tale che

P( F(k; n-k-1) > F( k; n-k-1; α ) ) = α

e si ricava, come già sappiamo, dalle tavole della v.c. F di Fisher riportate inappendice.

Caso di R2 = 1R2 = 1 è equivalente a S 2

e = 0 che a sua volta è equivalente a

2i

n

1i

e∑=

= 0.

Questo si verifica se e solo se risulta 1e = 2e = ... = ne = 0. In definitiva, si ha

R2 = 1 se e solo se tutti i residui osservati sono identicamente nulli ma questo èequivalente a dire che tutte le y osservate sono coincidenti con quelle teoriche equindi risulta yi = iy per i=1,2,...,n. In altri termini, le yi osservate sono tutte alli-

neate lungo una retta che coincide necessariamente con quella di regressione.Graficamente si ha una situazione come quella descritta nella figura seguente

xˆˆy 1o ββ +=

Questo risultato vale, con identica interpretazione, anche quando si hanno k ≥ 2variabili esplicative.

Nelle pratiche applicazioni molto difficilmente si otterrà uno dei casi limite

Page 259: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 251

sopra illustrati, ma si avranno valori di R2 interni all'intervallo [0; 1]. Tali valori

limite sono utili per meglio interpretare questo indice: più R2 è vicino ad uno

più il modello è globalmente accettabile, più R2 è vicino a zero più il modello

globalmente è da rifiutare. Per esempio, se in una data applicazione risulta R2 =0.86 vuol dire che l’86% della varianza di Y è spiegato dal modello di regres-sione lineare, mentre il restante 14% è spiegato dai residui.

Esempio 8Riprendiamo l’esempio 3, abbiamo visto che il modello da prendere in considerazione è

Y = β1 X + e

in tal caso si ottiene R2 = 0.592. Questo vuol dire che il 59.2% della variabilità di Y è spie-gato dal modello di regressione utilizzato, mentre il restante 40.8% è dovuto ai residui.

Riprendiamo l’esempio 7, siamo arrivati alla conclusione che abbia senso il modello

NV = β1 MTR + β2 MRT + e

in tal caso si ottiene R2 = 0.846. In altri termini, la variabilità di NV è spiegata perl’84.6% dal modello suddetto, mentre il restante 15.4% è spiegato dai residui e quindi dafattori accidentali.

Facciamo ora vedere che R2 è una generalizzazione del coefficiente di cor-relazione già analizzato. Più precisamente mostriamo che nel caso della regres-

sione lineare semplice R2 coincide con la correlazione stimata al quadrato:

R2 = r 2 = 2y

2x

2xy

SS

S

Partendo dalla definizione di R2 si ha

R2 = 2y

2y

S

S,

ma nel caso della regressione semplice, tenendo conto delle espressioni di iy ,

y e 1β si ha sempre

Page 260: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6252

S 2y = 2

i

n

1i

)yy(n1 −∑

=

= 21oi1o

n

1i

)xˆˆxˆˆ(n1 ββββ −−+∑

==

2i

n

1i

21 )xx(

n1ˆ −∑

=

β = 21β S 2

x = 4x

2xy

S

SS 2

x = 2x

2xy

S

S

Sostituendo quest’ultima nella formula di R2 si ottiene il risultato cercato.

ANALISI DEI RESIDUIUn terzo modo per stabilire se il modello adattato ai dati può essere accet-

tato e quindi utilizzato, oppure va rifiutato e quindi riformulato è quello di ana-lizzare i residui stimati. Se nei residui stimati vi è ancora una qualche struttura èevidente che il modello selezionato non riesce a catturare completamentel’evoluzione del fenomeno e quindi va riformulato, ristimato e ritestato. Se le nosservazioni di cui si dispone sono relative a serie storiche, oppure posseggonoun qualche altro ordinamento naturale, un modo di verificare se nei residui vi èuna qualche struttura è quello di costruire i due grafici come qui di seguito indi-cato.

Primo graficoIn un sistema di assi cartesiani si riportano le coppie di punti ( i , ie ) se nei

residui stimati vi è una qualche ulteriore struttura questa dovrebbe emergere dalrelativo grafico. Nella figura che segue è riportato il tipico caso in cui fra i resi-dui esiste una ulteriore struttura che il modello non è riuscito a catturare. Infatti,in questo grafico a residui positivi tendono a susseguirsi residui positivi ed aquelli negativi ancora residui negativi.

Page 261: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 253

Secondo graficoIn un sistema di assi cartesiani si rappresentano le coppie ( ie , 1ie − ), se nei r e-

sidui vi è una qualche struttura dovrebbe emergere dal grafico ed il relativomodello dovrebbe essere riformulato. Nella figura che segue viene riportato iltipico caso in cui fra i residui esiste una ulteriore struttura di cui è necessario t e-ner conto.

In questo caso si può notare come la maggior parte dei punti siano concentratinel primo e nel terzo quadrante.

Se le osservazioni di cui si dispone non posseggono un ordinamento natu-rale, un modo per verificare se nei residui vi è una qualche ulteriore struttura èquella di costruire uno scatter rappresentando le n coppie di osservazioni ( ie ,yi ). Se il modello utilizzato non è idoneo a rappresentare la variabile dipendente

Y, nello scatter sopra citato deve essere visibile una qualche struttura.

Le due figure qui sopra riportate si riferiscono agli scatter ( ie , NVi ) e ( ie ,yi ) connessi alle stime dei modelli di regressione degli esempi 7 ed 8. Come si

18

19

20

21

22

23

-2 -1 0 1 2RESID6

8

10

12

14

-2 -1 0 1 2RESID

Page 262: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6254

può notare, in questi non si intravedono strutture apparenti e quindi i modelliutilizzati possono essere considerati idonei per rappresentare i fenomeni in stu-dio.

6.7 Modello di regressione non lineare

Le analisi che abbiamo fatto nei paragrafi precedenti sono relative al caso incui la relazione esistente fra la variabile dipendente Y e quelle esplicative (X1,X2 , ..., Xk ) sia di tipo lineare. Molto spesso, considerazioni teoriche, evidenze

empiriche o entrambe portano a formulare modelli non lineari. In questi casi ènecessario distinguere fra tre situazioni alternative, qui di seguito sommaria-mente illustrate, che implicano soluzioni diverse.

MODELLI NON LINEARI NELLE ESPLICATIVEQuesto è il caso più semplice da affrontare dato che la stima dei suoi para-

metri e la relativa verifica non si discosta sostanzialmente da quello lineare giàconosciuto. Per essere più chiari supponiamo che sia

Y = βo + β1 e X + β2 V 2 + a

ove a è la variabile casuale scarto o residuo. Come si può notare, questo mo-dello è lineare nei parametri incogniti, ma è non lineare nelle due variabili espli-cative X e V. D’altra parte, se poniamo

e X = X*, V 2 = V*

cioè lavoriamo sull’esponenziale della variabile X e sui quadrati della variabileV, otteniamo il nuovo modello

Y = βo + β1 X* + β2 V* + a

che risulta lineare nei parametri e nelle nuove variabili esplicative X*, V* e tuttoquanto illustrato per il modello lineare continua a valere per questo particolaremodello non lineare.

MODELLI NON LINEARI MA LINEARIZZABILIIn molti casi un modello non lineare nei parametri può essere ricondotto a

quello lineare con una semplice trasformazione monotona. In tal modo i risul-tati illustrati nelle pagine precedenti valgono per il modello trasformato e datoche la trasformazione è di tipo monotona, è sempre possibile risalire al m o-

Page 263: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 255

dello originario. Qui di seguito presentiamo tre modelli non lineari nei para-metri incogniti e la relativa trasformazione monotona che li riconduce al casolineare:

( )aeY VX

o211 βββ +=

aVXY 21o

βββ=

aX1

Y1o ++

=ββ

ove con a abbiamo indicato la variabile casuale residuo ed Y è strettamente po-sitiva. Questi modelli possono essere ricondotti facilmente alla forma lineare,rispettivamente, con le trasformazioni seguenti:

log(Y) = log( βo ) + β1 X + β2 V + log(a)

log(Y) = log( βo ) + β1 log(X) + β2 log(V)+ log(a)

1Y = βo+β1 X+e.

MODELLI NON LINEARIZZABILIEsistono molti modelli di regressione non lineari e non linearizzabili con

semplici trasformazioni monotone. Così, se è

aVXY 21o +++= βββ

il modello è non lineare nei parametri e non è facilmente linearizzabile. In talcaso per procedere è necessario utilizzare una stima non lineare dei minimiquadrati dato che bisogna minimizzare l’espressione seguente

[ ]2n

1ioi

2 1 - V - X - y∑=

βββ = min(βo , β1 , β2 ).

Esistono algoritmi numerici abbastanza affidabili all’interno di pacchetti ap-plicativi per computer che permettono di ottenere le relative stime. In tal caso,però, alcuni degli strumenti di verifica del modello che abbiamo qui illustratonon sono più validi.

Page 264: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6256

Esempio 9Nella tabella seguente sono riportate le variabili Capitale (CAP), Lavoro (LAV) e

Fatturato (FT) riguardanti la produzione di beni di abbigliamento osservati annualmente dal1980 al 2000 in Italia. I dati sono espressi a prezzi costanti.

CAP LAV FT3915220 22061.4 13413944048943 22059.0 13518684166672 22181.8 13603994275791 22319.9 13772204388399 22400.6 14152094496368 22595.6 14573064605069 22783.9 14941164719635 22895.6 15387144847538 22131.2 15994734981877 22202.0 16454035122586 23425.6 16778855260057 23608.4 17012105386359 23457.2 17141495470796 22749.8 16990005551208 22529.2 17365055644872 22528.3 17872785744835 22600.2 18068155846054 22691.5 18434265955667 22925.7 18768076075031 23111.5 19070646209550 23454.3 1962649

Nella figura seguente sono riportate le tre variabili citate dopo averle trasformate in numeriindici a base fissa per renderli confrontabili

90

100

110

120

130

140

150

160

80 82 84 86 88 90 92 94 96 98 00

cap

lav

ft

Possiamo osservare che il capitale ed il fatturato crescono entrambi ad un tasso elevato, mentre

Page 265: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 257

il lavoro oscilla e rimane sostanzialmente immutato nel periodo considerato. Ai dati osservatisi vuole adattare una funzione di produzione non lineare del tipo

t)1(

ttot eLAVCAPFT 11 += −βββ

questo è un modello non lineare né linearizzabile nei due parametri 1o e ββ e per poterlostimare utilizziamo il metodo non lineare dei minimi quadrati. I risultati della stima sono ri-portati nella tabella che segue

Stima coeff Errore ST tc Prob.

oβ 0.731225 0.100128 7.302883 0.0000

1β 0.848242 0.025076 33.82630 0.0000

2R 0.987024 Media di FT 1633042.0

S.E. 23101.32 S.D. di FT 197661.0SSR 1.01E+10

Come si può notare, la stima di entrambi i parametri è da considerare buona ed il valore diR2 è molto elevato il che porterebbe a considerare il modello stimato accettabile. Se si consideracome il modello adatta i dati e l’andamento dei residui stimati si ottiene la figura seguente

-60000

-40000

-20000

0

20000

40000

60000

1200000

1400000

1600000

1800000

2000000

80 82 84 86 88 90 92 94 96 98 00

Osservati Stimati

residui

Come si può notare, nei residui è presente una componente ciclica che rende il modello poco a c-cettabile. Per catturare questo aspetto del fenomeno si è considerato il modello seguente

++=+

=−−

t2t21t1t

t)1(

ttot aeee

eLAVCAPFT

11

φφβ ββ

Page 266: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6258

ove ta è la nuova variabile casuale errore. In questo caso la stima non lineare dei minimiquadrati fornisce i risultati riportati nella tabella che segue

Coefficienti Std. Error t-Statistica Prob.

oβ 0.654055 0.127621 5.124958 0.0001

1β 0.868796 0.035754 24.29893 0.0000

1φ 1.090955 0.202491 5.387668 0.0001

2φ -0.576220 0.186839 -3.084048 0.0076

2R 0.995371 Media FT 166319.0

S.E. 13607.83 S.D. di FT 182575.7SSR 2.78E+09

Tutti i parametri stimati sono statisticamente diversi da zero e l’indice 2R è molto elevato equesto ci porta a concludere che questo modello potrebbe essere preferibile a quello precedente-mente utilizzato. Se consideriamo il grafico che mostra come il modello stimato adatta i datied i relativi residui otteniamo la figura seguente che ci porta a concludere che questo secondomodello è effettivamente migliore di quello stimato precedentemente.

-40000

-20000

0

20000

40000

1200000

1400000

1600000

1800000

2000000

82 84 86 88 90 92 94 96 98 00

Osservat i Interpolati

residui

6.8 Modello di regressione in forma matriciale

Il modello di regressione lineare può essere più facilmente ed utilmente r i-scritto utilizzando la notazione matriciale. Per vedere come questo si può otte-nere consideriamo il caso in cui vi sono due sole variabili esplicative: la X e laV. In tal modo le n osservazioni soddisfano le n relazioni:

Page 267: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 259

y1 = βo + β1 x1 + β2 v1 + e1y2 = βo + β1 x2 + β2 v2 + e2.......................................................yn = βo + β1 xn + β2 vn + en

che in forma matriciale possono essere anche scritte nel modo seguente

n

2

1

y

...

...

y

y

=

2

1

o

nn

22

11

vx1

.........

.........

vx1

vx1

βββ

+

n

2

1

e

...

...

e

e

⇔ y = X ββ + e

dove y , X , β β , e , sono, rispettivamente, il vettore delle y , la matrice delle va-riabili esplicative X, il vettore dei parametri ββ ed il vettore dei residui e . In altritermini,

il modello di regressione lineare si può sempre scrivere nel modo seguente

y = X ββ + e

con l’avvertenza che y ed e sono due vettori di n elementi, la matrice X ha nrighe e (k+1) colonne, mentre il vettore ββ ha (k+1) coefficienti incogniti dastimare.

Per le ipotesi fatte sul modello di regressione ( X è deterministica mentreE(e) = 0) risulta immediatamente

E(y) = X ββ .Indichiamo con A-1 l’inversa di una matrice quadrata, cioè quella per cui si ha

IAA =−1 , ove I indica la matrice identica composta da tutti uno sulla diago-nale principale e zero altrove, e con A' la trasposta di una matrice qualsiasi.Premoltiplicando ambo i membri dell’ultima espressione per X' si ottiene

Page 268: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Capitolo 6260

X' E( y ) = ( X' X ) ββ

da cui, essendo (X' X) quadrata ed invertibile per le ipotesi fatte sul modello diregressione lineare, si ricava la soluzione

ββ = (X' X ) -1X' E( y)

Se al posto di E(y), che è incognito, sostituiamo una stima, in particolare i valo-ri osservati y, si ottiene la stima del vettore dei parametri incogniti:

yXX)X( 1 ′′= −β

questa, per costruzione, è una stima in media e quindi minimizza la somma deiquadrati degli scarti ed ha tutte le proprietà della stima della media. In particol a-

re è facile verificare che ββ è non distorta per ββ . Infatti, ricordando che y = X

ββ + e si ha

ββ = (X ' X) -1X ' y = (X ' X) -1X ' [X ββ + e] =

= (X ' X ) -1(X ' X) ββ + (X' X) -1X ' e = ββ + (X' X ) -1X ' e

e tenuto conto che E(e) = 0 ed X è deterministica si ricava

E( ββ ) = ββ + (X' X) -1X ' E( e) = ββ

che generalizza quanto abbiamo visto nel caso di regressione lineare semplice(teorema di Gauss-Markov). Allo stesso modo si ha che:

- il vettore delle y stimate è dato da: y = X ββ

- il vettore degli scarti stimati è dato da: e = y - y

- la stima non distorta di σ 2 è data da: s 2 = 1kn

ˆ'ˆ

−−ee

- il coefficiente di correlazione multipla è:

Page 269: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Il modello di regressione lineare 261

R2 = )()'()ˆ()'ˆ(

yyyyyyyy

−−−−

= 1 - )()'(

ˆ'ˆ

yyyy

ee

−−

ove con y- si è indicato il vettore che ha tutti gli elementi uguali e pari alla me-

dia campionaria y- .Con una procedura simile è facile verificare che la matrice delle varianze e

covarianze di ββ è data da

var( ββ ) = σ 2( X ' X) -1.

La generalizzazione degli altri risultati illustrati nei paragrafi precedenti si ottienecon procedimenti simili ricorrendo a noti risultati di algebra lineare.

Page 270: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano
Page 271: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

BIBLIOGRAFIA

AITKEN C.G.C Statstics and the Evolution of Evidence for Forensic Scientists, Wiley &Sons, New York (1995)

ANDERSON TW., FINN J.D. The New Statistical Analysis of Data, Springer, NewYork (1996)

AZZALINI A. Statistical Inference Based on the Likelihood, Chapmann & Hall,London (1996)

BARNES J.W. Statistical Analysis for Engeneers and Scientists, McGraw Hill, NewYork (1994)

BETTUZZI G. Strumenti per l’Indagine Statistica, vol. I, CLUEB, Bologna (1993)BICKEL P. J., DOCKSUM K.A. Mathematical Statistics: Basic Ideas and Selected

Topics, Holden-Day, San Francisco (1977)BLALOCK H. M. Social Statistics, McGraw-Hill, 2° ediz., New York (1972)BOLDRINI M. Statistica, Giuffrè, Milano (1968)CALVELLI A., QUINTANO C. La Statistica. Elementi di Metodologia ed Applicazioni

in Campo Sociale ed Economico, Liguori Editore, Napoli (1982)CAPPUCCIO N., ORSI R. Econometria, Il Mulino, Bologna (1991)CASELLA G., BERGER R.L. Statistical Inference, Duxbury Press, Belmont CA

(1990)CASTELLANO V. Istituzioni di Statistica, Ed. Ilardi, Roma (1968)CECCHI C. I Numeri indici, Cacucci, Bari (1995)CHIEPPA M., RIBECCO N., VITALE C. Teoria e Metodi Statistici, ESI, Napoli

(1994)CIFARELLI M. Elementi di Calcolo delle Probabilità, Giappichelli, Torino (1995)CORBETTA P. Metodi di Analisi Multivariata per le Scienze Sociali, Il Mulino,

Bologna (1992)COSTANTINI D. GIORGI G.M., HERZEL A., M ONARI P., S CARDOVI I.,

Metodi Statistici per le Scienze Economiche e Sociali, Monduzzi, Bologna (1994)COX D.R., HINKLEY D.V. Theoretical Statistics, Chapmann Hall, London

(1974)CRESCIMANNI A. Grafici in Statistica, La Nuova Italia Scientifica, Roma (1996)DABONI L. Calcolo delle Probabilità ed Elementi di Statistica, UTET, Torino (1996)DALL’AGLIO G. Calcolo delle Probabilità, Zanichelli, Bologna (1987)DAVISON A.C., HINCKEY D.V. Bootstrap Methods and their Application,

Cambridge University Press, Cambridge (1997)De FINETTI B. Teoria delle Probabilità, vol. I e II, Einaudi, Torino (1970)

Page 272: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Bibliografia294

DEL VECCHIO F. Elementi di Statistica per la Ricerca Sociale, Cacucci, Bari (1996)DIANA G., SALVAN A. Campionamento da Popolazioni Finite, CLEUP, Padova

(1987)DI CIACCIO A., BORRA S. Introduzione alla Statistica Descrittiva, McGraw Hill,

Milano (1996)EFRON B. D., TIBSHIRANI R.J. An Introduction to the Bootstrap, Chapmann &

Hall, New York (1993)FRASER A.A.S. Inference and Linear Models, McGraw-Hill, New York (1979)FROSINI B., MONTANARI M., NICOLINI G. Il Campionamento da Popolazioni

Finite, UTET, Torino (1994)GIRONE G., SALVEMINI T. Lezioni di Statistica, vol. I, Cacucci, Bari (1984)GIUSTI F. Introduzione alla Statistica, Loescher Editore, Torino (1983)GIUSTI F., GUERRIRERI G. Elementi di Statistica, Cacucci, Bari (1980)GNEDENKO B.V. La Teoria della Probabiltà, Editori Riuniti, Roma (1979)GORIEROUX G., MONFORT A. Statistical and Econometric Models, vol. I,

Cambridge University Press, Cambridge (1995)HJORTH J.S.U. Computer Intensive Statistical Methods, Chapmann & Hall, London(1993)HODGES J.L., LEHMANN E. L. I Concetti Fondamentali della Probabilità e della

Statistica, vol. I, Probabilità, Il Mulino, Bologna (1971)HODGES J.L., LEHMANN E. L. I Concetti Fondamentali della Probabilità e della

Statistica, vol. II, Statistica, Il Mulino, Bologna (1972)HOEL P. G., PORT S., STONE C. Introduction to Statistical Theory, Houghton

Miffin, Boston (1971)HOGG R.V., CRAIG A.T. Introduction to Mathematical Statistics, MacMillan

Company, New York (1970)JALLA E. Per un’Analisi Statistica degli Aggregati Economici, Giappichelli, Torino

(1980)JOHNSON N. L., KOTZ S. Distributions in Statistics: Discrete Distributions,

Houghton Mifflin, New York (1969)JOHNSON N. L., KOTZ S. Distributions in Statistics: Continuous Univariate

Distributions , vol. I, Houghton Mifflin, New York (1970)JOHNSON N. L., KOTZ S. Distributions in Statistics: Continuous Univariate

Distributions , vol. II, Houghton Mifflin, New York (1970)KENDALL M.G., STUART A. The Advanced Theory of Statistics, vol I: Distribution

Theory , Griffin, London (1976)KENDALL M.G., STUART A. The Advanced Theory of Statistics, vol II: Inference and

Relationship, Griffin, London (1979)LANDENNA G. Fondamenti di Statistica Descrittiva, Il Mulino, Bologna (1984)LANDENNA G., MARASINI D. La Teoria della Stima Puntuale, Cacucci, Bari

Page 273: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Bibliografia 295

(1992)LANDENNA G., MARASINI D., FERRARI P. Probabilità e Variabili Casuali, Il

Mulino, Bologna (1997)LANDENNA G., MARASINI D., FERRARI P. Teoria della Stima, Il Mulino,

Bologna (1997)LANDENNA G., MARASINI D., FERRARI P. La Verifica di Ipotesi Statistiche, Il

Mulino, Bologna (1998)LEHMANN E.L. Theory of Point Estimation, Wiley, New York (1983)LEHMANN E.L. Testing Statistical Hypotheses, Wiley, New York (1986)LEHMANN E.L. Nonparametrics: Statistical Methods Based on Ranks, Holden-Day,

San Francisco (1975)LESSI O. Corso di Calcolo delle Probabilità, Metria Edizioni, Padova (1990)LETI G. Statistica Descrittiva, Il Mulino, Bologna (1983)LINDGREN B.W. Statistical Theory, MacMillan, New York (1976)LINDSEY J.K. Parametric Statistical Inference, Claredon Press, Oxford (1996)LOMBARDO E. Analisi Esplorativa di Dati Statistici, Edizioni Kappa, Roma

(1994)MAGAGNOLI U. Elementi di Statistica Descrittiva, CLUEB, Bologna (1993)MANTOVAN P. Introduzione alla Probabilità e all’Inferenza Statistica, CEDAM,

Padova (1993)MONFORT A. Cours de Statistique Mathématique, Economica, Paris (1982)MOOD A.M., GRAYBILL F.A., BOES D.C. Introduzione alla Statistica, McGraw

Hill, Milano (1993)NADDEO A. Statistica di Base, Edizioni Kappa, Roma (1981)NADDEO A. Inferenza Statistica, La Nuova Italia Scientifica, Roma (1987)NADDEO A., LANDENNA G. Metodi Statistici nella Ricerca Scientifica e Industriale,

Franco Angeli, Milano (1986)NEWBOLD P. Statistics for Business and Economics, 2° edit., Prentice-Hall, N.J.

(1995)O’HAGEN A. Bayesian Inference, E. Arnold, Cambridge (1994)OLIVIERI D. Fondamenti di Statistica, CEDAM, Padova (1995)ORSI R. Probabilità e Inferenza Statistica, Il Mulino, Bologna (1985)PACE L., SALVAN A. Teoria della Statistica, CEDAM, Padova (1996)PERACCHI F. Econometria, McGraw Hill, Milano (1995)PERSICO P., VINCI S. Principi di Econometria, Liguori Editore, Napoli (1981)PESARIN F. Introduzione al Calcolo delle Probabilità, La Nuova Italia Scientifica,

Roma (1989)PICCINATO L. Metodi per le Decisioni Statistiche, Springer, Milano (1996)PICCOLO D., VITALE C. Metodi Statistici per l’Analisi Economica, Il Mulino,

Bologna (1984)

Page 274: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Bibliografia296

PICCOLO D. Statistica, Il Mulino, Milano (1998)PIERACCINI L. Fondamenti di Inferenza Statistica, Giappichelli, Torino (1991)PINDYCK R.S., RUBINFELD D.L. Econometric Methods and Econometric Forecasts,

3° edit., McGraw Hill, New York (1991)POMPILJ G. Teoria dei Campioni, Veschi, Roma (1967)PREDETTI A. I Numeri Indici. Teoria e Pratica, 6° ediz., Giuffré, Milano (1991)RAO C.R. Linear Statistical Inference and Its Applications, Wiley & Sons, New York

(1973)RICCI F. Elaborazione Statistica delle Informazioni, Zanichelli, Bologna (1975)RIZZI A. Inferenza Statistica, UTET, Torino (1992)ROHATGI V.K. An Introduction to Probability Theory and Mathematical Statistics,

Wiley, New York (1976)ROHATGI V.K. Statistical Inference, Wiley, New York (1984)RUELL D. Caso e Caos, Bollati Boringhieri, Torino (1992)SALVEMINI T. Lezioni di Statistica, vol. I, Cacucci, Bari (1970)SCALA C. Funzioni di Densità di Probabilità: Atlante Descrittivo, Monotypia Franchi,

Città di Castello (PG) (1988)SCARDOVI I. Appunti di Statistica, vol. I, Edizioni Patron, Bologna (1980)SCHEFFÈ H. The Analysis of Variance, Wiley & Sons, New York (1959)SHAO J., TU D. The Jackknife and the Bootstrap, Springer, New York (1995)SHAPIRO S.S. Come Provare la Normalità ed altre Ipotesi per le Distribuzioni di

Frequenza, n. 3, Editoriale Italica, Milano (1995)SILVEY S.D. Statistical Inference, Penguin Education Books, London (1970)SPRENT P. Applied Nonparametric Statistical Methods, 2° edit., Chapmann & Hall,

London (1993)STUART A. Sondaggi di Opinione, Idee per il Campionamento, Tascabili Newton,

Roma (1996)THOMPSON M.E. Theory of Sample Survey, Wiley & Sons, New York (1997)TUKEY J.W. Esploratory Data Analysis, Addison-Wesley, Reading (1971)VAJANI L. Statistica Descrittiva, ETAS Libri, Milano (1974)VITALI O. Statistica per le Scienze Applicate, vol. I, Cacucci, Bari (1991)WELSH A.M. Aspects of Statistical Inference, Wiley & Sons, New York (1996)WILKS S. Mathematical Statistics, Wiley, New York (1963)ZANI S. Analisi dei Dati Statistici, vol. I, Giuffrè, Milano (1994)ZENGA M. Introduzione alla Statistica Descrittiva, Vita e Pensiero, Milano (1988).

Page 275: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice Analitico 297

Algebra- di Boole 5, 12- lineare 261

Ampiezza- del campione 161, 178, 182, 193,

197, 201- della popolazione 177

Approssimazione 80, 85- asintotica 87, 95, 100, 137- distribuzione 87, 95, 100

Arvesen 151Asimmetria 37, 50, 59, 67, 72, 74, 92,

97-99Assiomatizzazione 3

Banerji 173Baricentro 123Bayes 26, 27, 28, 29Behrens 173Beran 151Bernoulli 63, 73, 115, 125, 152, 178,190, 193Bickel 15Binomiale 63, 109, 178, 209Binomio 66Boole 5, 6, 7, 8, 9, 10, 12, 31Bootstrap 131, 148, 149, 150, 152, 153

Campione 113, 114, 115, 123, 125,138, 141, 150, 152, 242

- casuale 113, 121, 132, 136, 155,156, 158, 160, 161, 169, 170,172, 181, 182, 187, 197, 199,201, 208, 211, 212, 221

- bernoulliano 115, 135, 152, 178,180, 181, 193

- con reimmissione 115, 178- frazione 180- indipendente 172, 180- numerosità 214- senza reimmissione (ripetizione)

200Cantelli 144Carattere

- confontabile 182- dicotomico177

Caso 2, 218Cauchy 94Chebychev 110, 111, 112Coefficiente

- angolare 221- binomiale 67- di correlazione 191, 251,- di correlazione multipla 258- di variazione 59

Combinazioni 65, 89, 100Consistenza 128, 133, 137, 145, 239

- media quadratica 128Controllo 182, 208Convergenza 104

- debolmente 104- distribuzione (legge) 106- media quadratica 105- probabilità 104- uniforme 106

Correlazione 40, 55, 140, 147, 191, 251- campionaria 130, 140, 147- multipla 246, 260

Covarianza 40, 54, 100- campionaria 226

Curnout 3Curtosi 37, 50, 60, 74de Morgan 9, 18Deterministico 1Diagonale principale 259Diagramma 16

- a scatter 223, 234- di Venn 11

Distorsione 122, 132, 150, 239Distribuzione

- asintotica 106- Bernoulli 64, 65, 70, 73, 109- binomiale 64, 109, 110- condizionata 120- di frequenza 35, 36, 193, 221- di probabilità 34, 149- empirica 196- leptocurtica 75, 93, 94, 98, 99- lognormale 98, 99- normale (Gauss) 75, 90, 95, 98,

100, 107, 108, 109

Page 276: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice Analitico298

- Poisson 70, 110- teorica 196

Disuguaglianza di Chebychev 110

Efficienza 124- asintotica 127- relativa 127, 128

Efron 152, 153Errore 218

- primo tipo, 157- quadratico medio (MSE) 124- secondo tipo 157, 195- tollerabile 213

Estrazione 23, 213, 214- Bernoulliana (con rimessa) 25, 115,

152, 193, 214- senza reimmissione (in blocco) 25,

180, 214Evento 4, 24, 32, 36, 44, 155

- certo 7, 10- condizionato 16- condizionante 16, 17- equiprobabile 20, 21, 23, 42- incompatibile 10, 19, 21, 23, 24- impossibile 7, 11- indipendente 17- necessario 20, 21, 23, 42- negato 6, 8, 12

Fattoriale 16Fisher 89, 95, 135, 173, 189, 191, 250Frequenza

- assoluta 35, 193- marginale 197- relativa 24, 35, 178, 193

Funzione 217- condizionata 54- decisione 116- densità (f.d.) 43, 47, 51, 53, 114,

135, 144- doppia 52- gamma 91- insieme 34, 41, 66- lineare 221- marginale 53

- obiettivo 222- perdita 116, 117- ripartizione 48, 51, 200, 208- rischio 116- verosimiglianza 136, 159, 173, 194,

198

Gauss 133, 135, 239Glivenko 144Gradi di libertà 90, 170, 189, 236, 244

Hall 153

Indice- asimmetria 37, 50, 74- curtosi 37, 50, 60, 74

Incorrelazione 102, 222Indipendenza

- fra eventi 17- fra variabili casuali (v.c.) 54, 65, 68,

73, 89, 90, 92, 93, 95, 101, 104,108, 109, 115, 172, 178, 188,196, 200, 249

- fra campioni 172, 201Insieme

- campionario 5, 9- degli stati di natura (parametrico)

116, 156- decisioni ammissibili 117- delle azioni 116- parametrico 116

Intercetta 221, 244Intersezione 6Intervallo

- casuale 211- di confidenza 211- per media 211- per percentuale 213

Ipotesi- alternativa 156- bilaterale 210, 211- classica 222- complessa 164- nulla 156- semplice 156

Page 277: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice Analitico 299

Jackknife 131, 148

Legge de Morgan 9, 18Livello di significatività 157

Markov 239Matrice 259

- identica 259- quadrata 259- varanza e covarianza 261

Media 37, 50- campionaria 122, 123, 127, 140

2402 261- condizionata 55, 102- marginale 55- perdita 116- quadratica 128

Mediana 50, 58, 140, 145- campionaria 140

Mean square error (MSE) 124, 127Metodo di stima 131

- area minima 118- mini-max 118- minimi quadrati (LS) 131, 133, 223- minimi quadrati non lineare 257- momenti 131- massima verosimiglianza (ML)

131, 135- Monte Carlo 148, 149- proprietà ottimali 119- ricampionamento 148

Miller 151Misura

- bontà adattamento 245- della probabilità 20- legame lineare 246- percentuale variabilità 248

Modello- in forma matriciale 258- linearizzabile 254- multiplo 223, 258- non lineare 254- regressione 134, 217, 218- regressione lineare 216, 221- specificazione 222

- stima 223- verifica 240- verifica adattamento 245- verifica residui 252- verifica test 241

Momento- campionario 130, 132- condizionato 40, 55- di ordine r 37, 49, 61, 63, 64, 82,

92, 94, 97, 99, 131- misto 49, 54- quarto 59, 62, 69, 74, 92- secondo 58, 62, 69, 73, 92- terzo 59, 62, 69, 73, 92

Negazione 6Neyman 158, 159Non distorsione 122, 123, 150, 168,

236, 237, 260- asintotica 123, 168- misura 124

Omoschedasticità 174, 222Ordinamento statistico 121Osservazione campionaria 121, 134

Parametro 114, 259Pearson 158, 159Percentile 145, 179, 192

- campionario 144, 151Perdita quadratica 117Pivotale 147, 160, 169, 177, 190, 213Poisson 70, 114, 121Popolazione 114, 125, 131, 149, 165,

177, 180, 188, 200, 212, 213Postulato 5, 10, 16, 20, 26

- empirico del caso 23Potenza

- del test 157, 163- massima 157

Probabilità 4, 10, 21, 31, 35, 39, 53- a posteriori 28- a priori 28- condizionate 16, 39- errore del I tipo 157- errore del II tipo 157

Page 278: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice Analitico300

- probativa 28Prodotto logico 17Proprietà riproduttiva 92Prova 4, 20, 23

Quenouille 150

Rango 201, 202, 203, 206Regione

- accettazione 157, 175, 211, 212,213

- critica (di rifiuto) 157, 161, 173,176, 179, 187, 211, 213

- critica approssimata 163, 171, 196- di rifiuto 175- ottimale 170

Regressione 114, 134, 217- lineare 219, 251, 259- multipla 219, 229, 236, 237, 240,

243, 247, 259- non lineare 254- semplice 219, 220, 236, 235, 241,

251, 260- stimata 245

Residui (scarti) 228, 236, 241, 246, 250,252, 260

Retta 102, 221, 246, 250- di regressione 226, 227, 231, 246,

250Ricampionamento 139, 150R-quadro (R2) 246, 248, 261Scarto 124, 134, 218, 224, 227, 236,

260Scarto quadratico medio 149Sen 151Serie storica 221, 252Significatività del test 170, 171, 188Simmetria 58, 59, 67, 76, 82, 94, 100,

206Spazio

- campionario 156, 158- parametrico 156, 158

Statistica 202- test 162, 166, 169, 184, 185, 242,

243- pivotale 147, 160, 169, 177, 241

Stima 114, 219- accettabile 115, 119, 123- BLUE 240- correlazione 130, 140- massima verosimiglianza (ML)

135, 138, 160, 174- in media 227, 236- media 132, 140- mediana 140- minimi quadrati (LS) 134, 224, 226- momenti 132, 139- non lineare 255- parametrica 114- percentili 144- residui (scarti) 227- varianza 129, 130, 140, 236, 240,

247, 260Stimatore 115, 116, 118

- asintoticamente non distorto 124,129, 130, 145

- BLUE 240- consistente 128, 133, 137, 239- distribuzione 140, 144, 145, 147,

241- massima verosimiglianza (ML)

136- minimi quadrati (LS) 134- momenti 132, 133- non distorto 122, 129, 130,

239, 240- ottimo 119, 123, 177, 178, 183,

187, 190, 193- sufficiente 120, 122- sufficiente minimale 121- UMVU 125, 128, 137

Student 89, 93, 94, 95, 96, 147, 168,170, 171, 173, 207, 211

Sufficienza 120, 121, 122, 123, 125,127

- minimale 121

Teorema 11, 12, 13, 14, 17, 18, 19- del limite centrale (CLT) 108, 141,

144, 145, 179- di Bayes 26

Page 279: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice Analitico 301

- fattorizzazione 120, 122- di Gauss-Markov 239, 260- di Glivenko-Cantellli 144- di Neyman-Pearson 159- di Wilks 162, 164, 171

Teoria delle decisioni 116Test 155, 156, 241, 249

- adattamento 193- confronto fra varianze 188- confronto fra medie 172- confronto fra proporzioni 180- dati appaiati 182- LRT (MLR) 160, 164, 165- non parametrico 192- parametrico 155, 241- più potente 159- potenza 157- segni 207- su coefficiente di correlazione 191- sull’indipendenza 196- su proporzione 177- sulla media 165- sulla varianza 185- uniformemente più potente 159- Wilcoxson 200

Trattamento 182, 208Tukey 150, 151

Unione 6Unità di rilevazione 63, 177

Valore- critico 208- osservato 227- soglia 202- stimato 227

Variabile- dipendente 217- endogena 217- esplicativa 217- indipendente 217

Variabile casuale (v.c.) 32, 42- Bernoulli 63, 109, 178, 194- Binomiale 64, 70, 71, 74, 109, 114,

209

- Binomiale frequenza 70, 178- campionaria 115, 116, 12, 125,

132, 134, 135, 147, 149, 156,157, 158

- Cauchy 94- Chi-quadrato 90, 109, 146- condizionata 39, 54- continua 41- degenere 106- discreta 32- doppia 38, 107, 130, 140, 147- errore 218- errori accidentali 76- F di Fisher 89, 95, 250- incorrelate 238- Lognormale 89, 98- media 104, 127- marginale 39, 53- multinormale 100, 102- multivariata (multipla) 34, 38- normale (Gauss) 76, 89, 114, 141,

145, 165- normale condizionata 102- normale doppia 100, 147, 191- normale standardizzata 79, 82, 95,

107, 108, 151- Poisson 71, 75, 110, 114, 121- residuo 259- standardizzata 38, 50, 181- scarto 218, 221, 222- T di Student 90, 93, 107, 147, 168,

170, 211- uniforme 57- uniforme continua 61- uniforme discreta 57- uniforme standardizzarta 60

Varianza 37, 50, 58, 70, 74, 76, 89, 92,100, 110, 185, 188

- campionaria 129, 145, 169, 226- condizionata 41, 55- dei parametri 239, 240- di uno stimatore 124- marginale 41, 55- stimata 129

Page 280: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Indice Analitico302

Venn 7Vettore 259

- di parametri 164, 217, 259- residui 259

Wilcoxon 200, 203, 207Wilks 162, 164, 171

Page 281: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

APPENDICE

Page 282: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice264

Tav. 1 Numero di combinazioni di N ad n ad n:

N

n

N | n 2 3 4 5 6 7 8 9 10 11 122 13 3 14 6 4 15 10 10 5 1

6 15 20 15 6 17 21 35 35 21 7 18 28 56 70 56 28 8 19 36 84 126 126 84 36 9 1

10 45 120 210 252 210 120 45 10 1

11 55 165 330 462 462 330 165 55 11 112 66 220 495 792 924 792 495 220 66 12 113 78 286 715 1.287 1.716 1.716 1.287 715 286 78 1314 91 364 1.001 2.002 3.003 3.432 3.003 2.002 1.001 364 9115 105 455 1.365 3.003 5.005 6.435 6.435 5.005 3.003 1.365 455

Page 283: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 265

Continua

N | n 2 3 4 5 6 7 8 9 10 11 12 16 120 560 1.820 4.368 8.008 11.440 12.870 11.440 8.008 4.368 1.82017 136 680 2.380 6.188 12.376 19.448 24310 24.310 19448 12376 618818 153 816 3.060 8.568 18.564 31.824 43 758 48.620 43 758 31 824 18 56419 171 969 3.876 11.628 27.132 50.388 75.582 92.378 92.378 75.582 50.38820 190 1.140 4.845 15.504 38.760 77.520 125.970 167.960 184.756 167.960 125.970

21 210 1.330 5.985 20.349 54.264 116.280 203.490 293.930 352.716 352.716 293.93022 231 1.540 7.315 26.334 74.613 170.544 319.770 497.420 646.646 705.432 646.64623 253 1 771 8.855 33.649 100.947 245.157 490.314 817.190 1.144.066 1.352.078 1.352.07824 276 2.024 10.626 42.504 134.596 346.104 735.471 1.307.504 1.961.256 2.496.144 2.704.15625 300 2.300 12.650 53.130 177.100 480.700 1.081.575 2.042.975 3.268.760 4.457.400 5.200.300

Page 284: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice266

Tav. 2 Probabilità ( ) αΦαα

−==≤<∞−−−

1zzZP11

della v.c. normale standardizzata Z per diversi valori di α−1

z

z1-α 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .53590.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .57530.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .61410.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .65170.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879

0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .72240.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .75490.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .78520.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .81330.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389

1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .86211.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .88301.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .90151.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .91771.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319

1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .94411.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .95451.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .96331.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .97061.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767

2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817

Page 285: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 267

Continua

z1-α 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857 2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890 2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916 2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936

2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952 2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964 2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974 2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981 2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986

3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990 3 1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993 3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995 3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997 3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998

Page 286: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice268

Tav. 3 Alcuni valori di z 1-α

in termini di 1-α = Φ(z 1-α ) = α−

≤1

zZP

Φ( z 1-α ) z 1-α Φ( z 1-α ) z 1-α Φ( z 1-α ) z 1-α

.50 0.000 .91 1.341 .9950000 2.576 .55 0.126 .92 1.405 .9990000 3.090 .60 0.253 .93 1.476 .9995000 3.291 .65 0.385 .94 1.555 .9999000 3.719 .70 0.524 .95 1.645 .9999500 3.891 .75 0.674 .96 1.751 .9999900 4.265 .80 0.842 .97 1.881 .9999950 4.417 .85 1.036 .98 2.054 .9999990 4.753 .90 1.282 .99 2.326 .9999999 5.199

Page 287: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 269

Tav. 4 Probabilità αα

−=≤≤−

5.0zZ0P5.0

nella v.c. normale standardizzata Z per differenti valori di α−5.0

z

z0.5−α 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359 0.1 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0753 0.2 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141 0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517 0.4 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879

0.5 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224 0.6 .2257 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2517 .2549 0.7 .2580 .2611 .2642 .2673 .2703 .2734 .2764 .2794 .2823 .2852 0.8 .2881 .2910 .2939 .2967 .2995 .3023 .3051 .3078 .3106 .3133 0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389

1.0 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621 1.1 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830 1.2 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015 1.3 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177 1.4 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319

1.5 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441 1.6 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545 1.7 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633 1.8 .4641 .4649 .4656 .4664 .4671 .4678 .4686 .4693 .4699 .4706 1.9 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767

Page 288: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice270

Continua

z0.5−α 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

2.0 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817 2.1 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857 2.2 .4861 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890 2.3 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916 2.4 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936

2.5 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952 2.6 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964 2.7 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974 2.8 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981 2.9 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986

3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990

Page 289: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Tavole statistiche 271

Tav. 5 Valori tα della v.c. T di Student per

differenti livelli di probablità e diversi gradi di libertà P t

α ≤ T( g ) <∞ = α

g\α 0.40 0.25 0.10 0.05 0.025 0.01 0.005 0.0005

g\1-α 0.60 0.75 0.90 0.95 0.975 0.99 0.995 0.9995 1 .325 1.000 3.087 6.314 12.706 31.821 63.657 636.619 2 .289 .816 1.886 2.920 4.303 6.965 9.925 31.598 3 .277 .765 1.638 2.353 3.182 4.541 5.841 12.924 4 .271 .741 1.533 2.132 2 776 3.747 4.604 8.610 5 .267 .727 1.476 2.015 2 571 3.365 4.032 6.869

6 .265 .718 1.440 1.943 2.447 3.143 3.707 5 959 7 .263 .711 1.415 1.895 2 365 2.998 3.499 5.408 8 .262 .706 1.397 1.860 2 306 2.896 3.355 5.041 9 .261 .703 1.383 1.833 2.262 2.821 3.250 4.781 10 .260 .700 1.372 1.812 2.228 2.764 3.169 4.587

11 .260 .697 1.363 1.796 2.201 2.718 3.106 4.437 12 .259 .695 1.356 1.782 2.179 2.681 3.055 4.318 13 .259 .694 1.350 1.771 2 160 2.650 3.012 4.221 14 .258 . 692 1.345 1.761 2.145 2.624 2.977 4.140 15 .258 .691 1.341 1.753 2.131 2.602 2.947 4.073

16 .258 .690 1.337 1.746 2 120 2.583 2.921 4.015 17 .257 .689 1.333 1.740 2 110 2.567 2.898 3.965 18 .257 .688 1.330 1.734 2 101 2.552 2.878 3.922 19 .247 .688 1.328 1.729 2.093 2.539 2.861 3.883 20 .257 .687 1.325 1.725 2 086 2.528 2.845 3.850

Page 290: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Tavole statistiche

272

Continua g\α 0.40 0.25 0.10 0.05 0.025 0.01 0.005 0.0005

g\1-α 0.60 0.75 0.90 0.95 0.975 0.99 0.995 0.9995 21 .257 .686 1.323 1.721 2 080 2.518 2.831 3.819 22 .256 .686 1.321 1.717 2 074 2.508 2.819 3.792 23 .256 .685 1.319 1.714 2 069 2.500 2.807 3.767 24 .256 .685 1.318 1.711 2.064 2.492 -2.797 3.745 25 .256 .684 1.316 1.708 2 060 2.485 2.787 3.725

26 .256 .684 1.315 1.706 2.056 2.479 2.779 3.707 27 .256 .684 1.314 1.703 2 052 2 473 2.771 3.690 28 .256 .683 1.313 1.701 2 048 2.467 2.763 3.674 29 .256 .683 1.311 1.699 2 045 2.462 2.756 3.659 30 .256 .683 1.310 1.697 2 042 2.457 2.750 3.646

40 .255 .681 1.303 1.684 2 021 2.423 2.704 3.551 60 .254 .679 1.296 1.671 2 000 2.390 2.660 3.460 120 .254 .677 1.289 1.658 1.980 2.358 2.617 3.373 ∞ .253 .674 1.282 1.645 1.960 2.326 2.576 3.291

Page 291: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Tavole statistiche 273

Tav. 6 Valori di χ 2,g α della v.c. χ 2 per differenti livelli di probabilità e gradi di

libertà: Pχ 2,g α ≤ χ 2 < ∞ = α

g\α 0.250 0.100 0.050 0.025 0.010 0.005 0.001 1 1.32330 2.70554 3.84146 5.02389 6.63490 7.87944 10.828 2 2.77259 4.60517 5.99147 7.37776 9.21034 10.5966 13.816 3 4.10835 6.25139 7.81473 9.34840 11.3449 12.8381 16.~66 4 5.38527 7.77944 9.48773 11.1433 13.2767 14.8602 18.467

5 6.62568 9.23635 11.0705 12.8325 15.0863 16.7496 20.515 6 7.84080 10.6446 12.5916 14.4494 16.8119 18.5476 22.458 7 9.03715 12.0170 14.0671 16.0128 18.4753 20.2777 24.322 8 10.2188 13.3616 15.5073 17.5346 20.0902 21.9550 26.125 9 11.3887 14.6837 16.9190 19.0228 21.6660 23.5893 27.877

10 12.5489 15.9871 18.3070 20.4831 23.2093 25.1882 29.588 11 13.7007 17.2750 19.6751 21.9200 24.7250 26.7569 31.264 12 14.8454 18.5494 21.0261 23.3367 26.2170 28.2995 32.909 13 15.9839 19.8119 22.3621 24.73s6 27.6883 29.8194 34.528 14 17.1170 21.0642 23.6848 26.1190 29.1413 31.3193 36.123

15 18.2451 22.3072 24.9958 27.4884 30.5779 32.8013 37.697 16 19.3688 23.5418 26.2962 28.84s4 31.9999 34.2672 39.252 17 20.4887 24.7690 27.5871 30.1910 33.4087 35.7185 40.790 18 21.6049 25.9894 28.8693 31.5264 34.8053 37.1564 42.312 19 22.7178 27.2036 30.1435 32.8523 36.1908 38.5822 43.820

20 23.8277 28.4120 31.4104 34.1696 37.5662 39.9908 45.315 21 24.9348 29.6151 32.6705 35.4789 38.9321 41.4010 46.797 22 26.0393 30.8133 33.9244 36.7807 40.2894 42.7956 48.268 23 27.1413 32.0069 35.1725 38.0757 41.6384 44.1813 49.728

Page 292: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Tavole statistiche

274

Continua g\α 0.250 0.100 0.050 0.025 0.010 0.005 0.001 24 28.2412 33.1963 36.4151 39.3641 42.9798 45.5585 51.179

25 29.3389 34.3816 37.6525 40.6465 44.3141 46.9278 52.600 26 30.4345 35.5631 38.8852 41.9232 45.6417 48.2899 54.052 27 31.5284 36.7412 40.1133 43.1944 46.9630 49.6449 55.476 28 32.6205 37.9159 41.3372 44.4607 48.2782 50.9933 56.892 29 33.7109 39.0875 42.5569 45.7222 49.5879 52.3356 58.302

30 34.7998 40.2560 43.7729 46.9792 50.8922 53.6720 59.703 40 45.6160 51.8050 55.7585 59.3417 63.6907 66.7659 73.402 50 56.3336 63.1671 67.5048 71.4202 76.1539 79.4900 86.661 60 66.9814 74.3970 79.0819 83.2976 88.3794 91.9517 99.607

70 77.5766 85.5271 90.5312 95.0231 100.425 104.215 112.317 80 88.1303 96.5782 101.879 106.629 112.329 116.321 124.839 90 98.6499 107.565 113.145 118.136 124.116 128.299 137.208 100 109.141 118.498 124.342 129.561 135.807 140.169 149.449

Page 293: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Tavole statistiche 275

Tav. 7 Valori di χ 2,g α della v.c. χ2 per differenti livelli di probabilità e gradi di

libertà: ( ) αχχ α =≤≤ 2,g

29g80P

g\α 0.005 0.010 0.025 0.050 0.100 0.250 0.500 1 3927.10-8 15709 10-8 98207.10-8 39321.10-7 0.01579 0.10153 0.45493 2 0.01002 0.02010 0.05063 0.10259 0.21072 0.57536 1.38629 3 0.07172 0.11483 0.21579 0.35185 0.58437 1.21253 2.36597 4 0.20699 0.29711 0.48442 0.71072 1.06362 1.92255 3.35670

5 0.41174 0.55430 0.83121 1.14547 1.61031 2.67460 4.35146 6 0.67572 0.87208 1.23734 1.63539 2.20413 3.45460 5.34812 7 0.98926 1.23904 1.68987 2.16735 2.83311 4.25485 6.34581 8 1.34441 1.64648 2.17973 2.73264 3.48954 5.07064 7.34412 9 1.73492 2.08791 2.70039 3.32511 4.16816 5.89883 8.34283

10 2.15585 2.55821 3.24697 3.94030 4.86518 6.73720 9.34182 11 2.60321 3.05347 3.81575 4.57481 5.57779 7.58412 10.3410 12 3.07382 3.57056 4.40379 5.22603 6.30380 8.43842 11.3403 13 3.56503 4.10691 5.00874 5.89186 7.04150 9.29906 12.3398 14 4.07468 4.66043 5.62872 6.57063 7.78953 10.1653 13.3393

15 4.60094 5.22935 6.26214 7.26094 8.54675 11.0365 14.3389 16 5.14224 5.81221 6.90766 7.96164 9.31223 11.9122 15.3385 17 5.69724 6.40776 7.56418 8.67176 10.0852 12.~919 16.3381 18 6.26481 7.01491 8.23075 9.39046 10.8649 13.6753 17.3379 19 6.84398 7.63273 8.90655 10.1170 11.6509 14.5620 18.3376

20 7.43386 8.26040 9.59083 10.8508 12.4426 15.4518 19.3374 21 8.03366 8.89720 10.2829 11.5913 13.2396 16.3444 20.3372 22 8.64272 9.54249 10.9823 12.3380 14.0415 17.2396 21.3370

Page 294: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Tavole statistiche

276

Continua g\α 0.005 0.010 0.025 0.050 0.100 0.250 0.500 23 9.26042 10.1957 11.6885 13.0905 14.8479 18.1373 22.3369 24 9.88623 10.8564 12.4011 13.8484 15.6587 19.0372 23.3367

25 10.5197 11.5240 13.1197 14.6114 16.4734 19.9393 24.3366 26 11.1603 12.1981 13.8439 15.3791 17.2919 20.8434 25.3364 27 11.8076 12.8786 14.5733 16.1513 18.1138 21.7494 26.3363 28 12.4613 13.5648 15.3079 16.9279 18.9392 22.6572 27.3363 29 13.1211 14.2565 16.0471 17.7083 19.7677 23.5666 28.3362

30 13.7867 14.9535 16.7908 18.4926 20.5992 24.4776 29.3360 40 20.7065 22.1643 24.4331 26.5093 29.0505 33.6603 39.3354 50 27.9907 29.7067 32.3574 34.7642 37.6886 42.9421 49.3349 60 35.5346 37.4848 40.4817 43.1879 46.4589 52.2938 59.3347

70 43.2752 45.4418 48.7576 51.7393 55.3290 61.6983 69.3344 80 51.1720 53.5400 57.1532 60.3915 64.2778 71.1445 79.3343 90 59.1963 61.7541 65.6466 69.1260 73.2912 80.6247 89.3342 100 67.3276 70.0648 74.2219 77.9295 82.3581 90.1332 99.3341

Page 295: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 277

Tav. 8 Valori Fk, h; 1-α della v.c. F per α = 0.10 e differenti coppie di gradi di libertà: P( 0 < Fk, h < Fk, h; 1- α ) = 0.90Numeratore

h\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 39.86 49.50 53.59 55.83 57.24 58.20 58.91 59.44 59.86 60.19 60.71 61.22 61.74 62.00 62.26 62.53 62.79 63.06 63.33 2 8.53 9.00 9.16 9.24 9.29 9.33 9.35 9.37 9.38 9.39 9.41 9.42 9.44 9.45 9.46 9.47 9.47 9.48 9.49 3 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5 25 5.24 5.23 5.22 5.20 5.18 5.18 5.17 5.16 5.15 5.14 5 13 4 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94 3.92 3.90 3.87 3.84 3.83 3.82 3.80 3.79 3.78 3.76

5 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.32 3 30 3.27 3.24 3.21 3.19 3.17 3.16 3.14 3.12 3.10 6 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96 2.94 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.72 7 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72 2.70 2.67 2.63 2.59 2.58 2.56 2.54 2.51 2.49 2.47 8 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.56 2.54 2.50 2.46 2.42 2.40 2.38 2.36 2.34 2.32 2.29 9 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.44 2.42 2.38 2.34 2.30 2.28 2.25 2.23 2.21 2.18 2.16

10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35 2.32 2.28 2.24 2.20 2.18 2.16 2.13 2.11 2.08 2.0611 2.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30 2.27 2.25 2.21 2.17 2.12 2.10 2.08 2.05 2.03 2.00 1.9712 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21 2.19 2.15 2.10 2.06 2.04 2.01 1.99 1.96 1.93 1.9013 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20 2.16 2.14 2.10 2.05 2.01 1.98 1.96 1.93 1.90 1.88 1.8514 3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.12 2.10 2.05 2.01 1.96 1.94 1.91 1.89 1.86 1.83 1.80

15 3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12 2.09 2.06 2.02 1.97 1.92 1.90 1.87 1.85 1.82 1.79 1.7616 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 2.06 2.03 1.99 1.94 1.89 1.87 1.84 1.81 1.78 1.75 1.7217 3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06 2.03 2.00 1.96 1.91 1.86 1.84 1.81 1.78 1.75 1.72 1.69

Page 296: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice278

ContinuaNumeratore

h\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 18 3.01 2.62 2.42 2.29 2.20 2.13 2.08 2.04 2.00 1.98 1.93 1.89 1.84 1.81 1.78 1.75 1.72 1.69 1.66 19 2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02 1.98 1.96 1.91 1.86 1.81 1.79 1.76 1.73 1.70 1.67 1.63

20 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.96 1.94 1.89 1.84 1.79 1.77 1.74 1.71 1.68 1.64 1.61 21 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.95 1.92 1.87 1.83 1.78 1.75 1.72 1.69 1.66 1.62 1.59 22 2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97 1.93 1.90 1.86 1.81 1.76 1.73 1.70 1.67 1.64 1.60 1.57 23 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.92 1.89 1.84 1.80 1.74 1.72 1.69 1.66 1.62 1.59 1.55 24 2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94 1.91 1.88 1.83 1.78 1.73 1.70 1.67 1.64 1.61 1.57 1.53

25 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89 1.87 1.82 1.77 1.72 1.69 1.66 1.63 1.59 1.56 1.52 26 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.88 1.86 1.81 1.76 1.71 1.68 1.65 1.61 1.58 1.54 1.50 27 2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91 1.87 1.85 1.80 1.75 1.70 1.67 1.64 1.60 1.57 1.53 1.49 28 2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90 1.87 1.84 1.79 1.74 1.69 1.66 1.63 1.59 1.56 1.52 1.48 29 2.89 2.50 2.28 2.15 2.06 1.99 1.93 1.89 1.86 1.83 1.78 1.73 1.68 1.65 1.62 1.58 1.55 1.51 1.47

30 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85 1.82 1.77 1.72 1.67 1.64 1.61 1.57 1.54 1.50 1.46 40 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.79 1.76 1.71 1.66 1.61 1.57 1.54 1.51 1.47 1.42 1.38 60 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74 1.71 1.66 1.60 1.54 1.51 1,48 1.44 1.40 1.35 1.29120 2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72 1.68 1.65 1.60 1.55 1.48 1.45 1.41 1.37 1.32 1.26 1.19 ∞ 2 71 2 30 2 08 1.94 1 85 1.77 1.72 1.67 1.63 1.60 1.55 1.49 1 42 1.38 1.34 1.30 1.24 1.17 1.00

Page 297: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 279

Tav. 9 Valori Fk, h; 1-α della v.c. F per α = 0.05 e differenti coppie di gradi di libertà: P( 0 < Fk, h < Fk, h; 1-α ) = 0.95

Numeratore h \k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 161.4 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 243.9 245.9 248.0 249.1 250.1 251.1 252.2 253.3 254.3 2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 19.41 19.43 19.45 19.45 19.46 19.47 19.48 19.49 19.50 3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 8.74 8.70 8.66 8.64 8.62 8.59 8.57 8.55 8.53 4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5.91 5.86 5.80 5.77 5.75 5.72 5.69 S.66 5.63

5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 4.68 4.62 4.56 4.53 4.50 4.46 4.43 4.40 4.36 6 5.99 5.14 4.76 4.53 4.39 4.28 4 21 4.15 4.10 4.06 4.00 3.94 3.87 3.84 3.81 3.77 3.74 3.70 3.67 7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.57 3.51 3.44 3.41 3.38 3.34 3.30 3.27 3.23 8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.28 3.22 3.15 3.12 3.08 3.04 3.01 2.97 2.93 9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 3.07 3.01 2.94 2.90 2.86 2.83 2.79 2.75 2.71

10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 302 2.98 2.91 2.85 2.77 2.47 2.70 2.66 2.62 2.58 2.5411 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.79 2.72 2.65 2.61 2.57 2.53 2.49 2.45 2.4012 4.75 3.89 3.49 3.26 2.11 3.00 2.91 2.85 2.80 2.75 2.69 2.62 2.54 2.51 2.47 2.43 2.38 2.34 2.3013 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.60 2.53 2.46 2.42 2.38 2.34 2.30 2.25 2.2114 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.53 2.46 2.39 2.35 2.31 2.27 2.22 2.18 2.13

15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.48 2.40 2.33 2.29 2.25 2.20 2.16 2.11 2.0716 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.42 2.35 2.28 2.24 2.19 2.15 2.11 2.06 2.01

Page 298: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice280

ContinuaNumeratore

h\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.38 2.31 2.23 2.19 2.15 2.10 2.06 2.01 1.9618 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.34 2.27 2.19 2.15 2.11 2.06 2.02 1.97 1.9219 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.31 2.23 2.16 2.11 2.07 2.03 1.98 1.93 1.88

20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.28 2.20 2.12 2.08 2.04 1.99 1.95 1.90 1.8421 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.25 2.18 2.10 2.05 2.01 1.96 2.92 1.87 1.8122 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.23 2.15 2.07 2.03 1.98 1.94 1.89 1.84 1.7823 4.28 3.42 2.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.20 2.13 2.05 2.01 1.96 1.91 1.86 1.81 1.7624 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.18 2.11 2.03 1.98 1.94 1.89 1.84 1.79 1.73

25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 .24 2 16 2.09 2.01 1.96 1.92 1.87 1.82 1.77 1.7126 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 .22 2.15 2.07 1.99 1.95 1.90 1.85 1.80 1.75 1 6927 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 .20 2.13 2.06 1.97 1.93 1.88 1.84 1.79 1.73 1.6728 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 .19 2.12 2.04 1.96 1.91 1.87 1.82 1.77 1.71 1.6529 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 .18 2.10 2.03 1.94 1.90 1.85 1.81 1.75 1.80 1.64

30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 .16 2.09 2.01 1.93 1.89 1.84 1.79 1.74 1.68 1.6240 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 .08 2.00 1.92 1.84 1.79 1.74 1.69 1.64 1.58 1.5160 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 .99 1.92 1.84 1.75 1.70 1.65 1.59 1.53 1.47 1.3920 3.92 3.07 2.68 2.45 2.29 2.17 2.09 2.02 1.96 .91 1.83 1.75 1.66 1.61 1.55 1.50 1.43 1.35 1.25∞ 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 .83 1 75 1.67 1 57 1.52 1.46 1.39 1.32 122 1 00

Page 299: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 281

Tav. 10 Valori Fk, h; 1-α della v.c. F per α = 0.025 e differenti coppie di gradi di libertà: P( 0 < Fk, h < Fk, h; 1-α )= 0.975

Numeratoreh\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 647.8 799.5 864.2 899.6 921.8 937.1 948.2 956.7 963.3 968.6 976.7 984.9 993.1 997.2 1001 1006 1010 1014 1018 2 38.5l 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40 39.41 39.43 39.45 39.46 39.46 39.47 39.48 39.45 39.50 3 17.44 16.04 15.44 10.10 14.88 14.73 14.62 14.54 14.47 14.42 14.34 14.2 14.17 14.12 14.08 14.04 13.99 13.95 13.90 4 12.22 10.65 9.98 9.60 9.36 9.20 9.07 8.98 8.90 8.84 8.75 8.66 8.56 8.51 8.46 8.41 8.36 8.31 8.26

5 10.01 8.43 7.76 7.39 7.15 6.98 6.85 6.76 6.68 6.62 6.52 6.43 6.33 6.28 6.23 6.18 6.12 6.07 6.02 6 8.81 7.26 6.60 6.23 5.99 5.82 5.70 5.60 5.52 5.46 5.37 5.27 5.17 5.12 5.07 5.01 4.96 4.90 4.85 7 8.07 6.54 5.89 5.52 5.29 5.12 4.99 4.90 4.82 4 76 4.67 4.57 4.47 4.42 4.36 4.31 4.25 4.20 4.14 8 7.57 6.06 5.42 5.05 4.82 4.65 4.53 4.43 4.36 4 30 4.20 4.10 4.00 3.95 3.89 3.84 3.78 3.73 3.67 9 7.21 5.71 5.08 4.71 4.48 4.32 4.20 4.10 4.03 3.96 3.87 3.77 3.67 3.61 3.56 3.51 3.45 3.35 3.33

10 6.94 4.56 4.83 4.47 4.24 4.07 3.95 3.85 3.78 3.72 3.62 3.52 3.42 3.37 3.31 3.26 3.20 3.14 3.0811 6.72 5.26 4.63 4.28 4.04 3.88 3.76 3.66 3.59 3.53 3.43 3.33 3.23 3.17 3.12 3.06 3.00 2.94 2.8812 6.55 5.10 4.47 4.12 3.89 3.73 3.61 3.51 3.44 3.37 3.28 3.18 3.07 3.02 2.96 2.91 2.85 2.79 2.7213 6.41 4.97 4.35 4.00 3.77 3.60 3.48 3.39 3.31 3.25 3.15 3.05 2.95 2.89 2.84 2.78 2.72 2.66 2.6014 6.30 4.86 4.24 3.89 3.66 3.50 3.38 3.29 3.21 3.15 3.05 2.95 2.84 2.79 2.73 2.67 2.61 2.55 2.49

15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20 3.12 3.06 2.96 2.86 2.76 2.70 2.64 2.59 2.52 2.46 2.4016 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.12 3.05 2.99 2.89 2.79 2.68 2.63 2.57 2.51 2.45 2.38 2.32

Page 300: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice282

ContinuaNumeratore

h\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 17 6.04 4.62 4.01 3.66 3.44 3.28 3.16 3.06 2.98 2.92 2.82 2.72 2.62 2.56 2.50 2.44 2.38 2.32 2.25 18 5.98 4.56 3.95 3.61 3.38 3.22 3.10 3.01 2.93 2.87 2.77 2.67 2.56 2.50 2.44 2.38 2.32 2.26 2.19 19 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96 2.88 2.82 2.72 2.62 2.51 2.45 2.39 2.33 2.27 2.20 2.13

20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91 2.84 2.77 2.68 2.57 2.46 2.41 2.35 2.29 2.22 2.16 2.09 21 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87 2.80 2.73 2.64 2.53 2.42 2.37 2.31 2.25 2.18 2.11 2.04 22 5.79 4.38 3.78 3.44 3.22 3.05 2.93 2.84 2.76 2.70 2.60 2.50 2.39 2.33 2.2~ 2.21 2.14 2.08 2.00 23 5.75 4.35 3.75 3.41 3.18 3.02 2.90 2.81 2.73 2.67 2.57 2.47 2.36 2.30 2.24 2.18 2.11 2.04 1.97 24 5.72 4.32 3.72 3.38 3.15 2.99 2.87 2.78 2.70 2.64 2.54 2.44 2.33 2.27 2.21 2.15 2.08 2.01 1.94

25 5.69 4.29 3.69 3.35 3.13 2.97 2.85 2.75 2.68 2.61 2.51 2.41 2.30 2.24 2.18 2.12 2.05 1.98 1.91 26 5.66 4.27 3.67 3.33 3.10 2.94 2.82 2.73 2.65 2.59 2.49 2.35 2.28 2.22 2.16 2.09 2.03 1.95 1.88 27 5.63 4.24 3.65 3.31 3.08 2.92 2.80 2.71 2.63 2.57 2.47 2.36 2.25 2.19 2.13 2.07 2.00 1.93 1.85 28 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69 2.61 2.55 2.45 2.34 2.23 2.17 2.11 2.05 1.98 1.91 1.83 29 5.59 4.20 3.61 3.27 3.04 2.88 2.76 2.67 2.59 2.53 2.43 2.32 2.21 2.15 2.05 2.03 1.96 1.85 1.81

30 5.57 4.18 3.59 3.25 3.03 2.87 2.75 2.65 2.57 2.51 2.41 2.31 2.20 2.14 2.07 2.01 1.94 1.87 1.79 40 5.42 4.05 3.46 3.13 2.90 2.74 2.62 2.53 2.45 2.39 2.29 2.18 2.07 2.01 1.94 1.88 1.80 1.72 1.64 60 5.29 3.93 3.34 3.01 2.79 2.63 2.63 2.41 2.33 2.27 2.17 2.06 1.94 1.88 1.82 1.74 1.67 1.58 1.48120 5.15 3.80 3.23 2.89 2.67 2.52 2.39 2.30 2.22 2.16 2.05 1.94 1.82 1.76 1.69 1.61 1.53 1.43 1.31∞ 5.02 3.69 3.12 2.79 2.57 2.41 2.29 2.19 2.11 2 05 1.94 1.83 1.71 1.64 1.57 1.48 1.39 1.27 1.00

Page 301: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice 283

Tav. 11 Valori Fk, h; 1-α della v.c. F per α = 0.001 e differenti coppie di gradi di libertà: P(0 < Fk, h < Fk, h; 1-α ) = 0.99

Numeratoreh\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 4052 4999 5403 5625 5764 5859 5928 5982 6022 6056 6106 6157 6209 6235 6261 S287 6313 6339 6366 2 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39 99.40 99.42 99.43 99.45 99.46 99.47 99.47 99.48 99.49 99.50 3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35 27.23 27.05 26.87 26.69 26.60 26.50 26.41 26.32 26.22 26.13 4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55 14.37 14.20 14.02 13.93 13.84 13.75 13.65 13.56 13.46

5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05 9.89 9.72 9.55 9.47 9.38 9.29 9.20 9.11 9.02 6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98 7.87 7.72 7.56 7.40 7.31 7.23 7.14 7.06 6.97 6.88 7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62 6.47 6.31 6.16 6.07 5.99 5.91 5.82 5.74 5.65 8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81 5.67 5.52 5.36 5.28 5.20 5.12 5.03 4.95 4.86 9 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35 5.26 5.11 4.96 4.81 4.73 4.65 4.57 4.48 4.40 4.31

10 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94 4.85 4.71 4.56 4.41 4.33 4.25 4.17 4.08 4.00 3.9111 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54 4.40 4.25 4.10 4.02 3.94 3.86 3.78 3.69 3.6012 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.5o 4.39 4.30 4.16 4.01 3.86 3.78 3.70 3.62 3.54 3.45 3.3613 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19 4.10 3.96 3.82 3.66 3.59 3.51 3.43 3.34 3.25 3.1714 8.86 6.51 5.65 5.04 4.69 4.46 4.28 4.14 4.03 3.94 3.80 3.66 3.51 3.43 3.35 3.27 3.18 3.09 3.0015 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.89 3.80 3.67 3.52 3.37 3.29 3.21 3.13 3.05 2.96 2.87

16 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78 3.69 3.55 3.41 3.26 3.18 3.10 3.02 2.93 2.84 2.7517 8.40 6.11 5.18 4.67 4.34 4.10 3.93 3.79 3.68 3.59 3.46 3.31 3.16 3.08 3.00 2.92 2.83 2.75 2.65

Page 302: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice284

ContinuaNumeratore

h\k 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60 3.51 3.37 3.23 3.08 3.00 2.92 2.84 2.75 2.66 2.57 19 8.18 5.93 5.Ol 4.5o 4.17 3.94 3.77 3.63 3.52 3.43 3.30 3.15 3.00 2.92 2.84 2.76 2.67 2.58 2.49

20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46 3.37 3.23 3.09 2.94 2.86 2.78 2.69 2.61 2.52 2.42 21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40 3.31 3.17 3.03 2.88 2.80 2.72 2.64 2.55 2.46 2.36 22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26 3.12 2.98 2.83 2.75 2.67 2.58 2.50 2.40 2.31 23 7.88 5.66. 4.76 4.26 3.94 3.71 3.54 3.41 3.03 3.21 3.07 2.93 2.78 2.70 2.62 2.54 2.45 2.35 2.26 24 7.82 5.61 4.72 4.22 3.90 3.67 3.5o 3.36 3.26 3.17 3.03 2.89 2.74 2.66 2.58 2.49 2.40 2.31 2.21

25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13 2.99 2.85 2.70 2.62 2.54 2.45 2.36 2.27 2.17 26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09 2.96 2.81 2.66 2.58 2.50 2.42 2.33 2.23 2.13 27 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15 3.06 2.93 2.78 2.63 2.55 2.47 2.38 2.29 2.20 2.10 28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03 2.90 2.75 2.60 2.52 2.44 2.35 2.26 2.17 2.06 29 7.60 5.42 4.54 4.04 3.73 3.5o 3.33 3.20 3.09 3.00 2.87 2.73 2.57 2.49 2.41 2.33 2.23 2.14 2.03

30 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07 2.98 2.84 2.70 2.55 2.47 2.39 2.30 2.21 2.11 2.01 40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.80 2.66 2.52 2.37 2.29 2.20 2.11 2.02 1.92 2.80 60 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72 2.63 2.50 2.35 2.20 2.12 2.03 1.94 1.84 1.73 1.60120 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.56 2.47 2.34 2.19 2.03 1.95 1.86 1.76 1.66 1.53 1.38 ∞ 6 63 4.61 3.78 3.32 3 02 2 80 2.64 2 5l 2.41 2.32 2.18 2.04 1.88 1.79 1.70 1.59 1.47 1.32 1 00

Page 303: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendce 285

Tav. 12 Distribuzione di Wilcoxon: P( U ≤ a )k1 = min( n, m ), k2 = max( n, m ), P(U ≤ a) = P( U ≥ n m – a )

k1

a k2=3 k

2=4 k

2=5 k

2=6 k

2=7 k

2=8 k

2=9 k

2=10 k

2=11 k

2=12

3 0 .0500 .0286 .0179 .0119 .0083 .0061 .0045 .0035 .0027 .00221 .1000 .0571 .0357 .0238 .0167 .0121 .0091 .0070 .0055 .00442 .2000 .1143 .0714 .0476 .0333 .0242 .0182 .0140 .0110 .00883 .3500 .2000 .1250 .0833 .0583 .0424 .0318 .0245 .0192 .01544 .5000 .3143 .1964 .1310 .0917 .0667 .0500 .0385 .0302 .02425 .6500 .4286 .2857 .1905 .1333 .0970 .0727 .0559 .0440 .03526 .8000 .5714 .3929 .2738 .1917 .1394 .1045 .0804 .0632 .05057 .9000 .6857 .5000 .3571 .2583 .1879 .1409 .1084 .0852 .06818 .9500 .8000 .6071 .4524 .3333 .2485 .1864 .1434 .1126 .09019 1.000 .8857 .7143 .5476 .4167 .3152 .2409 .1853 .1456 .1165

10 .9429 .8036 .6429 .5000 .3879 .3000 .2343 .1841 .147311 .9714 .8750 .7262 .5833 .4606 .3636 .2867 .2280 .182412 1.0000 .9286 .8095 .6667 .5394 .4318 .3462 .2775 .224213 .9643 .8690 .7417 .6121 .5000 .4056 .3297 .268114 .9821 .9167 .8083 .6848 .5682 .4685 .3846 .316515 1.0000 .9524 .8667 .7515 .6364 .5315 .4423 .367016 .9762 .9083 .8121 .7000 .5944 .5000 .419817 .9881 .9417 .8606 .7591 .6538 .5577 .472518 1.0000 .9667 .9030 .8136 .7133 .6154 .5275

4 0 .0143 .0079 .0048 .0030 .0020 .0014 .0010 .0007 .00051 .0286 .0159 .0095 .0061 .0040 .0028 .0020 .0015 .00112 .0571 .0317 .0190 .0121 .0081 .0056 .0040 .0029 .00223 .1000 .0556 .0333 .0212 .0141 .0098 .0070 .005I .00384 .1714 .0952 .0571 .0364 .0242 .0168 .0120 .0088 .00665 .2429 .1429 .0857 .0545 .0364 .0252 .0180 .0132 .00996 .3429 .2063 .1286 .0818 .0545 .0378 .0270 .0198 .01487 .4429 .2778 .1762 .1152 .0768 .0531 .0380 .0278 .02098 .5571 .3651 .2381 .1576 .1071 .0741 .0529 .0388 .02919 .6571 .4524 .3048 .2061 .1414 .0993 .0709 .0520 .0390

10 .7571 .5476 .3810 .2636 .1838 .1301 .0939 .0689 .051611 .8286 .6349 .4571 .3242 .2303 .1650 .1199 .0886 .066512 .9000 .7222 .5429 .3939 .2848 .2070 .1518 .1128 .085213 .9429 .7937 .6190 .4636 .3414 .2517 .1868 .1399 .106014 .9714 .8571 .6952 .5364 .4040 .3021 .2268 .1714 .130815 .9857 .9048 .7619 .6061 .4667 .3552 .2697 .2059 .158216 1.0000 .9444 .8238 .6758 .5333 .4126 .3177 .2447 .189617 .9683 .8714 .7364 .5960 .4699 .3666 .2857 .223118 .9841 .9143 .7939 .6586 .5301 .4196 .3304 .260419 .9921 .9429 .8424 .7152 .5874 .4725 .3766 .299520 1.0000 .9667 .8848 .7697 .6448 .5275 .4256 .341821 .9810 .9182 .8162 .6979 .5804 .4747 .385222 .9905 .9455 .8586 .7483 .6334 .5253 .430823 .9952 .9636 .8929 .7930 .6823 .5744 476424 1.0000 .9788 .9232 .8350 .7303 .6234 .5236

Page 304: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice286

Continua

k1

a k2=5 k

2=6 k

2=7 k

2=8 k

2=9 k

2=10 k

1a k

2=7 k

2=8 k

2=9 k

2=10

5 0 .0040 .0022 .0013 .0008 .0005 .0003 7 0 .0003 .0002 .0001 .00011 .0079 .0043 .0025 .0016 .0010 .0007 1 .0006 .0003 .0002 .00012 .0159 .0087 .0051 .0031 .0020 .0013 2 .0012 .0006 .0003 .00023 .0278 .0152 .0088 .0054 .0035 .0023 3 .0020 .0011 .0006 .00044 .0476 .0260 .0152 .0093 .0060 .0040 4 .0035 .0019 .0010 .00065 .0754 .0411 .0240 .0148 .0095 .0063 5 .0055 .0030 .0017 .00106 .1111 .0628 .0366 .0225 .0145 .0097 6 .0087 .0047 .0026 .00157 .1548 .0887 .0530 .0326 .0210 .0140 7 .0131 .0070 .0039 .00238 .2103 .1234 .0745 .0466 .0300 .0200 8 .0189 .0103 .0058 .00349 .2738 .1645 .1010 .0637 .0415 .0276 9 .0265 .0145 .0082 .0048

10 .3452 .2143 .1338 .0855 .0559 .0376 10 .0364 .0200 .0115 .006811 .4206 .2684 .1717 .1111 .0734 .0496 11 .0487 .0270 .0156 .009312 .5000 .3312 .2159 .1422 .0949 .0646 12 .0641 .0361 .0209 .012513 .5794 .3961 .2652 .1772 .1199 .0823 13 .0825 .0469 .0274 .016514 .6548 .4654 .3194 .2176 .1489 .1032 14 .1043 .0603 .0356 .021515 .7262 .5346 .3775 .2618 .1818 .1272 15 .1297 .0760 .0454 .027716 .7897 .6039 .4381 .3108 .2188 .1548 16 .1588 .0946 .0571 .035117 .8452 .6688 .5000 .3621 .2592 .1855 17 .1914 .1159 .0708 .043918 .8889 .7316 .5619 .4165 .3032 .2198 18 .2279 .1405 .0869 .054419 .9246 .7857 .6225 .4716 .3497 .2567 19 .2675 .1678 .1052 .066520 .9524 .8355 .6806 .5284 .3986 .2970 20 .3100 .1984 .1261 .080621 .9722 .8766 .7348 .5835 .4491 .3393 21 .3552 .2317 .1496 .096622 .9841 .9113 .7841 .6379 .5000 .3839 22 .4024 .2679 .1755 .114823 .9921 .9372 .8283 .6892 .5509 .4296 23 .4508 .3063 .2039 .134924 .9960 .9589 .8662 .7382 .6014 .4765 24 .5000 .3472 .2349 .1574

25 1.0000 .9740 .8990 .7824 .6503 .5235 25 .5492 .3894 .2680 .18196 0 .0011 .0006 .0003 .0002 .0001 26 .5976 .4333 .3032 .2087

1 .0022 .0012 .0007 .0004 .0002 27 .6448 .4775 .3403 .23742 .0043 .0023 .0013 .0008 .0005 29 .7325 .5667 .4185 .30043 .0076 .0041 .0023 .0014 .0009 30 .7721 .6106 .4591 .33454 .0130 .0070 .0040 .0024 .0015 31 .8086 .6528 .5000 .36985 .0206 .0111 .0063 .0038 .0024 32 .8412 .6937 .5409 .40636 .0325 .0175 .0100 .0060 .0037 33 .8703 .7321 .5815 .44347 .0465 .0256 .0147 .0088 .0055 34 .8957 .7683 .6212 .48118 .0660 .0367 .0213 .0128 .0080 35 .9175 .8016 .6597 .51899 .0898 .0507 .0296 .0180 .0112

10 .1201 .0688 .0406 .0248 .015611 .1548 .0903 .0539 .0332 .021012 .1970 .1171 .0709 .0440 .028013 .2424 .1474 .0906 .0567 .036314 .2944 .1830 .1142 .0723 .046715 .3496 .2226 .1412 .0905 .058916 .4091 .2669 .1725 .1119 .073617 .4686 .3141 .2068 .1361 .090318 .5314 .3654 .2454 .1638 .109919 .5909 .4178 .2864 .1942 .131720 .6504 .4726 .3310 .2280 .156621 .7056 .5274 .3773 .2643 .1838

Page 305: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendce 287

Continua22 .7576 .5822 .4259 .3035 .213923 .8030 .6346 .4749 .3445 .246124 .8452 .6859 .5251 .3878 .281125 .8799 .7331 .5741 .4320 .317726 .9102 .7774 .6227 .4773 .356427 .9340 .8170 .6690 .5227 .396228 .9535 .8526 .7136 .5680 .4374

Page 306: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice288

Continua

k1

a k2=8 k

2=9 k

2=10 k

1a k

2=9 k

2=10 k

1a k

2=10

8 0 .0001 .0000 .0000 9 0 .0000 .0000 10 0 .00001 .0002 .0001 .0000 1 .0000 .0000 1 .00002 .0003 .0002 .0001 2 .0001 .0000 2 .00003 .0005 .0003 .0002 3 .0001 .000l 3 .00004 .0009 .0005 .0003 4 .0002 .0001 4 .00015 .0015 .0008 .0004 5 .0004 .0002 5 .00016 .0023 .0012 .0007 6 .0006 .0003 6 .00027 .0035 .0019 .0010 7 .0009 .0005 7 .00028 .0052 .0028 .0015 8 .0014 .0007 8 .00049 .0074 .0039 .0022 9 .0020 .0011 9 .0005

10 .0103 .0056 .0031 10 .0028 .0015 10 .00081l .0141 .0076 .0043 11 .0039 .0021 11 .001012 .0190 .0103 .0058 12 .0053 .0028 12 .001413 .0249 .0137 .0078 13 .0071 .0038 13 .001914 .0325 .0180 .0103 14 .0094 .0051 14 .002615 .0415 .0232 .0133 15 .0122 .0066 15 .003416 .0524 .0296 .0171 16 .0157 .0086 16 .004517 .0652 .0372 .0217 17 .0200 .0110 17 .005718 .0803 .0464 .0273 18 .0252 .0140 18 .007319 .0974 .0570 .0338 19 .0313 .0175 19 .009320 .1172 .0694 .0416 20 .0385 .0217 20 .011621 .1393 .0836 .0506 21 .0470 .0267 21 .014422 .1641 .0998 .0610 22 .0567 .0326 22 .017723 .1911 .1179 .0729 23 .0680 .0394 23 .021624 .2209 .1383 .0864 24 .0807 .0474 24 .026225 .2527 .1606 .1015 25 .0951 .0564 25 .031526 .2869 .1852 .1185 26 .1112 .0667 26 .037627 .3227 .2117 .1371 27 .1290 .0782 27 .044628 .3605 .2404 .1577 28 .1487 .0912 28 .052629 .3992 .2707 .1800 29 .1701 .1055 29 .061530 .4392 .3029 .2041 30 .1933 .1214 30 .071631 .4796 .3365 .2299 31 .2181 .1388 31 .082732 .5201 .3715 .2574 32 .2447 .1577 32 .095233 .5608 .4074 .2863 33 .2729 .1781 33 .108834 .6008 .4442 .3167 34 .3024 .2001 34 .123735 .6395 .4813 3482 35 .3332 .2235 35 .139936 .6773 .5187 .3809 36 .3652 .2483 36 .157537 .7173 .5558 .4143 37 .3981 .2745 37 .176338 .7473 .5926 .4484 36 .4317 .3019 38 .196539 .7791 .6285 .4827 39 .4657 .3304 39 .217940 .8089 .6635 .5173 40 .5000 .3598 40 .2406

41 .5343 .3901 41 .264442 .5683 .4211 42 .289443 .6019 .4524 43 .3]5344 .6348 .4841 44 .342145 .6668 .5159 45 .3697

Page 307: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendce 289

Continua46 .398047 .426748 .455949 .485350 .5147

Page 308: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendice290

Tav. 13 Distribuzione della statistica del segno: P(SN ≤ a)

a\N 2 3 4 5 6 7 8 90 .2500 .1250 .0625 .0313 .0156 .0078 .0039 .00201 .7500 .5000 .3125 .1875 .1094 .0625 .0352 .01952 1.0000 .8750 .6875 .5000 .3438 .2266 .1445 .08983 1.0000 .9375 .8125 .6562 .5000 .3633 .2539

4 1.0000 .9687 .8906 .7734 .6367 .5000

a\N 10 11 12 13 14 15 16 170 .0010 .0005 .0002 .0001 .0001 .0000 .0000 .00001 .0107 .0059 .0032 .0017 .0009 .0005 .0003 .00012 .0547 .0327 .0193 .0112 .0065 .0037 .0021 .00123 .1719 .1133 .0730 .0461 .0287 .0176 .0106 .00644 .3770 .2744 .1938 .1334 .0898 .0592 .0384 .02455 .6230 .5000 .3872 .2905 .2120 .1509 .1051 .07176 .8281 .7256 .6128 .5000 .3953 .3036 .2272 .16627 .9453 .8867 .8062 .7095 .6047 .5000 .4018 .3145

8 .9893 .9673 .9270 .8666 .7880 .6964 .5982 .5000

a\N 18 19 20 21 22 23 24 250 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .00001 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .00002 .0007 .0004 .0002 .0001 .0001 .0000 .0000 .00003 .0038 .0022 .0013 .0007 .0004 .0002 .0001 .00014 .0154 .0096 .0059 .0036 .0022 .0013 .0008 .00055 .0481 .0318 .0207 .0133 .0085 .0053 .0033 .00206 .1189 .0835 .0577 .0392 .0262 .0173 .0113 .00737 .2403 .1796 .1316 .0946 .0669 .0466 .0320 .02168 .4073 .3238 .2517 .1917 .1431 .1050 .0758 .05399 .5927 .5000 .4119 .3318 .2617 .2024 .1537 .1148

10 .7597 .6762 .5881 .5000 .4159 .3388 .2706 .212211 .8811 .8204 .7483 .6682 .5841 .5000 .4194 .345012 .9519 .9165 .8684 .8083 .7383 .6612 .5806 .5000

Page 309: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano

Appendce 291

Continua

a\N 26 27 28 29 30 31 32 330 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .00001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .00002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .00003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .00004 .0003 .0002 .0001 .0001 .0000 .0000 .0000 .00005 .0012 .0008 .0005 .0003 .0002 .0001 .0001 .00006 .0047 .0030 .0019 .0012 .0007 .0004 .0003 .00027 .0145 .0096 .0063 .0041 .0026 .0017 .0011 .00078 .0378 .0261 .0178 .0121 .0081 .0053 .0035 .00239 .0843 .0610 .0436 .0307 .0214 .0147 .0100 .0068

10 .1635 .1239 .0925 .0680 .0494 .0354 .0251 .017511 .2786 .2210 .1725 .1325 .1002 .0748 .0551 .040112 .4225 .3506 .2858 .2291 .1808 .1405 .1077 .081413 .5775 .5000 .4253 .3555 .2923 .2366 .1885 .148114 .7214 .6494 .5747 .5000 .4278 .3601 .2983 .243415 .8365 .7790 .7142 .6445 .5722 .5000 .4300 .3642

16 .9157 .8761 .8275 .7709 .7077 .6399 .5700 .5000

a\N 34 35 36 37 38 39 400 .0000 .0000 .0000 .0000 .0000 .0000 .00001 .0000 .0000 .0000 .0000 .0000 .0000 .00002 .0000 .0000 .0000 .0000 .0000 .0000 .00003 .0000 .0000 .0000 .0000 .0000 .0000 .00004 .0000 .0000 .0000 .0000 .0000 .0000 .00005 .0000 .0000 .0000 .0000 .0000 .0000 .00006 .0001 .0001 .0000 .0000 .0000 .0000 .00007 .0004 .0003 .0002 .0001 .0001 .0000 .00008 .0015 .0009 .0006 .0004 .0002 .0001 .00019 .0045 .0030 .0020 .0013 .0008 .0005 .0003

10 .0122 .0083 .0057 .0038 .0025 .0017 .00111l .0288 .0205 .0144 .0100 .0069 .0047 .003212 .0607 .0448 .0326 .0235 .0168 .0119 .008313 .1147 .0877 .0662 .0494 .0365 .0266 .019214 .1958 .1553 .1215 .0939 .0717 .0541 .040315 .3038 .2498 .2025 .1620 .1279 .0998 .076916 .4321 .3679 .3089 .2557 .2088 .1684 .134117 .5679 .5000 .4340 .3714 .3136 .2612 .214818 .6962 .6321 .5660 .5000 .4357 .3746 .317919 .8042 .7502 .6911 .6286 .5643 .5000 .437320 .8853 .8447 .7975 .7443 .6864 .6254 .5627

Page 310: MANLIO ROSSI DORIA Collana a cura del Centro per la ...wpage.unina.it/cafiero/books/volume_secondo.pdf · Stefano, G. Cicia e T. del Giudice, 2000. 3. Istituzioni, capitale umano