METODI MATEMATICI E STATISTICI Ing.CivileeAmbientale...

86
METODI MATEMATICI E STATISTICI Ing. Civile e Ambientale (indirizzo Ambientale) 2014 CALCOLO COMBINATORIO. Ogni volta che ci disponiamo a studiare, in realt` a gi`a riconosciamo - almeno implici- tamente - che ci`o che (ancora) non sappiamo supera di molto quelo che sappiamo; che ricchissima ` e la mobilit`a e vivacit`a della nostra mente; che la storia dell’umanit`a non incomincia n` e nisce con la nostra presenza nel mondo. Ma lo studio serve anche per abilitarti a lasciare nel mondo un’impronta che, per quanto dovesse sembrare piccola, non potrebbe mancare: la tua. Una disposizione semplice di n oggetti a k a k ` e una k¡upla ordinata di k oggetti scelti tra gli n dati (ovviamente: k · n). Ad es. le disposizioni di 3 oggetti a, b, c a2a2(n = 3, k = 2), sono: (a, b), (b, c), (c, a), (b, a), (c, b), (a, c). Si dice anche ”disposizione semplice di n oggetti in classe k”. L’aggettivo ”semplice” vuol dire ”senza ripetizioni”; il nome ”disposizione” vuol dire che ha importanza l’ordine. Proposizione. Il numero di disposizioni semplici di n oggetti a k a k ` e il prodotto di k numeri naturali decrescenti a partire da n: D(n; k)= n(n ¡ 1)...(n ¡ k + 1) Infatti: riempiamo k caselle in ordine: nella prima ho n possibilit`a di scelta, nella seconda (n ¡ 1), ..., nella k¡esima ho n ¡ k + 1 possibilit` a di scelta. Ad es. in quanti modi 5 amici possono sedersi su tre sedili numerati di un treno? La domanda d`a importanza all’ordine (primo sedile, secondo sedile, terzo sedile), e non ci sono ripetizioni della stessa persona. Quindi si tratta delle disposizioni semplici di 5 persone a 3 a 3: D(5; 3) = 5 ¢ 4 ¢ 3 = 60 modi diversi di occupare i tre posti! Una permutazione di n oggetti ` e una n¡ upla i cui elementi sono tutti gli n oggetti. Detto altrimenti: ` e una disposizione semplice degli n oggetti: si tratta del caso k = n. Propos. Il numero di permutazioni di n oggetti ` e il prodotto dei primi n numeri naturali: P (n)= n(n ¡ 1)...4 ¢ 3 ¢ 2 ¢ 1 ´ n! [ Il simbolo n! si legge ”n fattoriale” e designa il prodotto dei primi n numeri naturali ]. 1

Transcript of METODI MATEMATICI E STATISTICI Ing.CivileeAmbientale...

METODI MATEMATICI E STATISTICI

Ing. Civile e Ambientale (indirizzo Ambientale) 2014

CALCOLO COMBINATORIO.

Ogni volta che ci disponiamo a studiare, in realta gia riconosciamo - almeno implici-tamente - che cio che (ancora) non sappiamo supera di molto quelo che sappiamo; chericchissima e la mobilita e vivacita della nostra mente; che la storia dell’umanita nonincomincia ne finisce con la nostra presenza nel mondo. Ma lo studio serve anche perabilitarti a lasciare nel mondo un’impronta che, per quanto dovesse sembrare piccola, nonpotrebbe mancare: la tua.

Una disposizione semplice di n oggetti a k a k e una k¡upla ordinata di k oggettiscelti tra gli n dati (ovviamente: k · n).Ad es. le disposizioni di 3 oggetti a, b, c a 2 a 2 (n = 3, k = 2), sono:

(a, b), (b, c), (c, a), (b, a), (c, b), (a, c).

Si dice anche ”disposizione semplice di n oggetti in classe k”. L’aggettivo ”semplice”vuol dire ”senza ripetizioni”; il nome ”disposizione” vuol dire che ha importanza l’ordine.

Proposizione. Il numero di disposizioni semplici di n oggetti a k a k e il prodotto di knumeri naturali decrescenti a partire da n:

D(n; k) = n(n¡ 1)...(n¡ k + 1)

Infatti: riempiamo k caselle in ordine: nella prima ho n possibilita di scelta, nella seconda(n¡ 1), ..., nella k¡esima ho n¡ k + 1 possibilita di scelta.

Ad es. in quanti modi 5 amici possono sedersi su tre sedili numerati di un treno?La domanda da importanza all’ordine (primo sedile, secondo sedile, terzo sedile), e nonci sono ripetizioni della stessa persona. Quindi si tratta delle disposizioni semplici di 5persone a 3 a 3: D(5; 3) = 5 ¢ 4 ¢ 3 = 60 modi diversi di occupare i tre posti!

Una permutazione di n oggetti e una n¡ upla i cui elementi sono tutti gli n oggetti.Detto altrimenti: e una disposizione semplice degli n oggetti: si tratta del caso k = n.

Propos. Il numero di permutazioni di n oggetti e il prodotto dei primi n numeri naturali:

P (n) = n(n¡ 1)...4 ¢ 3 ¢ 2 ¢ 1 ´ n!

[ Il simbolo n! si legge ”n fattoriale” e designa il prodotto dei primi n numeri naturali ].

1

Infatti: una permutazione di n oggetti una disposizione semplice di n oggetti ad n ad n.Quindi P (n) = D(n;n) = n!

Ad es.: in quanti modi 5 clienti possono mettersi in fila allo sportello di banca? Risposta:tanti quanti i modi di mettere in ordine 5 persone; cioe il numero di permutazioni di 5oggetti: 5! = 5 ¢ 4 ¢ 3 ¢ 2 ¢ 1 = 120.

Una combinazione semplice di n oggetti a k a k e un sottoinsieme -senza strutturad’ordine- di k oggetti scelti tra gli n.Si dice anche ”combinazione semplice di n oggetti in classe k”. L’aggettivo ”semplice” vuoldire ”senza ripetizioni”; il nome ”combinazione” vuol dire che non ha importanza l’ordine.

Ad es. le combinazioni dei 3 oggetti a, b, c, a 2 a 2 sono:

fa, bg, fb, cg, fa, cg.

Si noti: fa,bg= fb,ag. Per gli insiemi astratti (per i quali si usa la parentesi graffa) nonvige alcuna struttura d’ordine.

Propos. Il numero di combinazioni semplici di n oggetti a k a k e:

C(n; k) =n(n¡ 1)...(n¡ k + 1)

k!

che si suole indicare anche col simbolonk

e si suole scrivere in forma piu compatta:

nk

=n!

k!(n¡ k)! .

Infatti: per ciascuna combinazione di k oggetti, esistono P (k) modi di metterli in ordine.Quindi il numero di disposizioni e piu grande del numero di combinazioni e precisamente:

D(n; k) = C(n; k) ¢ P (k) ) C(n; k) =D(n; k)

P (k)

dal che segue l’enunciato.

Ad es. in quanti modi si possono nominare comitati di 4 persone da un gruppo di 9persone? La domanda non da importanza all’ordine e inoltre ogni persona nel comitatonon ha ripetizione; quindi si tratta delle combinazioni semplici di 9 oggetti a 4 a 4:

C(9; 4) =94

= 9!/[4!(9¡ 4)!] = 9 ¢ 8 ¢ 7 ¢ 6/4 ¢ 3 ¢ 2 ¢ 1 = 126.

Altro es.: quante colonne posso compilare al Totocalcio con 5 ”due”, 6 ”uno” e 2 ”x”?Risposta: prima mi domando quante colonne con 13 caselle hanno 5 ”due” e gli altri

simboli diversi da ”due”: C(13; 5) =135

. Poi mi domando quante colonne con 8

2

caselle riempite solo con ”uno” e con ”x” hanno esattamente 6 ”uno”: C(8; 6) =86

.

Allora la risposta e il prodotto:135

¢ 86

Una disposizione con ripetizione di n oggetti a k a k e una k¡ upla i cui elementisono gli n oggetti dati, con la possibilita di ripetizione.Si noti che k puo anche essere maggiore di n. Si dice anche: ”disposizione con ripetizionedi n oggetti in classe k”. Il nome ”disposizione” vuol dire che ha importanza l’ordine;l’espressione ”con ripetizione” vuol dire che sono permesse ripetizioni.

Ad esempio ecco le diposizioni con ripetizione dei tre oggetti dati a, b, c a due a due(quindi: n = 3, k = 2):

(a, a), (a, b), (b, a), (b, b), (b, c), (c, b), (a, c), (c, a), (c, c)

Proposiz. Il numero di disposizioni con ripetizione di n oggetti a k a k e:

DR(n; k) = nk.

Infatti: ogni disposizione una k-upla. Occupiamo le k posizioni di k¡upla in ordine:nella prima posizione ho n possibilita, nella seconda ho ancora n possibilita, ecc. Quindi:numero di oggetti elevato al numero di posizioni. O anche: numero di oggetti elevato alnumero di classe.

Ad esempio: quante schedine di totocalcio posso compilare? La domanda da importanzaall’ ordine e si ammettono ovviamente ripetizioni. Ogni schedina e una 13¡upla di simboliscelti fra 1, 2, x. Il numero di schedine possibili e il numero di disposizioni con ripetizionedei 3 simboli 1, 2,x, a 13 a 13:

DR(3; 13) = 313.

Una combinazione con ripetizione di n oggetti a k a k si ottiene scegliendo alcunioggetti fra gli n oggetti dati e contandoli zero o una o piu volte in modo che la sommadelle molteplicita sia uguale a k..Si dice anche: ”combinazione con ripetizione di n oggetti in classe k”. Il nome ”com-binazione” vuol dire che non ha importanza l’ordine; l’espressione ”con ripetizione” vuoldire che sono permesse ripetizioni (quindi, tra l’altro, puo essere k > n).

Ad es. le combinazioni con ripetizione dei 3 oggetti a, b, c a 2 a 2 sono:

aa, ab, ac, bb, bc, cc.

Senza dimostrazione diamo la proposizione:

3

Prop. Il numero delle combinazioni con ripetizione di n oggetti a k a k e:

CR(n; k) =n+ k ¡ 1

k

Es.: Il numero di combinazioni con ripetizione di tre oggetti a due a due:

CR(3; 2) =3 + 2¡ 1

2=

42

= 6.

Infine ecco due proposizioni immancabili dovunque si parli di calcolo combinatorio:

Proposizione. Facendo la convenzione 0! = 1 e chiamando anche in questi casink

la quantita n!/[k!(n¡ k)!], vale la seguente formula binomiale di Newton:

(a+ b)n =n0

an +n1

an−1b+ ...+ nn¡ 1 abn−1 + n

nbn =

ovvero, in notazione compatta,

(a+ b)n =n

k=0

nk

an−kbk.

Dim.(a+ b)n = (a+ b)(a+ b)...(a+ b) [n volte]

e una lunga somma che contiene piu volte l’addendo generico an−kbk. Fissiamo k, conk · n. Quante volte appare tale addendo? Tante volte quante sono le scelte di k parentesitra le n date, in cui pescare b ¢ b ¢ ... ¢ b k volte (automaticamente allora si pesca a ¢ ... ¢ anelle rimanenti n¡ k parentesi). In altre parole: tante volte quante sono le combinazionisemplici di k oggetti tra gli n dati. Cioe

nk

volte. Quindi tale addendo va’ moltiplicato

pernk

e la somma va fatta rispetto a k come enunciato.

Esercizio: provare la proprieta dei coefficienti binomiali:

n¡ 1k ¡ 1 +

n¡ 1k

=nk

.

[Grazie a questa si costruisce il famoso ”triangolo di Tartaglia”]. Per ispezione diretta:

(n¡ 1)!(k ¡ 1)!(n¡ k)! +

(n¡ 1)!k!(n¡ 1¡ k)! =

(n¡ 1)!k + (n¡ 1)!(n¡ k)k!(n¡ k)! =

4

=(n¡ 1)!(k + n¡ k)

k!(n¡ k)! =n

n¡ k .

SPAZIO DI PROBABILITA

In effetti - questo e il mio pensiero - dobbiamo riscoprire che prima di essere simpaticio antipatici, belli o brutti, milanisti o juventini, rock o lenti (per dirla con Celentano), disinistra o di destra, io e te siamo soprattutto ””domanda””. Noi siamo domanda a noistessi, siamo stupore per il nostro essere invitati senza invito, convocati senza convocazione,alla festa e partita della vita. Da una tale consapevolezza, quella di esere domanda a noistessi, tutto prende il suo avvio.

Def. Sia Ω un insieme. Una famiglia Σ di sottoinsiemi di Ω si dice σ¡algebra se:1) Ω, ; 2 Σ2) A 2 Σ ) Ω¡A ´ AC 2 Σ3) A1, A2, ... 2 Σ ) A1 [A2 [ ... 2 Σ

In altri termini, una famiglia Σ di sottoinsiemi di Ω e una σ¡algebra se comprende Ωstesso e l’insieme vuoto, e inoltre e chiusa rispetto alla complementazione e all’unionefinita e all’unione numerabile. Ma allora, per la legge di De Morgan, Σ e chiusa ancherispetto all’intersezione. Quindi tutte le operazioni importanti tra insiemi danno insiemiche restano in Σ.

Def. Uno spazio di probabilita e una terna (Ω,Σ, P ) dove: Ω e un insieme non vuoto, Σe una σ¡algebra di sottoinsiemi di Ω (detta famiglia degli eventi), P e una legge a valoriin [0, 1] (detta probabilita) tali che

1) per ogni evento A 2 Σ esiste il numero P (A) compreso fra 0 ed 1 detto ”probabilitadell’ evento A”;

2) P (Ω) = 1, P (;) = 0;3) la probabilita P e numerabilmente additiva su ogni successione di eventi a due a

due disgiunti:

dati gli eventi fAigi∈N , con Ai \Aj = ;, 8i6= j, si ha

P [ [∞i=1Ai ] =∞

i=1

P (Ai) ´ limn→∞

n

i=1

P (Ai).

[ In particolare per ogni coppia di eventi A,B disgiunti si ha P (A[B) = P (A)+P (B). ]

Teorema (regola di addizione per eventi arbitrari). Se A,B sono eventi arbitrari inuno spazio di probabilita Ω, allora

P (A [B) = P (A) + P (B)¡ P (A \B).

5

Dim. Scriviamo A come unione disgiunta di A¡B e A\B, e analogamente facciamo perB :

A = (A¡B) [ (A \B), B = (B ¡A) [ (A \B).Allora applicando due volte l’additivita (3):

P (A) + P (B) = P (A¡B) + P (A \B) + P (B ¡A) + P (A \B) =

= P [(A¡B) [ (A \B) [ (B ¡A)] + P (A \B) = P (A [B) + P (A \B)da cui la tesi sottraendo P (A \B) al primo e all’ultimo membro.

Teorema (regola di complementazione) Se E ½ Ω e un evento ed EC ´ Ω ¡ Ee l’evento complementare, si ha

P (E) = 1¡ P (EC).

Dim. Si puo applicare la (3) perche sono due eventi disgiunti.

Oss. Se lo spazio di probabilita Ω e costituito da un numero finito di elementi, lafamiglia Σ degli eventi coincide con la famiglia di tutti i sottoinsiemi di Ω. In tal caso,se gli elementi di Ω sono ωi, i = 1, 2, ..., n,, si fa spesso l’ipotesi di ”eventi elementariequiprobabili”, il che significa attribuire probabilita 1

n a ciascun evento elementare fωig.E’ in questo caso che vale la definizione classica di probabilita come ”numero dei casifavorevoli diviso il numero di casi possibili”.Esempio tipico e il dado non truccato, dove si definisce:

Ω = f1, 2, 3, 4, 5, 6g, P (1) = 1

6, ..., P (6) =

1

6.

Cosi’ potremo calcolare, ad es., la probabilita degli eventi

A : esce un numero pari, B : esce un numero minore di 3

P (A) = P (2) + P (4) + P (6) =1

2, P (B) = P (1) + P (2) =

1

3

Altro esempio tipico e il lancio, singolo o multiplo, di una moneta non truccata. Ad es.la probabilita che in cinque lanci di una moneta esca ”testa” almeno una volta si trovaintroducendo l’appropriato spazio di probabilita

Ω= insieme delle 5-uple ordinate di lettere ”T” o ”C”

In questo spazio l’evento ”non esce alcuna testa” e costituito dall’unica 5-upla (C,C,C,C,C)per cui l’evento A = ”esce almeno una testa” ha probabilita

P (A) = 1¡ P (AC) = 31

32.

6

Altro esempio: la probabilita che almeno due fra 20 persone abbiano compleannonello stesso giorno dell’anno e superiore o inferiore a 1

2?Basta calcolare la probabilita dell’evento complementare. Per l’evento complementare (”i20 compleanni sono tutti distinti”) il numero di casi favorevoli e il numero di disposizionisemplici di 365 oggetti a 20 a 20; il numero di casi possibili e il numero di disposizioni conripetizione di 365 oggetti a 20 a 20:

365 ¢ 364 ¢ ... ¢ 347 ¢ 346(365)20

= (365

365)(364

365)...(

347

365)(346

365)

Al gentile lettore vedere se il complemento a 1 di tale numero e superiore o inferiore a 1/2.

PROBABILITA CONDIZIONATA. EVENTI INDIPENDENTI

Siamo, pertanto, inutilmente singolari, eppure siamo: su questa distanza si accendeil desiderio di un perche, il desiderio di una direzione, il desiderio di un senso, e, quandoquesto desiderio si trasforma in volonta di ricerca, solo allora appare la speciale bellezza eprofondita di cio che chiamiamo studio.

Spesso si usa la probabilita di un evento B sotto la condizione che avvenga un altroevento A.

Def.Si dice probabilita condizionata di B dato A

P (BjA) := P (A \B)P (A)

, [ P (A) > 0 ].

Es. - Spazio del lancio di un dado. La probabilita condizionata di B=”esca un numeropari maggiore di 2” dato l’evento A= ”esce un numero pari”:

P (BjA) = P (f4, 6g \ f2, 4, 6g)/P (f2, 4, 6g) = 2/6

3/6= 2/3.

Dalla definizione stessa di probabilita condizionata appare evidente il seguente:

Teorema della probabilita composta. Se gli eventi A, B hanno entrambi probabilitanon nulla

P (A \B) = P (A)P (BjA) = P (B)P (AjB).

Es. - Tipicamente ci vuole la formula di probabilita composta quando si fannoestrazioni senza restituzione. Ad es. da una scatola contenente 10 viti, di cui tre difettose, siestraggono due viti senza restituzione. Con quale probabilita nessuna delle due e difettosa?

7

Considero gli eventi DC1 ”prima vite estratta non difettosa”, D

C2 = ”seconda estratta

non difettosa”. Estraendo senza rimessa, l’evento DC1 ha modificato la situazione nella

scatola:

P (DC1 ) = 7/10, P (D

C2 jDC

1 ) = 6/9, P (DC1 \DC

2 ) = P (DC1 )P (D

C2 jDC

1 ) = (7

10)(6

9) ' 47%

Def. In uno spazio di probabilita (Ω,Σ, P ) due eventi A,B sono indipendenti se

P (A \B) = P (A)P (B).

Tre eventi A1, A2, A3 sono indipendenti se

P (Ai \Aj) = P (Ai)P (Aj),8i6= j, e P (A1 \A2 \A3) = P (A1)P (A2)P (A3)

m eventiA1, A2, ..., Am sono indipendenti se la probablita dell’intersezione di una qualunquesottofamiglia di essi e uguale al prodotto delle probabilita degli eventi di tale sottofamiglia.

Quando A,B sono indipendenti, dalla definizione di probabilita condizionata si ha

P (AjB) = P (A), P (BjA) = P (B)

il che significa che la probabilita di A non dipende dal verificarsi o meno di B, e viceversa:cio motiva l’aggettivo ”indipendente”.

Es. Un test diagnostico di una malattia e corretto nel 98% dei casi. Ripetendo due volteil test sullo stesso soggetto, qual e la probabilita di un doppio errore? Sia A=”errore nelprimo uso del test”, B=”errore nel secondo uso del test”. Essendo due eventi indipendenti,

P (A \B) = P (A)P (B) = (2/100)(2/100) = 4/10000 = 0, 04%.

Teorema di probabilita totale. Data una ”partizione” H1,H2, ...,Hn, ... di Ω (cioe[iHi = Ω con Hi \Hj = ;, 8i6= j, ) si ha

P (B) =i

P (Hi)P (BjHi)

Dim Sia fHigi una partizione di Ω (finita o infinita, non importa). Allora f(Hi \B)gi euna partizione di B e per l’additivita numerabile si ha:

P (B) =i

P (Hi \B).

Per definizione di probabilita condizionata,

P (Hi \B) = P (Hi)P (BjHi)

8

e, sommando rispetto all’ indice i,

P (B ´i

P (Hi \B) = P (Hi)P (BjHi).

Es. Com’e noto, le trasfusioni di sangue sono possibili: dal gruppo O a tutti gruppi; daA ai gruppi A, AB; da B ai gruppi B, AB; da AB al solo gruppo AB. Supponiamo ancheche le frequenze relative dei gruppi sanguigni siano note, allora le identifichiamo con leprobabilita:

P (O) = 52%, P (A) = 32%, P (B) = 10%, P (AB) = 6%.

Qual e la probabilita che un individuo, scelto a caso, possa donare sangue a un individuopure scelto a caso ?Si usa il teorema della probabilita totale. Infatti la probabilita di D (= un individuopuo donare) sapendo A (= l’individuo e di gruppo A) e una probabilita condizionata e laconosciamo perche i destinatari del suo sangue sono A oppure AB:

P (DjA) = P (A [AB) = 32/100 + 6/100 = 38/100; e cosi’ via.

QuindiP (D) = P (DjO) ¢ P (O) + P (DjA) ¢ P (A)++P (DjB) ¢ P (B) + P (DjAB) ¢ P (AB) =

= (52/100) ¢ 1 + (32/100 + 6/100) ¢ (32/100)++(10/100 + 6/100) ¢ (10/100) + (6/100)(6/100) ' 66%.

Formula di Bayes In forma semplice:

P (AjB) = P (A)P (BjA)P (B)

In forma generale la formula di Bayes si enuncia: data una partizione fHigi di Ω si ha

P (HijB) = P (BjHi)P (Hi)k P (BjHk)P (Hk)

.

Dim. In forma semplice segue direttamente dal teorema della probabilita composta. Siaora lo spazio ripartito in eventi disgiunti Hi, la cui unione sia Ω. La formula di Bayesnella forma semplice applicata ad Hi e B per i fissato da:

P (HijB) = P (BjHi) ¢ P (Hi)P (B)

9

dove ora basta sostituire nel denominatore la formula di probabilita totale.

Es. Con la formula di Bayes ottengo la probabilita di A dato B sapendo la probabilita diB dato A. Aiuta nelle diagnosi. Ad es. se teoricamente la probabilita del sintomo B datala malattia A e il 30%, posso calcolare la probabilita che un paziente affetto dal sintomoB abbia la malattia A:

P (AjB) = P (BjA)P (A)P (B)

Se, ad es., la percentuale della malattia e del sintomo in Emilia e rispettivamente P (A) =0, 15 e P (B) = 0, 05, la probabilita di malattia A dato il sintomo B e:

P (AjB) = (30/100)(15/100)

5/100=90

100.

Dunque la presenza del sintomo segnala la presenza della malattia nel 90% dei casi.

Es. Lampadine escono per il 60% da una linea di produzione A e per il 40% dalla lineaB. Dalla prima linea esce un 2% di difettose, dall’altra esce un 3.8% di difettose. Conquale probabilita una lampadina difettosa e uscita dalla linea A?

Se D e l’evento ”difettosa” i dati del problema sono:

P (DjA) = 0.02, P (DjB) = 0.038, P (A) = 0.6, P (B) = 0.4

Il numero che cerchiamo e la probabilita condizionata di A dato D:

P (AjD) = P (DjA) ¢ P (A)P (DjA) ¢ P (A) + P (DjAC) ¢ P (AC) =

=(0.02)(0.6)

(0.02)(0.6) + (0.038)(0.4)=

0.012

0.012 + 0.0152= 0.441 = 44.1%

Es. Si sa che una proporzione 0.005 dei soggetti di una citta e colpita da un virus.L’affidabilita dei test diagnostici e 0.98 sui malati e 0.80 sui sani: cioe il test risultapositivo sul 98% dei malati, e negativo sull’80% dei sani. Qual e la probabilita di essersano posto che il test sia stato positivo?

Consideriamo gli eventi: S= sano, SC = malato, T−=test negativo; T+=test positivo.Sappiamo che

P (SC) = 0.005, P (T−jS) = 0.80, P (T+jSC) = 0.98.Vogliamo P (SjT+), che calcoleremo con la formula di Bayes:

P (SjT+) = P (T+jS) ¢ P (S)P (T+jS) ¢ P (S) + P (T+jSC) ¢ P (SC) =

=(0.995)(0.20)

(0.20)(0.995) + (0.98)(0.005)= 0.976

10

Incredibilmente alta: ma se stiamo dentro una categoria a rischio, avremmo una incidenzadi malattia P (SC) piu elevata, e dunque questa probabilita di errore piu contenuta.

VARIABILI ALEATORIE

Nello stesso modo in cui l’uomo e una domanda a se stesso (lo stupore), analoga-mente e una domanda di fronte al mondo (la ricerca). Per questo si pone sempre instato di verifica dell’ambiente che lo circonda, delle soluzioni che ha ricevuto da altri, delleconvinzioni che circolano come verita sacrosante. L’uomo ha dentro di se questa continuatensione alla ricerca... e ciascuno deve onorare questo tratto che ci contraddistingue daglialtri animali.

Def. Consideriamo uno spazio di probabilita (Ω,Σ, P ). Si dice variabile aleatoria unafunzione X : Ω ! R che ad ogni elemento ω 2 Ω fa corrispondere un numero X(ω) 2 R,in modo che ogni insieme fω : a < X(ω) · bg appartenga alla σ¡algebra Σ (cioe allafamiglia degli eventi dello spazio Ω). Tale evento sara anche indicato piu concisamente”a < X · b”.Es. Se Ω = f1, 2, ..., 6g e lo spazio di probabilita per il lancio del dado non truccato,definiamo X:= ”numero uscente da un lancio”, cioe X(1) := 1, ..., X(6) := 6. Potremoallora introdurre e calcolare la probabilita che X = 5, che 1 < X · 4, ecc.:

P (1 < X · 4) = P (X = 2) + P (X = 3) + P (X = 4) =1

2

P (X ¸ 3) = P (X = 3) + ...+ P (X = 6) =2

3, P (X · 1, 5) = 1

6.

Definiamo un’altra variabile casuale sullo stesso Ω : sia Y := 0 se l’esito del lancio e pari,Y := 1 se l’esito del lancio e dispari. Cosi:

P (Y = 0) = 1/2, P (Y = 1) = 1/2, P (1 < Y · 4) = 0, ...ecc.

Def. Ad ogni variabile aleatoria X e associata una misura su R chiamata legge diprobabilita (o ”distribuzione”, o semplicemente ”legge”) relativa ad X, indicata PX ecosi definita:

8a, b 2 R, a < b, PX( (a, b]) := P (a < X · b).In tal caso si dice che X e distribuita secondo la legge PX : X » PX .N.B. Conoscendo X conosciamo la legge o distribuzione associata ad X. Al contrario,conoscendo come e distribuita X, non sappiamo necessariamente tutto suX: ad esempio lalegge o distribuzione di X non dice da sola che relazioni ha X con altre variabili. Quandodue o piu v.a. sono distribuite secondo la stessa legge si dicono ”identicamente distribuite”.

11

Def. Una variabile aleatoria X e discreta se1) c’e un insieme finito o numerabile di valori xj, ( j = 1, ..., n oppure j 2 N ) tali che

P (X = xj) > 0,

2) la somma delle probabilita e uno: j P (X = xj) = 1.

Quindi una variabile aleatoria discreta assume solo un insieme discreto di valori xj conrispettive probabilita pj ´ P (X = xj) > 0. In altre parole, la sua distribuzione o legge ediscreta nel senso che e una misura di tipo ”atomico”: essa si concentra su un insieme alpiu discreto di valori xj attribuendo ad essi masse positive pj > 0.

Ecco tre rappresentazioni equivalenti di una legge PX asociata ad una v.a. X discreta.Se X e discreta, una prima ovvia rappresentazione di PX e per elencazione: si elencano ivalori possibili di X e le rispettive probabilita:

X » x1, x2, ...p1, p2, ...

Una seconda rappresentazione equivalente di PX e la ”funzione di probabilita” della v.a.X:

f(x) =pj , se x = xj (j = 1, 2, ...)

0, altrove.

Una terza rappresentazione equivalente di PX e la ”funzione di ripartizione” della v.a. X:

8x 2 R, F (x) := P (X · x) =xjx

f(xj).

Quest’ultima e una funzione a gradini:

F (x) =

⎧⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎩

0, x < x1

p1, x1 · x < x2p1 + p2, x2 · x < x3...

p1 + ...+ pn−1, xn−1 · x < xn...

Poiche f(xj) = P (X = xj), la funzione di ripartizione ha il significato:

F (x) = P (X · x), P (a < X · b) = F (b)¡ F (a).

Es. Lancio di un dado: la funzione di probabilita e

f(x) =16 se x=k

0, altrove

12

ed F (x) = 0 per x < 1, F (x) = 1/6 per 1 · x < 2, ...,F (x) = 5/6 per 5 · x < 6,F (x) = 1,8x ¸ 6.

Es. Sullo spazio di probabilita del lancio di due dadi (i cui elementi sono le 36 coppie(1, 1), (1, 2),...,(6, 5), (6, 6) ) sia Z := somma dei due numeri uscenti. Quindi:

Z :2 3 4 5 6 7 8 9 10 11 12136

236

336

436

536

636

536

436

336

236

136

Per esercizio: descrivere il grafico di f(x) e di F (x).

Def. Una v.a. X e assolutamente continua se la funzione di ripartizione

x ! F (x) ´ P (X · x)

e rappresentabile come funzione integrale di una funzione f(¢) ¸ 0:

8x 2 R, F (x) =x

−∞f(t)dt

La funzione f(¢) e supposta almeno integrabile, ed e detta densita di probabilita della v.a.X.

OSS. Qui e altrove si usano integrali ”impropri”, cioe integrali definiti dove un estremo diintegrazione (o entrambi gli estremi) e 1. Il significato e:

x

−∞f(t)dt := lim

R→∞

x

−Rf(t)dt,

+∞

−∞f(t)dt := lim

R→∞

R

−Rf(t)dt, ecc.

Oss. La funzione f, che appare sotto il segno di integrale, si chiama densita di proba-bilita o semplicemente ”densita” della v.a. Derivando ambo i membri, avremo

F (x) = f(x), in ogni x dove f sia continua.

13

Oss. importante. Poiche P (a < X · b) = P (X · b)¡P (X · a), ecco il modo standarddi calcolare le probabilita come integrali della funzione densita:

P (a < X · b) = F (b)¡ F (a) =b

a

f(t)dt.

Percio questa probabilita e uguale all’area sotto la curva x ! f(x) tra gli estremi x = aed x = b.

Cio comporta, ad es., che per una variabile aleatoria continua si ha sempre P (X =a) =

a

af(x)dx = 0. Al contrario, puo essere P (X = a) > 0 nel caso di variabile X

discreta. Analogamente, se X e continua si ha

P (a < X < b) = P (a · X · b) = P (a · X < b) = P (a < X · b).

Al contrario, queste stesse probabilita possono differire tra loro nel caso di X discreta.

OSS. Esistono molti altri tipi di v.a.: ad esempio una v.a. e ”continua” ma non ”as-solutamente continua” se la funzione di ripartizione F e continua ma non assolutamente

continua: in tal caso non esiste una densita f tale che F (b)¡ F (a) = b

af(x)dx per ogni

a, b. Nel seguito, salvo diversa indicazione, considereremo solo v.a. o discrete o assolu-tamente continue. Considereremo qualche volta anche v.a. ”miste”, ma solo quando lafunzione di ripartizione x ! F (x) = P (x · X) sia assolutamente continua tranne al piuin punti di discontinuita di prima specie. Se un punto x e discontinuita di prima specieper F , risulta positiva la probabilita

P (X = x) = F (x+ )¡ F (x− ) ´ [per cont. da destra] F (x)¡ F (x− ).

In generale, per tutte le possibili v.a.,

P (a < X · b) = F (b)¡ F (a), P (a · X · b) = F (b)¡ F (a) + P (X = a).

14

Es. In un processo automatico si riempiono bottigliette di sciroppo. Il contenuto risultaY = 100 +X ml , dove X e una variabile casuale di densita

f(x) =1¡ jxj, se jxj · 10, altrove.

Fare il grafico di f(x) e di F (x). In una partita di 1000 confezioni, quante approssimati-vamente conterranno meno di 99,5 unita di misura?

E’ facile verificare che f e una densita, perche1

−1 f(x)dx = 1, essendo questa l’areadi un triangolo di base 2 e altezza 1.

Il numero di bottigliette cercato e 1000 moltiplicato per P (Y · 99, 5) = P (100+X · 99, 5),cioe per

P (X · ¡0, 5) =−0,5

−1(1¡ jxj)dx = 1

8.

essendo questa l’area di un triangolo di base 12 e altezza

12 .

Def. Media o speranza matematica di una variabile casuale X discreta:

μ ´ E(X) := xjf(xj)

sotto l’assunzione che sia assolutamente convergente la corrispndente serie numerica: jxj jf(xj) <+1.

Media o speranza matematica di una variabile X continua:

μ ´ E(X) :=+∞

−∞xf(x)dx.

sotto l’assunzione che sia assolutamente convergente il corrispondente integrale:+∞−∞ jxjf(x)dx <

+1.

15

Oss. La media (o valor medio o speranza) appena definita dipende dalla variabile casualeesaminata; essa, nel caso discreto, e la somma dei valori xj moltiplicati per le rispettiveprobabilita f(xj) ´ P (X = xj).

Invece, per evitare confusioni, si rammenti che la somma di tutte le probabilita f(xj)e uno, qualunque sia la variabile casuale X: f(xj) = P (X = xj) = 1. Nel casocontinuo, l’integrale su tutto R della densita e 1:

+∞

−∞f(x)dx = P (¡1 < X < +1) = 1.

Def. Si dice varianza di una variabile casuale X discreta

σ2 ´ V ar(X) :=j

(xj ¡ μ)2f(xj).

Varianza di una variabile casuale X continua:

σ2 ´ V ar(X) :=+∞

−∞(x¡ μ)2f(x)dx.

La radice quadrata della varianza si dice deviazione standard e si indica σ.Oss. La varianza e nulla solo quando X e una variabile casuale discreta con funzione diprobabilita tale che f(x1) = 1 in un certo punto x1, ed f(x) = 0 altrove. Tranne questounico caso, che interessa la teoria della probabilita solo come caso-limite, si ha sempreσ2 > 0.

Es. Se un’epidemia colpisce il 30% della popolazione, la probabilita di contagio perun singolo e di p = 0.30. La variabile casuale

X :0 10.7 0.3

ha media e varianza rispettivamente μ = 0 ¢ 0.7 + 1 ¢ 0.3 = 0.3 e

σ2 = (0¡ 0.3)2 ¢ 0.7 + (1¡ 0.3)2 ¢ 0.3 = 63/1000 + 147/1000 = 0, 21

Sommando n variabili casuali identiche ad X si ottiene la variabile casuale Z = numerodi individui contagiati in un gruppo di n persone. Ad es. se n = 2 avremo la variabilecasuale che puo assumere i valori 0 o 1 o 2 :

Z :=0 1 2

(7/10)2 2 ¢ (7/10)(3/10) (3/10)2

Quindi in un gruppo di due persone il numero atteso di persone contagiate e:

μ = E(Z) = 0 ¢ 0.49 + 1 ¢ 0.42 + 2 ¢ 0.09 = 0.6

16

(non ridere, please: non e detto che la media sia uno dei valori assunti dalla variabilealeatoria), con deviazione standard dalla media:

σ = (0¡ 0.6)2 ¢ 0.49 + (1¡ 0.6)2 ¢ 0.42 + (2¡ 0.6)2 ¢ 0.09.

Intuitivamente: la media e tanto piu rappresentativa della v.a. quanto piu piccola e ladeviazione standard. La varianza (e anche la deviazione standard) in certo senso misuraquanto e dispersa la variabile casuale rispetto alla media.

Es. Sia X distribuita uniformemente nell’intervallo [0, b], cioe X e definita completamentedalla densita:

f(x) =1bse 0 · x · b

0 altrove.

Ecco dunque media e varianza:

μ =b

0

xdx = b/2, σ2 =b

0

(x¡ b/2)2b−1dx = b2/12

Se poi X e uniforme in [a, b], cioe f(x) =1b−a se 0 · x · b0 altrove,

allora abbiamo la seguente

Proposizione La v.a. uniforme nell’intervallo [a, b], X » U([a, b]), ha media e varianza:

E(X) =a+ b

2, V ar(X) =

(b¡ a)212

Si nota da qui che la varianza e grande o piccola a seconda che b¡a lo sia: essa e un indicedella dispersione della variabile X rispetto alla media.

17

Proposizione. Si haE(X ¡ μ) = 0, σ2 = E(X2)¡ μ2.

Dim. Nel caso discreto:

E(X ¡ μ) ´j

(xj ¡ μ)f(xj) = E(X)¡ μ = 0,

σ2 ´j

(xj ¡ μ)2f(xj) =j

[x2j ¡ 2μxj + μ2]f(xj)

= x2jf(xj)¡ 2μ xjf(xj) + μ2 f(xj) = E(X2)¡ 2μ2 + μ2.

Nel caso continuo e analogo il calcolo, tenendo conto che+∞−∞ f(x)dx = 1,

+∞−∞ xf(x)dx =

μ.

Teorema (trasformazione affine di v.a.) Se una v. a. X ha media μ e varianza σ2, allorala v.a. X∗ = c1X + c2, c1 6= 0, ha media e varianza:

μ∗ = c1μ+ c2, σ∗ 2 = c21σ2.

Dim. Lo proviamo nel caso discreto. La v.a. X∗ = c1μ+ c2 e la seguente:

c1x1 + c2 c1x2 + c2 ... c1xn + c2 ...f(x1) f(x2) ... f(xn) ...

Pertanto

μ∗ = (c1xj + c2)f(xj) = c1 xjf(xj) + c2 f(xj) = c1μ+ c2

18

(σ∗)2 = (c1xj + c2 ¡ c1μ¡ c2)2f(xj) =

= (c1)2 (xj ¡ μ)2f(xj) = (c1)

2σ2

Corollario (variabile standardizzata) Se X ha media μ e varianza σ2, allora la cor-rispondente variabile aleatoria

Z =X ¡ μ

σ

ha media 0 e varianza 1.Dim. Basta prendere c1 = 1/σ, c2 = ¡μ/σ. c1X+c2 = 1/σ X¡μ/σ ha media e varianzarispettivamente:

μ/σ ¡ μ/σ = 0, c21σ2 = (σ−1)2σ2 = 1.

Infine, ecco la funzione generatrice dei momenti, utile a calcolare di fatto media evarianza.

Lemma sulla funzione generatrice. Sia X una v.a. Se esistono finiti i momenti E[Xn],8n 2 N , e se esiste finita la funzione,

G(t) = E[etX ] =j e

txjf(xj), nel caso discreto

+∞−∞ etxf(x) dx nel caso continuo

(t 2 R),

allora G(t) soddisfa

E(X) ´ μ = G (0), E(X2) = G (0), ... , E(Xn) = G(n)(0).

G e detta ”funzione generatrice dei momenti”.Dim. Infatti, derivando sotto il segno di serie (o di integrale)

G (t) = E[d

dtetX ] = E[ XetX ], G (t) = E[

d2

dt2etX ] = E[ X2etX ].

I momenti sono dunque:

G (t)jt=0 = E(X), G (t)jt=0 = E(X2), ..., G(n)(0) = E(Xn).

LEGGE DI PROBABILITA BINOMIALE

Tutti siamo dentro un fiume che inizia prima di noi e continuera dopo di noi. Perquesto il primo passo di ogni concreta ricerca e quello di ricostruire il filo rosso delle nozionigia acquisite, dei punti di non ritorno, dei convincimenti ormai assodati, ed e importantenon solo comprendere l’esito delle ricerche precedenti, ma anche lo sviluppo interno di

19

esse, per allenare il cervello a interrogare in modo innovativo il mondo che di fronte anoi. Questo e quanto ordinariamente si compie all’universita.

Def. Sia 0 < p < 1,, n 2 N. Sia q = 1¡p. Una v.a. discretaX e ”binomiale di parametri ne p” (o anche: segue una legge binomiale di parametri n e p) se ha funzione di probabilita:

P (X = k) ´ f(k) = nk

pkqn−k, k = 0, 1, ..., n

ossia:

X :0 1 2 ... n¡ 2 n¡ 1 nqn npqn−1 n!

2!(n−2)!p2qn−2 ... n!

(n−2)!2!pn−2q2 npn−1q pn

Notevole il caso n = 1, 0 < p < 1: una v.a. X che assuma solo i valori 0 e 1 con probabilita(1¡ p) e p rispettivamente, segue una legge di Bernoulli:

X :0 1

(1¡ p) p.

Teorema. Si considerino n prove indipendenti di un esperimento casuale a due esiti. Sep e la probabilita di successo in una singola prova e q = 1¡ p, la probabilita che in n proveindipendenti si abbiano esattamente k successi e

nk

pkqn−k, k = 0, 1, ..., n.

Dim. Abbiamo gia definito che cosa si intende per eventi indipendenti e abbiamo sopracostruito lo spazio di probabilita dello schema successo-insuccesso. Definiamo:

X = ”numero di successi nell’ambito di n prove”.

Vogliamo provare che X e una v.a binomiale. Un particolare evento elementare e

fωg = f(1, ..., 1, 0, ..., 0)g

il che significa: successo nelle prime k prove e insuccesso nelle rimanenti n¡ k. Esso avraprobabilita

P (fωg) = p ¢ p ¢ ... ¢ p ¢ q ¢ q... ¢ q = pkqn−k

in virtu dell’indipendenza. Ma questa n-upla e solo un particolare modo di avere k successi.Ora, posso etichettare le n prove con 1, ..., n, e ci sono C(n; k) modi di scegliere k di queste

20

etichette tra le n date: proprio il numero di combinazioni di n oggetti a k a k. QuindiP (X = k) e semplicemente pkqn−k moltiplicato per questo numero:

P (X = k) ´ f(k) = nk

pkqn−k, k = 0, 1, ..., n

Si noti che effettivamente la somma di tutte le probabilita e 1:

n

k=0

nk

pkqn−k = (p+ q)n = 1n = 1,

per la formula binomiale di Newton. Inoltre

Proposiz. Media e varianza di una v.a. binomiale X » B(n, p) sono:

μ = np, σ2 = npq.

Dim. La funzione generatrice dei momenti di X e

G(t) = E(etX) =n

k=1

etknk

pkqn−k = (pet + q)n

Percio i momenti di grado 1 e 2 sono:

E(X) = G (t)jt=0 = n(pet + q)n−1 ¢ petjt=0 = np,

E(X2) = G (t)jt=0 = f n(n¡ 1)(pet + q)n−2 ¢ (pet)2 + n(pet + q)n−1 ¢ pet gjt=0.Dunque μ = E(X) = G (0) = np,, mentre

σ2 = E(X2)¡ μ2 = (n2 ¡ n)p2 + np¡ (np)2 = ¡np2 + np = np(1¡ p).

[ Ecco la traccia anche di un altro argomento, piu intuitivo: il numero X di successinell’ambito di n prove puo scriversi come somma X1+X2+ ...+Xn dove, per i = 1, 2, ..., n,

Xi = num. di successi nell’ambito della i¡esima prova .

Ma ciascun

Xi :0 1q p

, i = 1, ..., n

ha media e varianzaE(Xi) = 0 ¢ q + 1 ¢ p = p

σ2 = (0¡ p)2 ¢ q + (1¡ p)2 ¢ p = p2q + q2p = pq(p+ q) = pq.

21

Poiche, come vedremo, la media di una somma e uguale alla somma delle medie, E(X) =np. Vedremo piu avanti la definizione di piu v.a. ”indipendenti”, constateremo che le Xisono indipendenti e vedremo che la varianza di una somma di v.a. indipendenti e ugualealla somma delle varianze: dunque V ar(X) = npq. ]

Es. Se la probabilita’ di avere un figlio maschio e’ 12 , per una famiglia con 5 figli, qual ela probabilita di avere: (i) due maschi (ii) almeno un maschio ? (iii) almeno 3 femmine ?Sia X = ”numero di maschi fra n = 5 figli:

P (X = 2) =52

(1

2)2(1

2)3 = 10 ¢ (1/2)5 = 10/32

P (X ¸ 1) = 1¡ P (X = 0) = 1¡ 50

(1

2)0(1

2)5 = 1¡ (1/32) = 31/32

P (X · 2) =2

k=0

5k

(1

2)k(1

2)5−k = (1/32) + 5 ¢ (1/32) + 10 ¢ (1/32) = 1/2.

Es. Sia p = 90% la probabilita che un test diagnostico dia risposta vera su un individuo.In un gruppo di 7 persone qual e la probabilita che il test dia risposta vera: (i) su tutti e7; (ii) su almeno 6 ? (iii) su meno della meta ? Qual e il valore atteso di diagnosi veritierein un gruppo di 75 persone ? con quale deviazione standard ?

Se X = ”numero di diagnosi veritiere in un gruppo di n=7 individui”

P (X = 7) =77

(0.9)7(0.1)0 = (0.9)7

P (X ¸ 6) = 76

(0.9)6(0.1) +77

(0.9)7.

P (X · 3) =3

k=0

7k

(0.9)k(0.1)7−k.

Se Y = ”numero di diagnosi veritiere in un gruppo di n=75 individui”

E(Y ) = np = 75 ¢ (0.9), σ =pnpq = 75 ¢ (0.9)(0.1).

LEGGE DI PROBABILITA DI POISSON

22

Il segreto per vivere tutto cio senza pesantezza e quello di sforzarsi, attraverso lerisposte che i libri ci riportano, di rintracciare le domande degli uomini e delle donne chehanno atraversato l’avventura della vita prima di noi. Certo, tu potresti dirmi che oggiviviamo in un’epoca ricchissima di informazioni e che c’e sempre ””mamma”” Google.com,che confeziona i dati desiderati in 0.15 secondi... Eppure fare ricerca e regalarsi del tempoprezioso per cogliere le domande giuste, per farle vivere e maturare, per permettere loro dicondurci verso le risposte e verso altre domande. Caro amico, cara amica, amate ledomande con tutte le vostre forze.

Def. X e una v.a. di Poisson di parametro μ se puo assumere gli infinti valori k = 0, 1, 2, ...

con probabilita P (X = k) = f(k) = μk

k! e−μ :

X :0 1 2 3 ... k ...e−μ μe−μ μ2

2! e−μ μ3

3! e−μ ... μk

k! e−μ ...

Si osservi che effettivamente la somma di tutte le probabilita e 1:

+∞

k=0

μk

k!e−μ = eμ ¢ e−μ = 1,

essendo +∞k=0

xk

k! = ex (e la ben nota serie esponenziale). Inoltre (fatto curioso) la media

e uguale alla varianza:

Prop. Se X e una v.a. di Poisson con parametro μ, allora E(X) = μ e V ar(X) = μ.Dim. La funzione generatrice dei momenti e:

G(t) ´ E[ etX ] =∞

k=0

etke−μμk

k!= e−μ exp[μet].

PercioE(X) = G (t)jt=0 = e−μμet exp[μet]jt=0 = μ.

Inoltre

E(X2) = G (t)jt=0 = f e−μμet exp[μet] + e−μ(μet)2 exp[μet] gjt = 0

. PercioV ar(X) = E(X2)¡ μ2 = μ+ μ2 ¡ μ2 = μ.

La v.a. di Poisson e un buon modello per il numero di fenomeni casuali distribuiti con unadata densita media μ nell’unita di tempo o nell’unita di volume o nell’unita di superficie:numero di chiamate a un centralino telefonico per minuto; numero di automobili a un

23

casello per ora; numero di infortuni stradali per settimana; numero di stelle per unita divolume abbastanza grande...

Es.Nel 1910 Rutherford e Geiger provarono che il numero di particelle α emesse al secondoda una sostanza radioattiva era una v.a. di Poisson con μ = 0.5. Qual e la probabilita diosservare due o piu particelle durante un secondo ?

P (X ¸ 2) =+∞

k=2

(0, 5)k

k!e−μ =

= 1¡ P (X = 0)¡ P (X = 1) = 1¡ e−0.5 ¡ 0.5 ¢ e0.5 = 1¡ 0.91 = 9%

Es. Una certa sospensione batterica contiene 5 batteri per cm3 (valor medio). Qual e laprobabilita che un campione causale di 1 cm3 contenga (i) nessun batterio (ii) al piu duebatteri (iii) almeno 5 batteri ?

P (X = 0) = e−5; P (X · 2) = e−5(1 + 5 + 252!)

P (X ¸ 5) = 1¡ P (X · 4) = 1¡ e−5(1 + 5 + 252!+125

6+625

24)

Es. Per valutare il numero di batteri in una sospensione se ne cerca la diluizione limitealla quale si trova ancora almeno un batterio capace di riprodursi. Ad es. se diluendo undm3latte con fattore 1

10 ,1100 ,

1103 ,

1104 troviamo, dopo incubazione, sviluppo dei batteri;

mentre troviamo sterile la diluizione con fattore 1105 ; allora grossolanamente diremo che il

latte conteneva circa 10.000 germi per dm3. Per raffinare, usiamo la distribuzione di Poissone inoculiamo in 20 tubi la sospensione diluita con fattore 1

104 . Se vi sono in media μ batteriper dm3 di diluito, vi sara una proporzione P (X = 0) = e−μ di tubi che non riceverannoalcun batterio e percio saranno sterili. Poniamo di trovare sterili 12 tubi su 20. Ebbene,avremo e−μ = 12

20 = 0.6 cioe μ = ¡log(0.6) =¡(loge10) ¢ log10(0.6) = ¡2.3026 ¢ (¡0.222)= 0.51. Allora la concentrazione di batteri nel latte e 0.51 ¢ 104= 5.1 ¢ 103 germi per dm3.

LEGGE DI PROBABILITA IPERGEOMETRICA

Per continuare la nostra riflessione ti porto a Delfi. In questa localita dell’anticaGrecia, sul frontone del tempio dedicato al dio Apollo si trovava incisa la famosa sentenza:Conosci te stesso.In tal modo proprio alle origini della nostra civilta vengono collocatiinsieme la conoscenza e il nostro io. L’invito e chiaro: la vera conoscenza parte da noistessi e termina con noi stessi, e mi sembra che siffatta lezione non abbia perso nulla dellasua validita.

Descriviamo la legge di probabilita ipergeometrica e poi la legge geometrica.

Problema.Da un’urna contenente b palline bianche ed r rosse, se ne estraggono n (n · b+r)senza reimmissione. Qual e la probabilita che esattamente k di esse siano rosse?

24

Risposta. Supponiamo che le palline siano numerate da 1 a b + r e che le palline rossesiano quelle con i numeri · r. Lo spazio Ω, degli eventi elementari e l’insieme di tuttii sottoinsiemi ω = fω1, ...,ωng di f1, 2, ..., b + rg. Quindi lo spazio di probabilita Ω e lospazio delle combinazioni semplici di b+ r oggetti ad n ad n :

#Ω = C(b+ r;n).

Se poniamo

Ak = fω : ω ha esattamente k elementi con indice · rg

la probabilita richiesta e il quoziente

P (Ak) =# Ak# Ω

=C(r; k) ¢ C(b;n¡ k)

C(b+ r;n)=

rk

bn¡ k

b+ rn

La v.a. X = ”numero di palline rosse estratte nell’ambito di n estratte senza resti-tuzione”, sapendo che ”il numero di rosse e r su un totale inziale di N = r + b” e unav.a. ipergeometrica con parametri r,N, n. Essa puo assumere i valori k = 0, 1, 2, ..., r, doven · N = b+ r. La sua funzione massa di probabilita e

P (X = k) =

rk

bn¡ k

b+ rn

, k = 0, 1, ..., r.

Es. : qual e la probabilita del trio f5, 51, 63g nel gioco del lotto?Risposta: si dividono gli N = 90 numeri in due classi: da una parte gli r = 3 numeriindicati, dall’altra parte gli altri b = 87. Inoltre ci sono n = 5 estrazioni senza reimmissione(quindi non indipendenti, qui non serve la v.a. binomiale). La v.a.

X = numero di estratti dal primo gruppo nell’ambito di 5 estrazioni

P (X = k) =

rk

bn¡ k

b+ rn

=

33

875¡ 3905

=1

11748= 0.0085%

LEGGE DI PROBABILITA’ GEOMETRICA

Problema Un dado viene lanciato piu volte finche non si ottiene 6. Qual e la probabilitache occorrano esattamente k lanci?

25

Risposta. E la probabilita che per k ¡ 1 lanci esca ”insuccesso” ed esca ”successo” la k¡esima volta: se T e il numero di lanci necessari ad avere successo,

P (T = k) = p(1¡ p)k−1 = 1

6(5

6)k−1, k = 1, 2, ...

Piu in generale, in ogni schema successo-insucccesso nel quale la probabilita di successoin una singola prova sia p 2 (0, 1), si puo definire la v.a. geometrica

T := num. di prove necessarie ad avere successo.

Diversamente dalla v.a. binomiale, i valori possibili di T sono tutti i numeri naturali:

T :1 2 ... k ...p pq ... pqk−1 ...

.

La funzione di probabilita e semplicemente

f(k) = P (T = k) = p ¢ qk−1, q = 1¡ p, k = 1, 2, 3, ...

Sommando questi termini si ottiene la serie geometrica:

k=1

f(k) = p∞

k=1

qk−1 = p∞

j=0

qj =p

1¡ q =p

1¡ (1¡ p) = 1.

La v.a. geometrica si puo anche riguardare come un tempo di attesa, misurato in numerodi prove:

T := tempo di attesa del primo successo.

[ Invece qualche autore chiama v.a. geometrica X = T ¡ 1, cioe ”numero di insuccessiprecedenti il primo successo”, con funzione di probabilita P (X = j) = pqj , j = 0, 1... ].

Es. Un arciere ha probabilita 13 di far centro in un bersaglio. Trovare la probabilita che

gli occorra un numero di prove maggiore di 3.Sia T =”numero di prove necessarie al primo centro nel bersaglio”, sapendo che la prob-abilita di far centro e 1/3. Allora T e geometrica di parametro 1/3. L’evento T > 3 haprobabilita

P (T ¸ 4) = 1¡ P (T = 1)¡ P (T = 2)¡ P (T = 3) =

= 1¡ 13¡ 13¢ 23¡ 13¢ (23)2 =

= 1¡ 13[1 + 0.666 + 0.444] = 1¡ (2.111)/3 ' 29.6%

LEGGE DI PROBABILITA NORMALE O DI GAUSS

26

Il francese conaissance,che deriva dal verbo connaitre,ci invita a scoprire la pro-fonda parentela tra i due verbi e i relativi sostantivi, nascondendo nel seno del verboconnaitre (e della parola conaissance) il verbo che dice ””venire alla luce””. E cosasignificherebbe, appunto, conoscere,se non esattamente un nascere un’altra volta conuna nuova coscienza, con uno sguardo sulla vita?

Def. Siano μ 2 R, σ > 0. La v.a. continua X e normale con parametri μ, σ, e si scriveX ' N(μ,σ2), sse la densita e:

f(x) =1

σp2π

e−(x−μ)2/2σ2 .

La funzione f(x) e detta funzione di Gauss. E la funzione ”a campana” simmetricarispetto ad x = μ, che ha un max. per x = μ e ivi assume il valore massimo f(μ) = 1

σ√2π.

Quest’ultimo ha il significato di fattore di normalizzazione, cioe e quel numero tale che

+∞

−∞f(x)dx = 1

(questa uguaglianza si puo dimostrare e dice che f e una densita di probabilita: vuol direche P (¡1 < X < +1) = 1 ).

27

Si dimostra che la v.a. X ha media μ e varianza σ2. Si nota che piu e piccolo σ, piue alto il picco f(μ), e dunque e piu concentrata la campana intorno alla media μ : cioconcorda perfettamente con il significato di varianza che possiede σ2. Ecco il calcolo dimedia e varianza:

Lemma.E(X) = μ, V ar(X) = σ2.

Dim. La media di X e ovviamente μ a causa della simmetria del grafico della densitaattorno ad x = μ.Per la varianza basta moltiplicare e dividere per ¡σ2 e integrare per parti riconoscendo¡ (x−μ)

σ2 ¢e−(x−μ)2/2σ2 come fattore differenziale :+∞

−∞(x¡ μ)2e−(x−μ)

2/2σ2dx = limR→∞

(¡σ2)[(x¡ μ)e−(x−μ)

2/2σ2

σp2π

]R−R¡

¡(¡σ2)+∞

−∞f(x)dx = σ2 ¢ P (¡1 < X < +1) = σ2.

Dalla espressione della densita otteniamo la funzione di ripartizione:

F (x) =x

−∞

1

σp2π

e−(t−μ)2/2σ2 dt,

tale che

P (a < X < b) = F (b)¡ F (a) =b

a

1

σp2π

e−(t−μ)2/2σ2 dt.

La funzione integrale F non si puo calcolare coi metodi di integrazione elementari.Tuttavia, detta

Φ(z) =z

−∞

1p2π

e−u2/2 du

la funzione di ripartizione della v.a. normale standardizzata , cioe la v.a. normale conmedia 0 e varianza 1, si ha:

Proposizione La funzione di ripartizione normale di media μ e varianza σ2 si puo rapp-resentare in termini della funzione di ripartizione normale Φ di media 0 e varianza 1 nelseguente modo:

F (x) = Φ(x¡ μ

σ).

28

In particolare:

P (a < X · b) ´ F (b)¡ F (a) = P (a¡ μ

σ< N(0; 1) · b¡ μ

σ).

Dim. Ponendo t−μσ = u, si ottiene du

dt=1σ , dt = σdu, e quindi

F (x) ´ limR→−∞

x

R

1

σp2π

e−(t−μ)2/2σ2 dt

= limR→−∞

x−μσ

R−μσ

1

σp2π

e−u2/2σdu =

x−μσ

−∞

1p2πe−u

2/2du ´ Φ(x¡ μ

σ).

Conseguenza: se X e normale, anche (X ¡ μ)/σ e normale. Inoltre, come ogni standard-izzata, (X ¡ μ)/σ e standard. Quindi (X ¡ μ)/σ e normale standard, cioe N(0; 1).

Oss. Di conseguenza si usano le tavole della normale standard N(0; 1) per calcolare leprobabilita relative a una normale generica N(μ, σ2). Le tavole di N(0; 1) si possono usarein due modi:

1) dato un valore z 2 R, si cerca la probabilita P (N(0; 1) · z) = Φ(z);2) data una probabilita α (a volte assegnata come percentuale) si cerca il valore z 2 R taleche α = P (N(0; 1) · z). [Tale z e denotato φα, e chiamato quantile relativo ad α, ovveropercentile n¡esimo se α = n/100].Ricerche di quantita similari sono riconducibili alla tavola diN(0, 1) tramite la proposizioneprecedente e considerazioni geometriche sulle aree sottese al grafico della densita: ad es.P [N(0; 1) · ¡1.7] = 1 ¡ P [N(0; 1) · 1.7]; altro esempio: il quantile φ0.95 e ugualeall’opposto del quantile φ0.05.

Es. Sia X ' N(0.8; 4) ossia X e normale con media 0.8 e varianza 4. Calcoliamo a mododi esempio:

P (X · ¡1.16) = P [N(0; 1) · ¡1.16¡ 0.82

) = P [N(0; 1) · ¡0.98] =

= 1¡ P [N(0; 1) · 0.98] = 16.35%P (X ¸ 1) = 1¡ P [N(0; 1) ¸ (1¡ 0.8)/2] = 1¡ P [N(0; 1) · 0.1] = 46.02%

P (2 · X · 3) = P [(2¡ 0.8)/2 < N(0; 1) · (3¡ 0.8)/2] == Φ(1.1)¡ Φ(0.6) = 13.86%

Es. Sia X ' N(¡2; 0.25). Determinare c 2 R tale che(1) P (X ¸ c) = 0.2 ; (2) P (¡2¡ c · X · ¡2 + c) = 0.90 (3) P (X · c) = 0.43;

29

(1) 0.2 = P [N(0; 1) ¸ (c+ 2)/0.5]; (c+ 2)/0.5 = φ0.80 = 0.84; c = ¡1.58.

(2) 0.9 = P [(¡2¡ c+ 2)/0.5 · N(0; 1) · (¡2 + c+ 2)/0, 5] = Φ(2c)¡ Φ(¡2c) =

= Φ(2c)¡ (1¡ Φ(2c)) = 2Φ(2c)¡ 1;Φ(2c) = (0.9 + 1)/2 = 0.95; 2c = φ0.95 = 1.64; c = 0.82

(3) 0.43 = P (X · c) = P [N(0; 1) · c+ 2

0.5]

da cui, essendo 43% < 50%, abbiamo (achtung!) che:

c+ 2

0.5= φ0.43 e negativo !!! ed uguale a = ¡φ0.57 = ¡0.18

e infine c = ¡2.09.OSS. Quanto spesso [=con quale probabilita] la variabile si discosta dalla media al piuper i primi tre multipli della deviazione standard?

P (μ¡ σ · X · μ+ σ) = P (¡1 · N(0; 1) · 1) ' 68%

P (μ¡ 2σ · X · μ+ 2σ) = P (¡2 · N(0; 1) · 2) ' 95, 5%P (μ¡ 3σ < X < μ+ 3σ) = P (¡3 < N(0; 1) < 3) ' 99, 7%.

Sara utile ricordare i quantili φ0.975 e φ0.995 della normale standard:

P (μ¡ 1, 96σ < X < μ+ 1, 96σ) = 95% perche 1.96 = φ0.975

P (μ¡ 2, 58σ < X < μ+ 2, 58σ) = 99% perche 2.58 = φ0.995.

30

Quando X e normale N(μ,σ), non solo conosciamo (come per tutte le v.a.) la mediae varianza di c1X + c2, ma risulta che anche c1X + c2 resta una v.a. normale:

Teorema Se X e normale con media μ e varianza σ2, allora X∗ = c1X + c2 (c1 > 0) enormale con media μ∗ = c1μ+ c2 e varianza (σ∗)2 = c21σ

2.

LEGGE DI PROBABILITA ESPONENZIALE; LEGGI GAMMA

Finche pensiamo che cio che per motivi di studio dobbiamo ””conoscere”” stia li da-vanti a noi come cosa morta da incamerare e che non ci sia richiesto altro che fare spazionella memoria a quell’informazione, allora la conosceza non mostrera la sua profondaverita. D’altro canto chi potrebbe sostenere a cuor leggero che la nascita di un nuovo es-sere umano sia un evento privo di sofferenza, di preoccupazioni, di attenzioni, di premuree di delicatezza? Qualcosa di analogo accade per la conoscenza/co-nascenza: senzauna serena apertura a mettere in questione cio che abbiamo gia appreso, senza la volontadi distruggere gli idoli e i pregiudizi che ci siamo costruiti, non ci e consentito l’accesso almondo vero e reale, e soprattutto non ci e consentito l’accesso al nostro io.

Consideriamo una sequenza di eventi, sapendo che il numero di eventi nell’unita ditempo e una v.a. di Poisson di media λ. Quanto tempo deve aspettare un osservatoredella sequenza poissoniana di eventi, per osservare il primo verificarsi dell’evento?

Teorema (v.a. esponenziale). Se il numero di occorrenze di un evento nell’intervallo ditempo [0, t] e v.a. di Poisson con media tλ, 8t > 0, allora l’istante T del primo verificarsidell’evento e una v.a. ”esponenziale” con parametro λ:

FT (t) =0, t < 0

1¡ e−λt, t > 0;fT (t) =

0, t < 0

λe−λt, t ¸ 0.La v.a. esponenziale ha media 1

λ(”tempo medio di attesa”) e varianza 1

λ2.

31

Dim. Indichiamo con FT (t) la probabilita P (T · t). Allora 1 ¡ FT (t) e la probabilitache l’istante di prima occorrenza sia maggiore di t. Ovvero, 1¡ FT (t) e la probabilita cheil numero di eventi occorrenti da 0 a t sia zero. Poiche il numero di occorrenze in [0, t] e diPoisson con media λt,

1¡ FT (t) = e−λt, 8t > 0Derivando si ottiene la densita di T : FT (t) = λe−λt, 8t > 0. Media e varianza si ottengonointegrando per parti:

E(T ) =∞

0

tf(t)dt =∞

0

tλe−λtdt =

= [¡te−λt]+∞0 ++∞

0

e−λtdt =1

λ.

V ar(T ) = E(X2)¡ μ2 =∞

0

t2λe−λt dt¡ (1/λ)2

= [¡t2e−λt]+∞0 ++∞

0

2te−λtdt¡ 1

λ2= 2

1

λ2¡ 1

λ2=1

λ2.

32

VETTORI ALEATORI, INDIPENDENZA E INCORRELAZIONE TRA V.A.

L’inquietudine di cui sto cercando di parlarti assomiglia all’esperienza dell’innamoramento,un tempo che ci assorbe, ci lascia attenzione ed energia solo per l’oggetto del nostro amore.E’ il tempo di una ferita e di una luce intensa, un abbaglio che ci mette sotto seque-stro. O si e’ innamorati totalmente o non si e innamorati affatto. Similmente quelladell’inquietudine e un’esperienza davvero unica, un’esperieza iniziatica e illuminante chepermette finalmente di accedere alla vera essenza dello studio e, nello stesso tempo, allaforte intrinseca carica umana che esso racchiude.

Nel considerare due (o piu) v.a., si sottintende sempre che siano definite sullo stessospazio di probabilita Ω. Ci interessa fare affermazioni di probabilita contemporaneamentesu X e su Y , per le quali non sarebbe sufficiente conoscere le due leggi singole di X e diY. Parliamo allora di ”vettore aleatorio” (X,Y ); e di ”legge di probabilita congiunta” chead ogni aperto B ½ R2 associa la probabilita che il vettore (X, Y ) cada in B:

B ! P [(X, Y ) 2 B].Si dimostra che la legge congiunta e ben definita non solo sugli aperti, ma su una piuvasta famiglia di sottoinsiemi di R2, che vengono detti ”misurabili”. La famiglia degliinsiemi misurabili risulta molto vasta perche contiene gli aperti ed e chiusa rispetto allacomplementazione e all’unione numerabile. In particolare, essa contiene tutti i rettangoliB1 £ B2 ½ R2, dove B1, B2 ½ R sono intervalli di ogni tipo (semichiusi a sinistra o adestra, aperti o chiusi).

Si dice funzione di ripartizone congiunta FX,Y (¢, ¢) delle v.a. X,Y la funzione di duevariabili definita nel piano R2:

FX,Y (x, y) = P [X · x, Y · y] = P [(X,Y ) 2 (¡1, x)£ (¡1, y)]

33

Essa contiene tutte le informazioni sulla legge congiunta B ! P [(X,Y ) 2 B]. Ad es. illettore puo verificare la seguente formula mediante considerazioni geometriche in R2:

P [a1 < X · b1, a2 < Y · b2] == FX,Y (b1, b2) + FX,Y (a1, a2)¡ FX,Y (a1, b2)¡ FX,Y (b1, a2).

Dalla funzione di ripartizione congiunta FX,Y si possono ricavare le singole FX , FY ,dette funzioni di ripartizione marginali:

FX(x) = P (X · x, Y < +1) = limy→∞FX,Y (x, y)

FY (y) = P (X < +1, Y · y) = limx→∞FX,Y (x, y)

Ora specializziamo il discorso, fin qui valido in generale, alle v.a. discrete e poi a quelleassolutamente continue.

Definiamo funzione di probabilita congiunta di due v.a. discrete X,Y la funzione di duevariabili

fX,Y (x, y) = P (X = x, Y = y).

La somma rispetto a tutte le coppie (x, y) su cui tale funzione e positiva fa’ 1. La funzionedi probabilita marginale fX sara allora:

fX(x) =y: fX,Y (x,y)>0

fX,Y (x, y)

e analoga espressione avra fY .

Def. Una legge congiunta di due v.a. X,Y si dice assolutamente continua se esiste unafunzione densita di probabilita congiunta: ossia una funzione non negativa e integrabile didue variabili fX,Y (x, y) tale che

P [(X, Y ) 2 B] =B

fX,Y (x, y)dxdy

per ogni insieme misurabile B di punti del piano.

34

Dalla densita si ottiene la funzione di ripartizione congiunta:

FX,Y (x, y) =x

−∞dx

y

−∞dyfX,Y (x, y)

e viceversa

fX,Y (x, y) =∂2

∂x∂yFX,Y (x, y)

in tutti i punti di continuita di f . La densita marginale e la funzione di ripartizionemarginale, ad es. della v.a. X, si ottengono in modo naturale:

fX(x) =+∞

−∞fX,Y (x, y) dy

FX(x) =x

−∞dx

+∞

−∞fX,Y (x, y) dy

DEF. - Le v.a. X1,X2, ..., Xn... sono indipendenti se per ogni n e per ogni scelta diintervalli reali A1, A2, ...An, si ha

P [X1 2 A1, X2 2 A2, ..., Xn 2 An] = P (X1 2 A1) ¢ P (X2 2 A2) ¢ ...P (Xn 2 An).

Due v.a. X,Y sono indipendenti se e solo se la funzione di ripartizione congiunta e ugualeal prodotto delle marginali:

FX,Y (x, y) = FX(x) ¢ FY (y), 8(x, y) 2 R2.

Le v.a. discrete X, Y sono indipendenti se e solo se la funzione di probabilita congiunta euguale al prodotto delle marginali; le v.a. assolutamente continue X,Y sono indipendentise e solo se la funzione densita congiunta e uguale al prodotto delle marginali:

fX,Y (x, y) = fX(x) ¢ fY (y), 8(x, y) 2 R2.

Il calcolo di media e varianza di X (o di Y ) a partire dalla funzione di probabilitacongiunta (o dalla densita congiunta) f(x, y) segue la definizione generale:

E[g(X, Y )] =i,j g(xi, yj) ¢ f(xi, yj) per v.a. discrete

R g(x, y)f(x, y)dx per v.a. assolutamente continue

per ogni funzione g(X,Y ) delle due v.a.Da qui si calcolano tutti i momenti, E[Xn] ed E[Y n], per n 2 N . In particolare i

momenti primi cioe le medieμx = E[X], μy = E[Y ]

35

e i secondi momenti centrati cioe le varianze:

σ2x = E[(X ¡E[X])2], σ2y = E[(Y ¡ E[Y ])2]

e anche il secondo momento misto centrato, detto ”covarianza”:

DEF. - Covarianza - La covarianza di due v.a. scalari X, Y e

Cov[X,Y ] := E[(X ¡ E[X])(Y ¡E[Y ])] = i,j(xi ¡ E[X])(yj ¡ E[Y ])fX,Y (xi, yj)R2(x¡ E[X])(y ¡E[Y ])fX,Y (x, y)dxdy

La covarianza da informazioni sulla variazione simultanea di due variabili. Covari-anza positiva significa che al crescere di X, cresce Y , perche mediamente gli scarti di Ysi dispongono con lo stesso segno degli scarti di Y . Se la covarianza e negativa, Y edecrescente al crescere di X.

Poiche l’operatore Media e lineare, l’operatore Covarianza e bilineare, cioe linearein ciascuno dei suoi argomenti.

PROPOSIZIONE: Valgono le regole di calcolo:

Cov(X,Y ) = E[XY ]¡ E[X]E[Y ]

V ar(aX + bY ) = a2 ¢ V ar(X) + 2ab ¢ Cov(X,Y ) + b2V ar(Y ), 8a, b 2 R.In particolare se Cov(X,Y ) = 0, allora V ar(X + Y ) = V ar(X) + V ar(Y ).Dim. - Si ha:

E[(X ¡E[X])(Y ¡ E[Y ])] = E[XY ]¡E[X]E[Y ]¡ E[Y ]E[X] + E[X]E[Y ]

da cui la prima uguaglianza. Ancora per la linearita dell’operatore Media si ottiene

V ar(X + Y ) = E[(X + Y ¡ E[X]¡ E[Y ])2] = E[(X ¡ E[X] + Y ¡ E[Y ])2] =

= E[ (X ¡E[X])2 + 2(X ¡ E[X])(Y ¡ E[Y ]) + (Y ¡ E[Y ])2 ] == V ar(X) + 2 ¢ Cov(X,Y ) + V ar(Y )

e analogamente si procede in presenza di coefficienti a, b diversi da 1. 4

ES. - Sia (X, Y ) un vettore aleatorio discreto con funzione di probabilita:

f(0, 3) = 0.10 f(0, 7) = 0.05f(1, 3) = 0.20 f(1, 7) = 0.15f(2, 3) = 0.20 f(2, 7) = 0.30

Allora i valori di X sono 0, 1, 2, i valori di Y sono 3, 7:

E[X] = 0 ¢ 0.15 + 1 ¢ 0.35 + 2 ¢ 0.50 = 1.35

36

E[Y ] = 3 ¢ 0.50 + 7 ¢ 0.50 = 5Cov(X, Y ) = E[XY ]¡ E[X]E[Y ] =

= 1 ¢ 3 ¢ 0.2 + 1 ¢ 7 ¢ 0.15 + 2 ¢ 3 ¢ 0.2 + 2 ¢ 7 ¢ 0.3 ¡ (1.35) ¢ 5 = 0.3Qual e ad es. la varianza di X + Y ? Dato che

E[X2]¡E[X]2 = 0.53, E[Y 2]¡ E[Y ]2 = 4

allora

V ar(X + Y ) = V ar(X) + 2 Cov(X,Y ) + V ar(Y ) = 0.53 + 2 ¢ 0.3 + 4 = 5.13

ES. - Sia (X,Y ) un vettore aleatorio con densita

fX,Y (x, y) = c(x2 + y) ¢ I[0,1]×[0,1](x, y) ´

c(x2 + y), (x, y) 2 [0, 1]£ [0, 1]0, altrove

dove c e un’opportuna costante. Dopo aver determinato c, trovare le densita marginali.Trovare le medie. Trovare la covarianza.

Sia Q il quadrato [0, 1] £ [0, 1], supporto della densita congiunta. La costante si trovanormalizzando:

1 =Q

c(x2 + y)dxdy = c1

0

1

0

(x2 + y)dydx =

c1

0

(x2 +1

2)dx = c(

1

3+1

2) =

5c

6) c = 6/5.

Per trovare la marginale di X si deve integrare la densita congiunta rispetto ad y; per lamarginale di Y si deve integrare la congiunta rispetto ad x:

fY (y) =1

0

6

5(x2 + y)dx = ... =

2

5(1 + 3y)I[0,1](y),

fX(x) =1

0

6

5(x2 + y)dy = ... =

3

5(2x2 + 1)I[0,1](x).

Dal fatto che fX(x)fY (y)6= f(x, y) si vede che X, Y non sono indipendenti.

E(X) =1

0

x ¢ 35(2x2 + 1)dx =

3

5

2x4

4+x2

2

1

0

=3

5(1

2+1

2) =

3

5

E(Y ) =1

0

y ¢ 25(1 + 3y)dy =

2

5

y2

2+3y3

3

1

0

=2

5(1

2+ 1) =

3

5.

37

E(XY ) =1

0

1

0

xy ¢ f(x, y)dxdy =1

0

1

0

6

5(x3y + xy2)dxdy =

=6

5

1

0

x3y2

2

1

0

dx+6

5

1

0

x

y3

3

1

0

dx =

=3

5

x4

4

1

0

+2

5

x2

2

1

0

=7

20

da cui

Cov(X,Y ) = E(XY )¡E(X)E(Y ) = 7

20¡ (3

5)2 = ¡ 1

100.4

DEF. - Correlation coefficient - The correlation coefficient, or correlation, of twoscalar r.v.’s X,Y having mean vector (μx,μy) and variances σ

2x,σ

2y, is

ρ ´ ρ(X,Y ) := E[X ¡ μxσx

¢ Y ¡ μyσy

]

THM. - The covariance and the correlation of two scalar r.v.’s X, Y satisfy

Cov(X,Y )2 · V ar(X)V ar(Y ) (Schwarz’s inequality),

¡1 · ρ(X,Y ) · 1respectively.

Proof - Since the expectation of a nonnegative variable is always nonnegative,

0 · E[(θjXj+ jY j)2] = θ2E[X2] + 2θE[jXY j] + E[Y 2], 8θ.

Thus a polynomial with degree 2 (in theta) does not take negative values, so that thediscriminant must be · 0:

E[jXY j]2 ¡ E[X2]E[Y 2] · 0, or E[jXY j]2 · E[X2]E[Y 2].

Replacing X and Y by X ¡ μx and Y ¡ μy, and using j f(t)g(t)dtj · jf(t)g(t)jdt, thisimplies

Cov(X,Y )2 · E[j(X ¡mux)(Y ¡ μy)j]2 · E[(X ¡ μx)2]E[(Y ¡ μy)

2] = V ar(X)V ar(Y )

Since ρ = Cov(X,Y )/ V ar(X)V ar(Y ), this also means

[ρ(X,Y )]2 · 1, i.e. ¡ 1 · ρ · +1. 4

38

Def. - Uncorrelation - Two scalar random variables , Y are said uncorrelated, ororthogonal, when Cov(X,Y ) = 0.

THEOREM - If X,Y are independent random variables, then they are uncorrelated.But the converse is not nrecessarily true:

X,Y independent ) X,Y uncorrelated

HoweverX,Y uncorrelated does not imply X,Y independent

Proof. -If X, Y are independent, then f(x, y) = fX(x) ¢ fY (y). So

E(XY ) =R2

xyf(x, y)dxdy =R

xfX(x)dxR

yfY (y)dy = μx ¢ μy.

But Cov(X, Y ) = E(XY )¡ μxμy, so that X,Y are uncorrelated.Now let U be uniformly distributed in [0, 1] and consider the r.v.’s

X = sin 2πU, Y = cos 2πU.

X and Y are not independent since Y has only two possible values if X is known. Howeverthey are orthogonal or uncorrelated:

E(X) =1

0

sin 2πt dt = 0, E(Y ) =1

0

cos 2πt dt = 0,

so that

Cov(X, Y ) = E(X ¢ Y ) =1

0

sin 2πt cos 2πt dt =1

2

1

0

sin 4πt dt = 0.

In this case the covariance is zero, but the variables are not independent. 4

ALTRI ESEMPI SUI VETTORI ALEATORI

Solo a questo punto, cioe quando compie l’esperienza dell’inquietudine, colui che studiaafferra d’un colpo che non si studia solo per uno scopo contingente (superare un esame o unconcorso) ne per pura gioia intellettuale, ma intuisce che lo studio e la strada maestra percogliere qualcosa di quel mistero che l’uomo e a se stesso e che semplicemente indichiamocome ”avventura della vita”. E cosa afferra colui ce si e lasciato catturare dall’inquietudinedello studio? ”Conosce” che solo mettendosi a servizio di qualcosa di piu grande di se stessopuo vivere una vita degna di essere definita umana.

39

Es. 1. Se X N(3; 25) ed Y N(¡1; 4) e sono indipendenti, trovare la densita di 4X ¡ 5Y .Risposta: sappiamo che ogni combinazione lineare c1X+c2Y di v.a. normali e indipendentie normale con media c1μ1 + c2μ2 e varianza c

21σ

21 + c

22σ

22. Dunque 4X ¡ 5Y e normale con

media e varianza:

μ = 4 ¢ 3¡ 5 ¢ (¡1) = 17; σ2 = 16 ¢ 25 + 5 ¢ 4 = 420

di cui e ben nota la densita.

Es. 2. Siano X,Y uniformi in [0, 1] e indipendenti; trovare distribuzione e densita diT = jX ¡ Y j.

F|X−Y |(t) =|y−x|<t∩[0,1]2

dx dy.

Il dominio e quindi: ¡t · y ¡ x · t, cioe x¡ t · y · x+ t per ogni 0 < t < 1 :

FT (t) =

⎧⎪⎨⎪⎩0 t < 0

1¡ (1¡ t)2, 0 < t < 11, t ¸ 1

per cui fT (t) = +2(1¡ t) ¢ I[0,1](t).Applicazione: il problema dell’incontro. Con quale probabilita si incontreranno due amici,se concordano di arrivare in piazza in due momenti casuali e indipendenti fra le 5 e le 6,ognuno aspettando l’altro fino a dieci minuti?

40

Risposta: prendiamo l’ora per unita di misura, riportiamo all’ora ”zero” i due istantiindipendenti X e Y di arrivo X,Y » U [0, 1]; cerchiamo la probabilita che i due istantidifferiscano in valore assoluto al piu per 1/6 di ora:

P (jX ¡ Y j · 1/6) = 1¡ (5/6)2 = 1¡ (25/36) = 11/36.

Es. (con l’uso delle coordinate polari) - Nel caso che X1,X2 siano indipendenti e normali,con X1,X2 » N(0,σ2), che v.a. e Y = X2

1 +X22?

Per indipendenza la densita congiunta e il prodotto delle densita:

fX1,X2(x1, x2) =1

2πσ2exp[¡(x21 + x22)/2σ2]

che si puo mettere in coordinate polari (y = x21 + x22):

fX1,X2(y cos θ, y sin θ) =1

2πσ2e−y

2/2σ2 .

Si noti che e costante rispetto a θ; dunque l’integrazione fa’ la costante 2π; dunque

fpX21+X

22

(y) =y

σ2e−y

2/2σ2 ¢ I(0,∞)(y) (**)

Questa v.a. Y e la ben nota v.a. di Rayleigh con parametro σ2 .

41

APPROSSIMAZIONE

Conosci te stesso: questo impegno doveva essere assunto da chi desiderava entrare neltempio di Apollo, cioe da chi desiderava entrare in contatto con la sfera divina. Ebbene lastrada verso il cielo passa anche per la conoscenza, perche conoscendo nasciamo di nuovo,ritorniamo alle nostre origini; conoscendo ci e consentito di accedere a quel mistero chealimenta le nostre radici piu remote, a quella trama di infinito su cui e scritta la nostraesistenza, a quello strano miscuglio di terra e di cielo che normalmente chiamiamo ””io””.

Per enunciare l’importante teorema di limite centrale ci serve la suddetta nozione diindipendenza, ma anche un’altra nozione: la ”convergenza in distribuzione”.

Def. La successione di v.a. reali fXngn converge in distribuzione (o ”debolmente”, o ”inlegge”) alla v.a X se e solo se, dette Fn ed F le rispettive funzioni distribuzione, si ha

limn→∞ Fn(x) = F (x)

per ogni punto x 2 R di continuita per F .Es. Prendiamo una successione di v.a. normali con media costante ma con varianzatendente a zero:

Xn » N(μ,σ2n), dove σn ! 0.

Allora la funzione di ripartizione Fn(x) di Xn converge in tutti i punti tranne in x = μ:

9 limn→∞Fn(x) = F (x) =

0, x < μ

1, x > μ

Tutti vedono che F (x), in qualunque modo venga definita per x = μ, e la funzione di ripar-tizione della v.a. costante X = μ. Ebbene, la convergenza delle funzioni di ripartizioneFnad F avviene proprio nei punti di continuita per F . Le v.a. normali Xn tendono allacostante μ in senso debole o ”in distribuzione”.

42

Teorema di limite centrale Sia fXngn una successione di v.a. indipendenti e iden-ticamente distribuite, di media μ e varianza finita σ2 > 0. Allora la loro somman¡esima standardizzata

Sn ¡ nμpnσ2

=X1 + ...+Xn ¡ nμ

σpn

converge in distribuzione ad una v.a. N(0, 1).[ Cio significa che per n! +1 si ha

P [Sn ¡ nμσpn

· x] ! P [N(0; 1) · x] ´ Φ(x), 8x 2 R]

OSS. Il teorema di limite centrale essenzialmente dice che se un fenomeno aleatorio puoessere riguardato come sovrapposizione di un gran numero n di fenomeni aleatori indipen-denti, aventi ciascuno una qualsiasi legge dello stesso tipo, allora tale fenomeno ha unadistribuzione che, per n! +1, converge alla normale.

Quindi per n sufficientemente grande, ai fini di calcolo Sn si puo trattare come se fossenormale con media nμ e varianza nσ2:

Sn ´ X1 +X2 + ...+Xn ' N(nμ;nσ2) approssimativamente

N.B. E il teorema di limite centrale che svela il comportamento asintotico di una bino-miale X » B(n, p) per p fissato ed n divergente. In tale regime, quando i calcoli conla legge binomiale diventerebbero troppo onerosi o proibitivi, viene in aiuto il teorema diapprossimazione della binomiale alla normale:

Teorema di approssimazione di De Moivre e LaplaceSiano k1, k2 interi qualunque non negativi. Sia Sn una successione di v.a. binomiali conparametri n 2 N, 0 < p < 1. Allora per p fissato ed n! +1 si ha

P [Sn ¡ nppnpq

· x] ! P [N(0; 1) · x] ´ Φ(x), 8x 2 R.

Dim. Una v.a. Sn » Bin(n; p) si puo’ ottenere come somma di v.a. di Bernoulli

Sn = Y1 + ...+ Yn, tali che Yi » 0 1q p

, i = 1, ..., n

Infatti si puo’ definire Yi = 0 se nell’i-esima prova c’e’ insuccesso, Yi = 1 se insuccesso. Sele prove sono indipendenti, le Yi sono variabili aleatorie indipendenti. In tal modo la sommaparziale Sn delle Yi funge da contatore dei successi nell’ambito di n prove indipendenti.Inoltre ogni Yi ha la seguente media e varianza:

μ = E Yi = 0 ¢ q + 1 ¢ p = p

σ2 = V ar Yi = (0¡ p)2q + (1¡ p)2p = p2q + q2p = pq(p+ q) = pq

43

per cui nμ = np, e σpn =

pnpq e si applica il teorema di limite centrale:

P [Sn ¡ nμp

nσ· x] = P [Sn ¡ npp

npq· x]! 1p

x

−∞e−t

2/2dt = Φ(x)

OSS. Ai fini pratici di calcolo, per n ¸ 50 ed np ¸ 5 si puo trattare X = Bin(n; p) comese fosse una normale di media np e varianza npq:

X » Bin(n; p) ! X ' N(np;npq) approssimativamente.

Inoltre e bene ampliare di ¡1/2 a sinistra e di +1/2 a destra l’intervallo, di cui si vuolecalcolare la probabilita; in tal modo applicare il teorema di De Moivre-Laplace a una v.a.X » Bin(n; p) consiste nell’uguaglianza approssimata, per n grande:

P [k1 · X · k2] ' P [k1 ¡ 1/2¡ nppnpq

· N(0; 1) · · k2 + 1/2¡ nppnpq

]

Il termine §0.5 e una correzione dovuta al passaggio da una v.a. discreta a una continua.Infatti ogni probabilita binomiale

nk

pkqn−k deve essere tradotta in un’area sotto il

grafico della gaussiana, relativa a un’intervallo di lunghezza 1. Cio avviene spontaneamenteper ogni k tale k1 < k < k2. Ma l’estremo k1 ha a disposizione sotto la curva solo mezzointervallo [k1, k1 +

12 ]; e analogamente l’estremo k2. Allora dobbiamo unire [k1, k2] ai due

semi-intervalli [k1 ¡ 12 , k1], [k2, k2 +

12 ] per garantire l’intero contributo dei due estremi.

Es. (approssimazione della Binomiale alla Normale).Il 10% di bulloni prodotti da unacerta macchina e difettoso. Trovare la probabilita che, in un campione casuale di 400,siano difettosi da 38 a 45 bulloni.

44

X » B(400, 110 ) ha media μ = np = 40, e varianza σ2 = npq = 36. Essendo minfnp, nqg ¸5 ed n > 50 e lecita l’approssimazione normale:

P (38 · X · 45) ' P [ 37.5¡ nppnpq

· N(0; 1) · 45.5¡ nppnpq

]

= P [¡0.41l · N(0, 1) · 0.91] = Φ(0.91)¡ (1¡Φ(0.41)) = 0.818¡ (1¡ 0.659) = 0.477Es. (approssimazione della Binomiale alla Normale). Determinare la probabilita di ot-tenere almeno (¸) 19 ”sette” in 100 lanci di una coppia di dadi equi.

La v.a. X = ”numero di ’sette’ nell’ambito di cento lanci” e binomiale con parametrin = 100 e p = 6

36 =16 . Allora

P (X ¸ 19) ' P [N(0, 1) ¸ 18.5¡ 100/6500/36

) = 1¡ Φ(0.2) = 0.421

Es. Il tempo di sopravvivenza di una lampada e v.a. esponenziale di media μ = 10 giorni.Appena si brucia, essa e sostituita. Trovare la probabilita che 40 lampade siano sufficientiper un anno.

Detta Xi la ”durata della i¡esima lampada”, per i = 1, ..., 40 le Xi sono indipendenti edesponenziali con parametro λ = 1

μ = 1/10. Sappiamo che E(Xi) = λ−1 = 10, V ar(Xi) =λ−2 = 100. Allora la loro somma ha media 40 ¢ 10 e varianza 40 ¢ 100 :

P (X1 +X2 + ...+X40 ¸ 365) ' P [N(0, 1) ¸ 365¡ 400p4000

] = 71%

Es. Si applica il teorema di limite centrale anche per approssimare certi processi detticammini aleatori (”random walks”). Come esempio, supponiamo che un ubriaco distiduecento passi da casa, ma riesca solo a fare, ogni unita di tempo, un passo a destra conprobabilita 1/2 o un passo a sinistra con probabilita 1/2. Quanti passi deve fare per avereprobabilita 20% di arrivare a casa?

Suggerimento: all’istante 0 poniamo l’ubriaco nell’origine, e per ogni j 2 N sia Xj =”spostamento al j-esimo istante”. Dunque

Xj » ¡1 112

12

μE(Xj) = ¡12+1

2= 0, σ2 = E(Xj)

2 ¡ E(Xj)2 = (¡1)2 12+ 12

1

2= 1

Sn ´ X1 + ...+Xn ' N(0;n)) 0.20 = P (Sn ¸ 200) ' P [N(0; 1) ¸ 200¡ 0pn

]

45

) 200pn= φ0.80 ´ 0.84 ) n = 56690. 4

Es. Ogni giorno una ditta guadagna o perde un punto con probabilita 2/4 o 1/4 rispet-tivamente, mentre resta stazionaria con probabilita 1/4. Se questa tendenza perdura per100 giorni, con quale probabilita avra guadagnato almeno 22 punti?

Suggerimento: all’istante 0 poniamo S = 0; per ogni j 2 N siaXj = ”incremento (positivoo nullo o negativo) nel j-esimo giorno”. Quanto valgono μ e σ2 di Xj? Come si comporta,per n grande, il guadagno cumulativo Sn fino al giorno n? Quanto vale P (S100 ¸ 22) ?

Sussiste anche un’approssimazione della v.a. binomiale alla v.a. di Poisson, sia purein un diverso regime:

TEOREMA - La Poissoniana di media μ si puo ottenere come caso limite della Binomialese

p! 0, ed n!1 in modo tale che la media np! μ.

In questo regime, in sostanza, n e grande e p e piccolo in modo che np ' npq (media 'varianza).Dim. - L’idea che giustifica questa approssimazione e abbastanza semplice: consideriamouna v.a. binomiale X » B(n, λn) e studiamo la sua funzione di probabilita per n!1:

P (X = k) =nk

n)k(1¡ λ

n)n−k =

n!

k!(n¡ k)!λk

nk(1¡ λ

n)n−k =

46

=λk

k!(1¡ λ

n)nn(n¡ 1)...(n¡ k + 1)

nk(1¡ λ

n)−k ! λk

k!e−λ

dove abbiamo i limiti:

limn→∞(1¡

λ

n)n = e−λ

limn→∞

n(n¡ 1)...(n¡ k + 1)nk

= 1

(il limite per n ! 1 del rapporto di due polinomi aventi lo stesso grado e uguale alquoziente dei coefficienti dei monomi di grado massimo, qui entrambi uguali ad 1). 4Per questo la Poissoniana e detta a volte ”la v.a. degli eventi rari”: infatti vive in un regimePoissoniano ogni Binomiale con p molto piccolo ed n grande ma non troppo. Tuttavia,se n cresce ulteriormente in rapporto a p, si entra allora nell’altro regime: la funzione diprobabilita binomiale diventa sempre piu simmetrica e sempre piu simile a una densita diGauss centrata in np e varianza npq. Ai fini pratici siamo gia in regime ”Gaussiano” sen ¸ 50 ed np ¸ 5.

Es. (approssimazione della Binomiale alla Poissoniana).Un’azienda vende un preparato in partite di 200 confezioni con la garanzia che tutte sianonon difettose; se la probabilita che una confezione sia non difettosa e 0.5%, con qualeprobabilita una partita viola la garanzia ?

La v.a. X = ”numero di confezioni difettose nell’ambito di 200” e binomiale conparametri n = 200, p = 5

1000 . Essa e bene approssimata dalla Poissoniana Y di medianp = 200 5

1000 = 1. Quindi:

P (X ¸ 1) ' P (Y ¸ 1) = 1¡ P (Y = 0) = 1¡ e−1 ' 63%

ES. - Scelta dell’approssimazione giusta di Bin(n; p), per n ! 1. Per n grande, gliordini di grandezza di n, p decidono se si deve usare l’approssimazione alla Normale o

47

l’approssimazione alla Poisson. Ad esempio: una certa lotteria istantanea ha probabilitadi vincita 0.01 per singolo biglietto. Si domanda:

a) la probabilita che fra 300 biglietti tale vincita si verifichi 2 o 3 volte; (b) la proba-bilita che fra 30000 biglietti quella vincita si verifichi da 295 a 310 volte (estremi inclusi)

Nel primo caso μ = np = 3 e si nota che np ' npq. Allora e appropriata l’approssimazionedi Bin(300; 0.01) a una v.a. Y » Poisson(μ = 3):

P (2 · X · 3) ' e−3(32

2!+33

3!) = 0.441

Nel secondo caso np = 300 ed e appropriata l’approssimazione della binomiale alla normale:

P (295 · X · 310) ' P [ 294.5¡ 300p297

· N(0; 1) · 310.5¡ 300p297

=

= Φ(0.60)¡ Φ(¡0.32) = Φ(0.60)¡ (1¡Φ(0.32)) = 0.725¡ 1 + 0.625 = 0.35 4

48

SCOPO DELLA STATISTICA, STIMATORI, GRADI DI LIBERTA’

Essere afferrati da un problema, da una questione che e’ piu’ grande delle risposteconosciute e la cui soluzione non si lascia rintracciare in modo semplice e scontato, e’la vera esperienza dello studio. Si passa allora dallo studio (e dalla scuola) dell’obbligoall’obbligo (interiore) dello studio.

Una popolazione e un’ampia collezione di valori di una variabile aleatoria. Essasi puo descrivere con una funzione densita, nel caso continuo, o di probabilita, nel casodiscreto, che dipende da alcuni parametri (ad es. media, varianza).Un campione e un sottoinsieme della popolazione, cioe un insieme di valori fx1, ..., xngestratti dalla popolazione.

Compito della statistica e risalire dai campioni ai parametri della popolazione.

Oss.Assumiamo che i dati campionari xi siano v.a. indipendenti e identicamentedistribuite (i.i.d.). Esse sono distribuite come la popolazione (quindi con stessi parametri:media, varianza, etc).

Def. Un riassunto o statistica o stimatore e una funzione dei dati campionari:r = r(x1, ..., xn). Uno stimatore puntuale r fornisce un singolo valore come stima di uncorrispondente parametro r della popolazione.

Per chiarire: i parametri, quali μ,σ, sono costanti numeriche di solito incognite, rela-tive alla popolazione. Gli stimatori, quali la media campionaria

x :=1

n

n

1

xk

o la varianza campionaria corretta

s =1

n¡ 1n

1

(xk ¡ x)2

sono variabili aleatorie, perche dipendono dalle n v.a. xi. Ebbene, ogni stimatore avra unasua distribuzione di probabilita. Ad esempio:

Teorema. Se x1, ...xn sono v.a. i.i.d. con media μ e varianza σ2,

E(x) = μ; V ar(x) ´ (σx)2 = σ2

n.

Se inoltre le v.a. xi sono normali, allora x » N(μ, σ2n ).

49

Dim. Si sa che la media e un operatore lineare:

E[x] =μ+ ...+ μ

n= μ.

Inoltre, per v.a. indipendenti, la varianza di una somma e uguale alla somma delle varianze,percio:

V ar[x] =1

n2(σ2 + ...+ σ2) =

σ2

n.

Infine si sa che la somma di v.a. normali e normale.

Def. Si dice errore standard la deviazione standard di x :

σx =σpn.

In sintesi: x ha la stessa media della distribuzione originale, ma dispersione minore,pari a σ/

pn. L’errore standard e importantissmo: misura la dispersione della media del

campione rispeto alla media parametrica μ.

Def. Dato uno stimatore r(x1, ..., xn), il numero dei gradi di liberta e il numero discarti linearmente indipendenti, cioe degli scarti il cui valore non dipende dal valore assuntodagli altri scarti.

Es. Prendiamo come tipico esempio la devianza , lo stimatore definito come sommadei quadrati degli scarti rispetto alla media campionaria:

SS(x) =n

i=1

(xi ¡ x)2

Il numero di gradi di liberta della devianza e n ¡ 1. Infatti, poiche i(xi ¡ x) = 0, gliscarti sono indipendenti tranne l’ultimo, che si puo ottenere come l’opposto della sommadei primi n¡ 1.

Ma non sempre il risultato e cosi ovvio: in questi casi il numero degli scarti indipen-denti si calcola come numero degli scarti, diminuito del numero delle statistiche stimate sulcampione e utilizzate per il calcolo degli scarti stessi. Nel caso della devianza: n = numerodi scarti; per calcolarli e necessario prima calcolare x; quindi gli scarti indipendenti sonon¡ 1.

DISTRIBUZIONI COLLEGATE ALLA NORMALE

Mentre frequentiamo le aule di un’universita, in verita siamo tutti come in attesa,come in procinto di ricevere una chiamata. La chiamata di quel problema, di quel tema,di quella domanda, di quella questione che si candidano a diventare ”il nostro problema”,

50

”il nostro tema”, ”la nostra domanda”, ”la nostra questione”: la chiamata di cio che recail sigillo dell’inquietudine.

DEF. Se z » N(0, 1) e la v.a. normale standardizzata, la v.a. z2 e detta ”chiquadrato con 1 grado di liberta”. Se zi » N(0, 1), sono ν v.a. normali standardizzateindipendenti, la somma dei loro quadrati e detta ”chi quadrato con ν gradi di liberta:”

z2 ' χ2(1),ν

i=1

z2i » χ2(ν).

Nota. Al crescere di ν crescono sia la media sia la dispersione:

E[χ2(ν)] = ν, V ar[χ2(ν)] = 2ν

DEF. Si definisce una v.a. t(ν) detta ”t di Student con ν GL”:

t(ν) =X

Y/ν, con X » N(0, 1), Y » χ2(ν) indipendenti.

Nota. Ai nostri fini bastera ricordare che t(ν) ha densita continua e pari rispettoall’origine, con media e varianza:

E[t(ν)] = 0, V ar[t(ν)] =ν

ν ¡ 2 ,

e che converge in legge alla N(0, 1) per ν !1.

Ecco perche sono utili il ”chi quadro”, la ”t di Student” e una ulteriore v.a. tabulatanei testi detta ”F di Fisher”:

TEOREMA sul ”chi quadro” - La varianza campionaria corretta s2 = 1n−1

ni=1(xi ¡ x)2

relativa ad n dati indipendenti normalmente distribuiti xi » N(μ,σ2), i = 1, ..., n, euno stimatore corretto della varianza parametrica, cioe la sua media e uguale a σ2:

E[1

n¡ 1n

i=1

(xi ¡ x)2] ´ E[s2] = σ2.

Inoltre s2 e una variabile aleatoria proporzionale al chi quadro con n¡ 1 gradi di liberta:

s2 ´ 1

n¡ 1n

i=1

(xi ¡ x)2 » σ2

n¡ 1χ2(n¡ 1).

51

Dim.:Scrivendo xi ¡ μ = xi ¡ x + x¡ μ, e notando che (xi ¡ x) = 0, i prodotti misti hannosomma nulla e si trova:

E[n

i=1

(xi ¡ μ)2] = E[i

(xi ¡ x)2 +i

(x¡ μ)2]

Ma σ2 e la varianza xi, σ2/n e la varianza di x:

nσ2 = E[i

(xi ¡ x)2] + nE[(x¡ μ)2] = E[i

(xi ¡ x)2] + nσ2

n

Quindi:

E[i

(xi ¡ x)2] = (n¡ 1)σ2 =) E[s2] = σ2.

Ricordiamo che (xi¡μ)/σ » N(0, 1) e che x¡μ/(σ/pn) » N(0; 1). Allora per definizione

di χ2,

i

(xi ¡ μ

σ)2 » χ2(n), (

x¡ μ

σ/pn)2 =

(X ¡ μ)2

σ2/n» χ2(1)

Ora scrivendo xi ¡ μ = xi ¡ x+ x¡ μ, si puo’ verificare la scomposizione:

χ2(n) =n

i=1

(xi ¡ μ

σ)2 =

n

i=1

(xi ¡ x)2σ2

+ n(x¡ μ

σ)2 =

=(n¡ 1)s2

σ2+ n(

x¡ μ

σ)2.

Percio la v.a.(n¡ 1)s2

σ2

e la differenza tra una v.a. χ2(n) e una v.a. χ2(1): si tratta di una v.a. con distribuzioneχ2(n¡ 1). 4.

TEOREMA sulla ”t di Student”.Nella solita ipotesi di popolazione distribuita normalmente con media μ e varianza σ2, loscarto standardizzato stimato segue la distribuzione t di Student con n¡ 1 GL, cioe

x¡ μ

s

pn ' t(n¡ 1).

Dim. - Lo scarto standardizzato z = x−μσ

pn e una normale standard; inoltre

s2 » σ2

n¡ 1χ2(n¡ 1) =) s

σ» χ2(n¡ 1)

n¡ 152

Allora

x¡ μ

s/pn=x¡ μ

σ/pn¢ σ/

pn

s/pn=N(0; 1)

s/σ=

N(0; 1)

χ2(n¡ 1)/(n¡ 1) = t(n¡ 1)

TEOREMA sulla ”F di Fisher”. Disponendo di due stime indipendenti della varianza diuna popolazione normalmente distribuita, il loro rapporto e distribuito secondo la legge Fcon n1 ¡ 1 ed n2 ¡ 1 GL, cioe:

s21s22= ' F (n1 ¡ 1, n2 ¡ 1).

dove n1, n2 sono le lunghezze dei due campioni indipendenti.

53

INTERVALLI DI FIDUCIA

Ora riuscirai a intuire che quella domanda, quell’autentico interrogativo per chiunquesi avventuri sui sentieri della conoscenza sia proprio il seguente: Per chi studio? Per chimi impegno nel lavoro intellettuale? Altre risposte che puntassero a una visione strumen-tale del lavoro intelletuale (Per che cosa studio?) al termine delle nostre riflessioni sonoovviamente da scartare. In verita, tu studi per te: studi per allargare l’orizzonte del tuosguardo, per liberare la tua intelligenza da ogni pregiudizio e falso idolo che impedisconodi fare spazio a cio che di nuovo ci viene incontro, per allargare la nativa ospitalita dellatua anima sino ad accogliere il mondo intero.

D’ora in poi, salvo avviso contrario, la popolazione sara supposta normalmente dis-tribuita. Ovviamente μ e σ sono incognite; posso soltanto estrarre un campione e calcolarele stime puntuali x, s.

La domanda in questo ambito potrebbe essere: dato un particolare campione, qualeintervallo del tipo (x ¡ δ, x + δ) conterra la media incognita μ con probabilita pari (osuperiore) a 95% ?N.B. Naturalmente e legittimo cercare un simile intervallo relativamente ad una proba-bilita diversa. Probabilita abitualmente richieste sono 90%, 95%, 99%, 99.5%. In questicasi si parla di intervallo di fiducia con ”livello” α = 10%, o α = 5%, o α = 1%, o α = 0.5%.Inoltre sono intervalli di fiducia con livello α anche intervalli non necessariamente sim-metrici: ad es. (¡1, x+ δ ] con la proprieta P (μ 2 (¡1, x+ δ ]) ¸ 1¡ α. ]

Intervallo di fiducia di una media, nota σ: Con probabilita pari al 95%

μ = x § 1, 96 ¢ σpn.

Dim. Poiche e nota σ, conosciamo anche la varianza della v.a. normale x :

V ar(x) =1

n2V ar(x1 + ...+ xn) =

σ2

nper cui σx =

σpn.

Dunque, chiamando Z la normale standardizzata, consultiamo le tavole e troviamo

95% = P (¡1, 96 · Z · 1, 96) = P (¡1, 96 · x¡ μ

σx· 1, 96)

= P (μ¡ 1, 96σx · x · μ+ 1, 96σx)

cioe appunto μ = x § 1, 96 ¢ σ/pn. Analogamente, ad es., l’intervallo di confidenza conprobabilita pari al 99% e μ = x § 2, 58 ¢ σ/pn.

Intervallo di fiducia per una media, σ incognita. Con probabilita 95%,

μ = x § t∗ ¢ s/pn.

54

dove t∗ = t0.975(n ¡ 1) e il valore della v.a. di Student, con n ¡ 1 GL, che esclude il 5%(2,5% per parte). Piu in generale l’intervallo di fiducia al livello α per la media di unapopolazione approssimativamente gaussiana e

μ = x § t1− α/2(n¡ 1) ¢ s/pn.

Dim. Poiche e ignota σx = σ/pn, la standardizzazione dello scarto e ottenuta con

x¡ μ

sx= t, dove sx = s/

pn

Questa e precisamente la t di Student con n¡ 1 GL Allora dalle tavole si trova il numerot∗ = t0.975(n¡ 1) tale che

95% = P (¡t∗ · tn−1 · t∗) = P (¡t∗ · x¡ μ

s/pn· t∗)

= P (x¡ t∗ ¢ s/pn · μ · x+ t∗ ¢ s/pn).

Es. Nella produzione di semiconduttori non si puo controllare esattamente la loro re-sistenza. Allora si scelgono a caso n = 5 elementi, e le misure xi, i = 1, ..., 5, sono 24, 26,30, 28, 22.Se non conosco il parametro σ della popolazione

x = 26 s2 =1

n¡ 1 (xi ¡ x)2 = 40/4 = 10 s = 3, 16

s/pn = 1, 41 μ = 26§ t0.975(4) ¢ 1, 41 = 26§ 2.78 ¢ 1.4126 = 26§ 3.9.

Quindi l’intervallo di fiducia al livello α = 5% e [22.1, 29.9].Qualora la varianza fosse proprio σ2 = 10,

σ = 3.16 σx = 3.16/p5 = 1.41 μ = 26§ 1.96 ¢ 1.41 = 26§ 2.77.

Visto che e piu accurato l’intervallo di confidenza? Si capisce: avendo un’informazione inpiu, che e σ, e meglio precisata la media.

Quale proporzione p, (0 < p < 1) di una popolazione ha una certa proprieta, conoscendola proporzione p in un campione di lunghezza n ? Ebbene per n grande (cioe, empirica-mente, se n ¸ 30, np ¸ 5) si procede cosi:Intervallo di fiducia di una proporzione per n grande.Supponiamo che la proporzione osservata in un campione di lunghezza n sia p. In condizionidi approssimazione della binomiale alla normale, con probabilita 95% la proporzione ”vera”nella popolazione e

p = p§ 1.96 pq/n.

55

Con probabilita 1¡ α la proporzione ”vera” nella popolazione e

p = p§ φ1−α/2 pq/n.

Cenno di dim. Lo stimatore e p = Znn , dove Zn » B(n; p); allora

E(Znn) =

1

nnp, V ar(

Znn) =

1

n2V ar(Zn) =

1

np(1¡ p) ´ .

Chiamando q = 1¡ p e usando l’approssimazione della Binomiale alla Normale,

Zn » N( p,1

npq) ).

L’intervallo di fiducia per la proporzione incognita p e determinato dalla uguaglianza:

95% = P (Znn¡ δ · p · Zn

n+ δ) =

' P (δ + p ¸ N(p, p(1¡ p)n

¸ p¡ δ) =

(standardizzando) = P (δ

pq/n¸ N(0, 1) ¸ ¡ δ

pq/n).

Per sfortuna c’e non solo l’incognita δ ma anche l’incognita p. Un procedimento e mettere,al posto di p il valore sperimentale dello stimatore p; di per se non e rigoroso, ma si provache questa sostituzione e giustificabile come ottima approssimazione, specialmente se p none troppo vicino a 0 o ad 1. Dunque

δ/ pq/n = 1.96 ´ φ0.975.

Generalizzando

1¡ α = P (Znn¡ δ · p · Zn

n+ δ) =) δ = φ1−α/2 ¢ pq)/n

Es. di stima di una proporzione: un sondaggio preelettorale su un campione casuale din = 150 votanti, ne ha trovato 84 favorevoli al candidato X. Vogliamo un intervallo difiducia al livello α = 1% per la proporzione favorevole ad X.

La proporzione stimata e p = 0.56 ed n e grande, dunque

p = p § φ0.995pq

n=

= 0.56 § (2.575)(0.56)(1¡ 0.56)

150= 0.56§ (2.575) ¢ (0.04) = 0.56§ 0.104

56

Ne risulta un intervallo da 0.456 a 0.664. Notare che l’intervallo contiene valori inferioricome superiori al 50%, percio il candidato non puo predire con fiducia 99% di vincere leelezioni.

Es. Prima dell’esperimento (e quindi prima di conoscere p), si puo prevedere la dimen-sione n del campione ai fini della precisione richiesta. Ad es. un sondaggio preelettoralecerca la proporzione di favorevoli al candidato X. Esso deve garantire un errore di stimainferiore all’1%, avendo fissato la fiducia 1¡ α = 95%. Quale dimensione di campione sirichiede a tal fine?

Imponiamo che l’errore di stima sia inferiore a 0.01:

φ1−α/2 pq/n · 0.01

Si nota che la funzione p! p(1¡ p) ha il suo massimo in 0.5, dove ha valore 0.25; e questoconsente almeno di maggiorare l’incertezza:

φ1−α/2 pq/n · φ0.975 (0.5)(0.5)/n · 0.01

pn ¸ (100) ¢ (1.96)(0.5) =) n ¸ 104 ¢ (1.96)2(0.5)2 = 9604

E’ necessario un campione abbastanza grande a causa sia dell’alta precisione richiesta, siadell’alta fiducia.

Oss. Significato dell’intervallo di fiducia: ci attendiamo che 95 volte ogni cento provel’ intervallo di fiducia contenga il ”vero” parametro della popolazione.

E’ improprio dire ”μ ha una probabilita del 95% di essere compresa ...”. Infatti μ e unparametro, una costante numerica priva di errore; cio che e aleatorio e proprio l’intervallodi fiducia, che dipende dal campione estratto. E’ falso dire: ”il 95% delle mele ha undiametro compreso tra...” perch’e gli estremi di fiducia informano solo sul valor medio μdella popolazione: non e possibile per questa via fare previsioni sui valori di individui o disottogruppi.

TEST DELLE IPOTESI

Il sapiente e anzitutto uno che sa distinguere e apprezzare l’alterita. Non si lasciailludere mai dai luoghi comuni del tipo: ”Siamo tutti uguali” o ”Ogni mondo e paese”.Sa che il mondo si regge su tante piccole differenze che debbono essere rispettate. Percioriconosce l’ambivalenza di ogni fenomeno, sforzandosi di considerarne le opposte polarita.

Def. Un test statistico e un procedimento che consente di rifiutare oppure di nonrifiutare una ipotesi concernente un parametro della popolazione in esame.

57

Praticamente e un dispositivo per misurare la discrepanza tra il parametro che ci si attendedall’ipotesi fatta, e quanto si osserva nel campione.

Procedura del test di una ipotesi1) Si formula una ipotesi H (”ipotesi nulla”) su un parametro θ della popolazione: ad es.

H : θ = θ

contro un’ipotesi alternativa

H1 : θ = θ1 con θ1 > θ

[tale e un’ipotesi semplice; essa e complessa quando include piu valori del parametro, ades. θ > θ ]2) si sceglie una statistica (funzione del campione) θ(x1, ..., xn) di cui si conosca la dis-tribuzione3) si sceglie (secondo il criterio sotto esposto) una soglia o valore critico c tale cheθ < c < θ14) se θ cade nella regione (¡1, c) allora si accetta (meglio, non si rifiuta) l’ipotesi H; seθ cade in [c,+1) allora si rifiuta H a favore dell’alternativa H1.Def. Errore di prima specie: viene rifiutata H quando e vera:

θ(x1, ..., xn) ¸ c, H e vera

Errore di seconda specie: non viene rifiutata H quando e falsa:

θ(x1, ..., xn) < c, H e falsa.

Si chiama α la probabilita di errore di prima specie:

α = P (θ > c)jθ=θ

dove il simbolo P (...)jθ=θ indica che la probabilita e calcolata in base alla distribuzionedi probabilita implicita nell’ipotesi H.Si chiama β la probabilita di errore di seconda specie:

β = P (θ · c)jθ=θ1 .

Per enunciare come si fissa il valore critico c, diamo un esempio preliminareEs. La nascita di un bimbo o di una bimba hanno davvero uguale probabilita? Per saperlosi mette a test

l’ipotesi H : θ = 1/2; contro l’ipotesi alternativa H1 : θ > 1/2.

58

Usiamo un campione di n = 3000 nascite in una certa citta: in esso contiamo 1570 bimbi.Una tale eccedenza di bimbi maschi (rispetto ai circa 1500 che ci si aspetta in base ad H)potrebbe essere dovuta semplicemente a un campione casualmente anomalo.

Detta X la v.a. Binomiale ”numero di bimbi maschi fra n = 3000 nati”, noi scegliamola soglia c in modo che, se H e vera, la probabilita di un campione con X ¸ c non superiun prefissato α abbastanza piccolo. Scegliendo ad es. α = 0.01, otteniamo c dall’equazione

P (X ¸ c)jθ=0.5 = α = 0.01 ,

cioe

k≥c

3000k

(1

2)k(1

2)3000−k = 0.01

Questo calcolo e lungo, ma per il teorema di De Moivre - Laplace possiamo approssimareX con una v.a. normale di media μ = nθ = 1500 e varianza σ2 = nθ(1¡ θ) = 750. Quindiricaviamo c dall’uguaglianza

0.01 ' P [N(0; 1) ¸ c¡ 0.5¡ 1500p750

].

Consultando le tavole c e tale che:

c¡ 1500.5p750

= φ0.99 = 2.32 =) c = 1564,

Poiche 1570 > 1564 rifiutiamo l’ipotesi H.

Oss. L’esempio proposto chiarisce la domanda cruciale: il valore osservato e dis-costo dal valore atteso solo per le usuali leggi del caso, o si nota una discrepanza cheragionevolmente non puo essere attribuita al solo caso ?

Ebbene: il ”caso” vuol dire la distribuzione di probabilita implicita nell’ipotesi H.Imponiamo che, se vale H, sia piccola la probabilita di rifiutare H:

Scelta del valore critico c:3a) si fissa un ”livello di significativita” α (ad es. α = 0.05, o 0.01, o 0.001);3b) si sceglie c tale che la probabilita di errore del I tipo sia uguale ad α:

P (X ¸ c)jH = α

Oss. Il ”livello di significativita” α e la probabilita di errore del primo tipo. Ed1 ¡ α e detto ”livello di protezione” del test. Ad es. per affermare che un nuovomotore e meno inquinante di un altro si fa l’ipotesi nulla (= i due inquinamenti sonosupposti equivalenti) e si cerca di smentirla sperimentalmente. Si potra dire che il nuovomotore e meno inquinante del vecchio solo se la discrepanza dell’osservato dall’atteso e”significativa”, nel senso che α = 1% o 5%.

59

Oss. Quando l’esito dell’esperimento e θ < c, allora si accetta l’ipotesi H. Ma c’e unaprobabilita di errore di seconda specie chiamata β in letteratura statistica.

Se l’ipotesi alternativa e semplice (H1 : θ = θ1) allora β e il numero : β = P (θ ·c)jθ=θ1 . Il numero 1¡ β e la ”potenza” del test.

Oss.: α e β antagoniste. Non si possono rendere contemporaneamente piccole le prob-abilita α e β. Per convincersene: rappresentare il grafico di due densita di probabilitagaussiane, la prima con media θ, la seconda con media θ1 > θ. Ovvio che α e l’areasottesa al primo grafico in [c,+1). Invece β e l’area sottesa al secondo grafico in (¡1, c].Piu α e piccolo, piu c e spostato a destra, piu e grande di conseguenza β. Analogamente,piu β e piccolo, piu grande risulta α. Significativita e potenza di un test sono antagoniste.

In pratica: si fissa α, si determina c, e infine si calcola β quando si ha interesse ancheper la potenza. Se β e giudicato troppo grande, o si trova un compromesso alzando α,oppure si amplia il campione (aumentare n e l’unico modo di abbassare insieme α e β).

Oss. IL VALORE p - Con i software statistici si guarda in pratica il ”valore p”. Se,come nel precedente esempio, la regione di rifiuto e una semiretta destra, e se k e il valoresperimentale della statistica, allora

p = P [θ ¸ k]jH .

Nell’esempio sopra esposto, dove si osserva il valore k = 1570,

p = P (X ¸ 1570)jH = P (N(0, 1) ¸ 1570¡ 1500p750

) = = 0.005

Significa: questo esperimento respinge l’ipotesi H anche al livello di significativita 0.005Se ad es. il dato sperimentale e k = 1560, esso non e in grado di rifiutare H al livello 0.01;pero rifiuta l’ipotesi nulla al livello P (X ¸ 1560) = P (N(0, 1) ¸ 2.19) = 0.014 (e anche adogni livello meno fine, come α = 0.02, α = 0.05, ecc.). In conclusione: il valore p (p-value)e il piu fine livello di significativita con cui un esperimento rifiuta l’ipotesi nulla.

TEST ESEGUITI SU UN SOLO CAMPIONE

Avere una disciplina manifesta la capacita di dare il il giusto tempo a cio che e piu im-portante e il tempo giusto a cio che lo e di meno. Riflette le nostre profonde convinzioni.Non si identifica con un atteggiamento schematico (ora studio, ora pausa, ora studio).Vivere lo studio con disciplina comporta piuttosto concedere a noi stessi l’opportunita dicrescere, di dialtare gli orizzonti, di raffinare gli strumenti della nostra lettura e inter-rogazione del reale - cose che esigono inevitabilmente tempo, cura, passione, calma, con-centrazione, respiro sereno...

Questi test sono fatti su un singolo campione, tratto da una popolazione gaussiana.

60

Test su una media. Per un campione x1, ..., xn di legge normale consideriamo iltest dell’ipotesi

H : μ = μ contro μ > μ

Se il livello di significativita e α, una regione critica o di rigetto e:

t ¸ t1−α(n¡ 1), dove t =x¡ μ

s/pn.

Analogamente, se si vuole un test ”bilatero” nel senso che

H : μ = μ contro H1 : μ6= μ,

una regione di rigetto ef jtj ¸ t1−α/2(n¡ 1)

Dim. Se μ e il valore della media, la statistica

t =pn(x¡ μ)/s

segue una legge di Student t(n¡ 1). Dunque, se vale l’ipotesi H,

α = P (x¡ μs/pn

¸ t1−α(n¡ 1))

In conclusione l’eventoft ¸ t1−α(n¡ 1) g

e una regione di rigetto di livello α : si calcola t a partire dall’osservazione; se il valoresperimentale e maggiore o uguale al valore critico t1−α(n¡ 1) l’ipotesi e respinta al livelloα; altrimenti non c’e sufficiente evidenza per respingere H.E’ poi analoga la costruzione del test bilatero, come enunciato.

Es. Il tempo medio di vita di una lampadina prodotta da una fabbrica era di 169 ore.Dopo avere installato un nuovo apparecchio nella catena di montaggio, si vuole sapere sesi e allungato tale tempo medio. Si campionano 121 lampadine prodotte trovando tempidi vita con media e varianza campionarie:

x = 171, s2 = 85

Si e allungata la vita media?

Si tratta di fare un test per l’ipotesi

H : μ = μ contro μ > 169

ad esempio con livello α = 5%. Allora il valore sperimentale

t =x¡ 169s/pn=

2p85/p121

= 2.38

61

e superiore al valore criticot0.95(120) = 1.657 .

L’ipotesi che la vita media non sia aumentata e dunque respinta al livello α = 5%; anziviene respinta anche al livello 1% , dato che t0.99(120) = 2.357. Piu precisamente il ”valorep” (=il piu fine livello di significativita con cui H viene respinta in base a questi dati) e0.0094 ´ 0.94% [calcolato con un software, perche le tavole della t di Student non dannoquesta informazione].

Test su una proporzione per n grande. Supponiamo di voler saggiare il parametrop di una popolazione Bernoulliana. Si estrae il campione

xi » 0 11¡ p p

i = 1, ..., n

di rango n abbastanza grande. Sia

p = Zn/n, con Zn = x1 + ...+ xn

la proporzione stimata di ”successi”. Allora, al livello α, il test bilatero

H : p = p contro H1 : p6= pha una regione di rigetto data da:

fj p¡ pp(1¡ p)/n

j ¸ φ1−α/2g.

Analogamente si costruiscono i test a una coda.

Dim. Poiche Zn » B(np, np(1¡ p)),

E[Znn] = p, V ar[

Znn] =

1

n2np(1¡ p)

Standardizzando e applicando il teorema di De Moivre-Laplace

p¡ pp(1¡ p)/n

» N(0, 1) per n!1

[Criterio pratico: n > 30 con np o nq > 5]. Dunque la regione di rigetto di livello α siottiene cosi:

α = P [N(0, 1) · φα/2 ovvero N(0, 1) ¸ φ1−α/2]

' P [ j p¡ pp(1¡ p)/n

j ¸ φ1−α/2]

La regione di rigetto per il test a una coda si trova facilmente con analoghe considerazioni.

62

Es. Per la legge 626 sulla sicurezza un’azienda deve garantire che i dipendenti lavorinoesposti a certe superficie radianti meno del 3% del tempo lavoro. Si fanno 1000 controlli inistanti casuali e si trova il generico dipendente esposto 27 volte su 1000. Si pu‘o affermareche la proporzione di esposizione e inferiore al 3%?

Il test e a una coda:H : p = 0.03 contro p < 0.03

Potremo rigettare p = 0.03 al livello α se la proporzione stimata p e sufficientementepiccola:

α = P (N(0, 1) · φα) ' P [p¡ p

p(1¡ p)/n· φα]

p · p + φα p(1¡ p)/n = (0.03) + φα (0.03)(0.97)/1000

cioe, prendendo α = 5%,

p · 0.03 + (¡1.65)(0.00539) = 0.03¡ 0.0089 = 0.0211Poiche p = 0.027 non e in tale regione di rigetto, l’azienda non puo dimostrare che idipendenti siano al sicuro.

TEST SU PROPORZIONI mediante chi quadro.

Si e gia illustrato il test su una proporzione: si tratta di fare un confronto tra pro-porzione attesa (ad es. p = 1/2 per le nascite di bimbi,...) e proporzione p osservata. Piu ingenerale, possono esserci piu sottogruppi della popolazione da considerare. Inoltre limiti-amo l’attenzione a grandi campioni in modo da applicare alla binomiale o alla multinomialeun’approssimazione di tipo normale. Ebbene, se con una sola proporzione indipendentee equivalente la scelta tra normale e χ2(1), piu generale si deve usare la χ2 con tanti GLquante sono le proprozioni indipendenti:

PROPOSIZIONE Sia H : π1, ...,πr una ipotesi sulle proporzioni di r sottogruppi in unapopolazione, in modo che π1 + ...+ πr = 1. Siano fo le frequenze assolute osservate in uncampione di dimensione n, in modo che fo,1 + ... + fo,r = n. Siano fa le frequenze attesein base ad H, tali che fa,1 = nπ1, ..., fa,r = nπr. Allora, per n grande, la statistica

(f ¡ fa)2fa

= χ2r−1

segue una distribuzione χ2 con r ¡ 1 GL.Idea. Ci proponiamo di dare l’idea mediante il caso r = 2. Abbiamo:

fo : x, n¡ x; fa : nπ, n(1¡ π).

Sostituendo e ricordando che in una distribuzione di Bernoulli σ2 = nπ(1 ¡ π), un brevecalcolo mostra:

(f ¡ fa)2fa

´ (x¡ nπ)2nπ

+[n¡ x¡ n(1¡ π)]2

n(1¡ π)=(x¡ nπ)2nπ(1¡ π)

=(x¡ μ)2

σ2

63

che e a rigore la v.a. di Bernoulli standardizzata al quadrato. Per n grande possiamointerpolarla con la Z2, che equivale a χ2(1) per definizione di chi quadro.

Es. Nei piselli due geni controllano il colore (giallo o verde, con proporzione attesa 3/4e 1/4 ) e la forma (liscio o non liscio con proporzione attesa 3/4 e 1/4). Se operanoindipendentemente mi attendo:

(3/4)(3/4) = 9/16 dei semi lisci e gialli

(3/4)(1/4) = 3/16 lisci e verdi, 3/16 grinzosi e gialli, 1/16 gr.e verdi

In n = 100 semi osservo: 60 lisci e gialli, 21 lisci e verdi, 17 grinzosi e gialli, 2 grinzosi everdi. Il modello genetico si attende rispettivamente:

fa,1 = 100 ¢ 9/16 = 56.25 fa,2 = fa,3 = 18.75 fa,4 = 6.25.

Abbiamo 4 scarti, di cui tre indipendenti:

χ2 =60¡ 56.25)2

56.25+(21¡ 18.75)2

18.75+(17¡ 18.75)2

18.75+(2¡ 6.25)26.25

= 3.57

che risulta minore di χ20.95(3) = 7.81. Non c’e motivo di respingere il modello mendeliano.

Quando non si conosce la distribuzione della popolazione, il test chi quadrato appenaesposto serve a sapere se i dati sperimentali si adattano o meno a una distribuzione teoricaipotizzata dallo sperimentatore.

TEST DI ADDATTAMENTO mediante chi quadro.

Si estrae un campione [x1, ..., xn] da una popolazione X avente funzione di ripartizioneignota F (x). Sotto l’ipotesi nulla

H : F (x) = F(x) (contro H1 : F (x)6= F(x) )

si suddividono i valori di X in m sottoinsiemi I1, ..., Ir disgiunti e si definisce:

πi = P (X 2 Ii)jH , Ni = #fxj che cade in Iig.

Allora la statistica

χ2 =m

i=1

(Ni ¡ n ¢ πi)2n ¢ πi

si distribuisce come una v.a. χ2 con m ¡ 1 gradi di liberta. Al livello α, una regione dirifiuto sara [χ21−α(m¡ 1),+1).Dim. Sotto l’ipotesi nulla, le frequenze assolute attese sono n ¢ pi, le frequenze osservatesono Ni, i = 1, ..., r. Quindi il test trasforma l’ipotesi nulla H : F = F in quellaequivalente

H : π1, ...,πr, i = 1, ..., r

64

dove πi sono le proporzioni teoriche. L’ipotesi alternativa e che almeno una proporzionesia diversa. 4ES. - Vogliamo saggiare se un campione di 40 numeri tra -3 e 3 e normale standard: Inumeri osservati sono:

0.04 1.86 2.86 2.13 ¡ 1.37 ¡ 2.77 ¡ 2.28 ¡ 0.76 2.51 ¡ 2.90 ¡ 0.58 0.54

0.09 1.20 1.50 0.63 2.13 1.632.25 ¡ 1.59 1.15 2.55 ¡ 2.88 ¡ 2.79¡2.08 ¡ 1.43 ¡ 0.71 ¡ 2.64 ¡ 2.89 ¡ 2.630.82 ¡ 0.62 1.24 ¡ 1.17 ¡ 2.33 2.49

0.02 ¡ 1.67 ¡ 1.03 2.66

Ne conto N1 in (¡1, 1) , N2 in (¡2,¡1), N3 in (1, 2), N4 in (¡3,¡2) e N5 in (2, 3):

N1 = 10, N2 = 6, N3 = 6, N4 = 10, N5 = 8.

Secondo H, ipotesi che la popolazione sia N(0; 1), le frequenze assolute attese sono:

40 ¢ π1 = 40 ¢ P [¡1 < N(0; 1) < 1] = 27.30

e analogamente

40 ¤ π2 = 5.43, 40 ¤ π3 = 5.43, 40 ¤ π4 = 0.86, 40 ¤ π5 = 0.86

Allora:(10¡ 27.30)2

27.30+(6¡ 5.43)25.43

+6¡ 5.43)25.43

+

+(10¡ 0.86)2

0.86+(8¡ 0.86)20.86

= 167.50

Poiche χ20.95(4) = 9.48, il chi quadro sperimentale cade abbondantemente nella regione dirifiuto: la distribuzione soggiacente non e affatto normale. 4

TEST ESEGUITI SU DUE CAMPIONIConfronto tra 2 medie, con varianza incognita

La disciplina dello studio ci consegna infine un ultimo grande segreto: imparare e sem-pre diventare discepoli di un maestro. Certo, l’apprendistato presso un maestro richiedeumilta, attenzione, pazienza, disponibilita, ma i benefici sono di gran lunga superioriall’impegno: perche i maestri sono coloro che ci insegnano come - non semplicementeche cosa - pensare ( e vivere). Essi forgiano il nostro sguardo, il nostro modo di interrog-are la realta, di leggere un libro, di stendere una relazione. Il maestro non ti insegna unastrada. Ti insegna a leggere le mappe; se non ce ne sono, a costruirle.

65

Supponiamo di avere estratto due campioni, ciascuno da una popolazione normalmentedistribuita: la prima con media μ1 e varianza σ2, la seconda con media μ2 e varianzauguale alla precedente. I due campioni sono indipendenti con lunghezze n1, n2 e conmedie campionarie x, y. Spesso si vuole sapere se le due medie sono significativamentediverse, e quasi sempre e incognita la varianza comune alle due popolazioni, cioe σ2. A talfine si mette a test l’ipotesi nulla

H : μ1 = μ2, (ossia μ1 ¡ μ2 = 0)

contro l’ ipotesi alternativa

H1 : μ1 diverso da μ2, (ossia μ1 ¡ μ2 diverso da 0).

Confronto tra due medie da campioni indipendentiL’ipotesi di tutti i nostri modelli che coinvolgono due o piu popolazioni e l’omogenita

delle varianze. Detta σ2 la varianza comune, essa e stimata dalla varianza mediata (”pooledvariance”):

s2 = [(n1 ¡ 1)s2x + (n2 ¡ 1)s2y]/(n1 + n2 ¡ 2).Per costruire la t di Student a partire dalla v.a. normale x¡ y ricordiamo:

V ar[x] = V ar[1

n1(x1 + ...+ xn1)] = (

1

n1)2 ¢ n1σ2 = σ2/n1

e analogamente V ar(y) = σ2/n2. Per l’indipendenza dei due campioni le due varianze sisommano:

σ2x−y = V ar(x¡ y) = σ2(1

n1+1

n2)

Da cio deriva lo stimatore corretto per σ2x−y. Ebbene, posto sx−y = s2/n1 + s2/n2, ladifferenza tra medie campionarie segue la t di Student con ν = n1+n2¡2 gradi di liberta:

t(ν) = [x¡ y ¡ (μ1 ¡ μ2)]/sx−y

Nel confronto di due medie si puo allora usare la t di Student come enunciato, sia im-postando un test bilaterale (H1 : μ1diverso da μ2) sia impostando un test unilaterale(H1 : μ1 > μ2 o viceversa) .

Es. Si vogliono confrontare, al livello α = 1%, le altezze di certi cespugli in due areeA ed M . Il campione A di dimensione n1 = 20 da una media x = 1.686 con varianzacampionaria s2x = 0.2658. Il campione M ha n2 = 26, y = 1.3215 ed s2y = 0.1407. Lavarianza mediata e

19 ¢ (0.2658) + 25 ¢ (0.1407)20 + 26¡ 2 =

5.0495 + 3.5175

44= 0.1947

66

e la statistica Tsper. e:

Tsper. =1.6860¡ 1.3215(0.1947) ¢ ( 120 + 1

26 )= 2.778

Perr fare un test bilaterale (quello con il minimo di assunzioni), la T sperimentale deveessere confrontata col quantile di ordine 0.995 della t di Student con 44 GL: e il quantileche esclude l’1% complessivamente, 0.5% a destra e 0.5% a sinistra. Nelle tavole nontroviamo i 44 GL, ma solo 40 o 60 GL. La soluzione e avvalersi dei piu vicini inferiori GL,in questo caso 40, che garantiscono un test piu protetto (avremo un livello leggermente piufine dell’1%). Poiche il t sperimentale e superiore al t critico

Tsper. ´ 2.778 ¸ t0.995(40) ´ 2.7045,

l’ipotesi di differenza nulla μ1 ¡ μ2 viene rifiutata con fiducia 99% a favore dell’ipotesialternativa a due code μ1 6= μ2.Invece un test unilaterale pone come ipotesi alternativa μ1 > μ2. E come fare un’assunzionein piu, giustificata ad es. dalle conoscenze o da decisioni del ricercatore: nessuno, nemmenola statistica, insegna al ricercatore a formulare le ipotesi. Allora basta il confronto colquantile t0.99(40) = 2.4233, il quale non a caso e meno esigente.

Confronto tra due medie per dati appaiati- Esperimenti ”prima-dopo”

Piu semplice e il confronto di due medie per dati appaiati (”paired values”), quindi da duecampioni non indipendenti. Un esempio e rilevare dati prima e dopo la somministrazionedi un farmaco sullo stesso gruppo di n pazienti, per rispondere a domande del tipo: ilfarmaco ha realmente efficacia? Qui non c’e bisogno della statistica t ”mediata”; bastasaggiare la differenza di medie usando la varianza campionaria delle differenze zk = xk¡yk,che sono supposte gaussiane:

T =x¡ ys2d/n

» t(n¡ 1), s2z =n

1

1

n¡ 1(xk ¡ yk)2.

Confronto tra varianze, da due campioni indipendenti

L’ipotesi che le 2 popolazioni abbiano la stessa varianza si controlla con un test F diFisher sul rapporto tra le due varianze campionarie (v. sopra il teorema sulla F ). Si metteal numeratore la varianza piu grande e si effettua il test bilatero perche non c’e ragioneper assumere che una varianza sia maggiore dell’altra.

Nell’esempio, non c’e motivo di rifiutare l’omogenieta delle varianze perche

s2y/s2x = 0.2658/0.1407 = 1.8891

67

risulta minore di F0.95(n1 ¡ 1, n2 ¡ 1) ´ F0.95(19; 25) = 2.01.

TEST DI DIPENDENZA LINEARE

[Il sapiente] ha cura di rendere il suo sguardo sempre piu pulito, limpido, eliminandotutto cio che potrebbe offuscarlo, perche’, come anche tu avrai avuto modo di imparare,molta dell’infelicita umana nasce proprio dal guardare con un occhio malato - e questal’etimologia della parola ”invidia” - gli altri e quanto essi realizzano. Si sforza di vederebene, di descrivere bene cio che gli capita , i suoi problemi, le sue potenzialita, i suoidesideri, lottando con tutte le forze contro l’onnipotente tentazione dell’approssimazione.In tal modo egli e in grado di ”dire bene” e, alla fine, anche di ”benedire” la sua esistenzae la vita che lo circonda.

Accenniamo al modello di REGRESSIONE LINEARE SEMPLICE:

yi = α+ βxi + i, i = 1, ..., n

dove:xi sono i dati di una variabile di ingresso detta ”fattore” (questi dati sono privi di

errore, sono scelti dallo sperimentatore);yi sono i corrispondenti valori di variabile aleatoria ”risposta”;α, β sono l’intercetta e il coefficiente angolare, sono parametri della regressione lineare

semplice;

i sono errori indipendenti e normali con media nulla e con la stessa varianza σ2 per

i = 1, ..., n; σ2 e il terzo parametro della regressione lineare semplice.

In particolare le risposte sono normalmente distribuite con media α+ βxi e varianzaσ2:

yi » N(α+ βxi; σ2).

Esponiamo:a) col metodo dei minimi quadrati, gli stimatori a, b dei parametri α,β;b) il test di dipendenza lineare della risposta y dal fattore x;c) la scomposizione tra variabilita spiegata e variabilita totale, con il coefficiente di

determinazione lineare.

Retta dei minimi quadratiDato il campione di punti del piano f(xi, yi)g, i = 1, ..., n, con le ascisse non tutte

uguali, poniamo

x =1

ni

xi; s2x =1

ni

(xi ¡ x)2

y =1

ni

yi; s2y =1

ni

(yi ¡ y)2

68

sx,y =1

ni

(xi ¡ x)(yi ¡ y),

Allora col metodo dei minimi quadrati gli stimatori a, b per α,β sono:

b = sx,y/s2x, a = y ¡ bx

Inoltre, introducendo il coefficiente di correlazione lineare

r =sx,ysx ¢ sy

si hab = r ¢ sy

sx.

Dim.The estimates a, b, have to minimizie the sum of squares

S(α,β) =n

i=1

[yi ¡ α¡ βxi]2,

So (a, b) is a stationarity point of the function S(α,β):

0 = ∂S∂α = ¡2 n

i=1(yi ¡ α¡ βxi)

0 = ∂S∂β = ¡2 n

i=1 xi(yi ¡ α¡ βxi)

Notice that

s2x =1

ni

x2i ¡ x2, sx,y =1

ni

xiyi ¡ xy,

Then the system reads:0 = yi ¡ nα¡ β xi

0 = xiyi ¡ α xi ¡ β x2i

Dividing by n,0 = y ¡ α¡ βx

0 = 1n xiyi ¡ αx¡ β 1n x2i

Then, substituting α in the second equation,

α = y ¡ βx

0 = 1n xiyi ¡ xy + βx2 ¡ β 1n x2i

whenceα = y ¡ βx

β = ( 1n x2i ¡ x2)−1( 1n xiyi ¡ xy) = sx,ys2x.

69

By the first equation, the least squares line contains the center (x, y) of the sample. Intro-ducing the correlation coefficient

r :=sx,ysx ¢ sy ,

the estimate of β has the form

b =sx,ys2x

=r sx sys2x

= rsysx. 4

La dipendenza lineare della risposta y dal fattore sta in piedi solo se β6= 0. Saggiareil coefficiente angolare β e indispensabile per stabilire se il modello lineare e appropriatoper i dati (xi, yi).

Test di dipendenza lineareIpotesi di nullita e ipotesi alternativa:

H : β = 0, H1 : β6= 0

La statistica:

T =rpn¡ 2p1¡ r2

e distribuita come una ”t” di Student con n¡ 2 gradi di liberta. Al livello di significativitaα,

se T ¸ t1−α/2(n¡ 2), c’e dipendenza lineare

se T < t1−α/2(n¡ 2), non c’e dipendenza lineare

[In modo equivalente la statistica

F =r2(n¡ 2)1¡ r2

e distribuita come una F di Fisher con 1, n¡ 2 GL; quindi, al livelo di significativita α,

se F ¸ F1−α(1, n¡ 2), c’e dipendenza lineare

se F < F1−α(1, n¡ 2), non c’e dipendenza lineare]

ESEMPIOPer i = 1, ..., 10 si raccolgono i valori xi dell’altezza e i valori yi del peso di n = 10

persone. Da tali n coppie (xi, yi) risultano i seguenti valori di medie, varianze e covarianza:

x = 176.4 y = 68.9

70

s2x = 29.64, s2y = 63.49, sx,y = 39.64

Trovare: a) equazione della retta dei minimi quadrati; b) al livello α = 0.01, saggiare seil coefficiente angolare e diverso da zero.

I coefficienti stimati e l’equazione della retta sono:

b = sx,y/s2x = 39.64/29.64 = 1.33, a = y ¡ ax = ¡165.7

y = a+ bx, i.e. y = ¡165.7 + 1.33xAll’incremento in statura di un cm corrisponde in media l’incremento di peso pari a 1.33Kg.

Il coefficiente di correlazione lineare e

r =sx,ysx ¢ sy = 39.64/[

p29.64 ¢ [

p63.49] = 0.91

quindi la statistica T

T =rpn¡ 2p1¡ r2 =

0.91 ¢ p8p1¡ 0.912 = 6.2

cade nella regione di rifiuto dell’ipotesi nulla,

T > t1−α/2(n¡ 2) ´ t0.995(8) = 3.35

e possiamo dire che c’e’ dipendenza lineare.Il test di dipendenza lineare si puo’ fare anche col rapporto F di Fisher:

F =r2(n¡ 2)1¡ r2 = 38.4 > F0.99(8) = 11.25

cosi’ e provata la dipendenza lineare di y da x. I due test sono equivalenti, infatti ilquadrato di una t(n¡ 2) e’ una F (1, n¡ 2):

t(n¡ 2)2 = N(0; 1)2

1n−2χ

2(n¡ 2) =χ2(1)/1

χ2(n¡ 2)/(n¡ 2) = F (1, n¡ 2).

Residui e coefficiente di determinazione lineareChiamiamo

yi = a+ bxi, i = 1, ..., n

i valori ottenuti sulla retta di regressione stimata e chiamiamo residui le differenze yi¡ yi,per i = 1, ...n.

Scomponendoyi ¡ y = yi ¡ yi + yi ¡ y

71

si scompone di conseguenza anche la somma dei quadrati:

n

i=1

(yi ¡ y)2 =n

i=1

(yi ¡ yi)2 +n

i=1

(yi ¡ y)2

Interpretiamo tale scomposizione

SS(y) = SS(R) + SS(F )

dove

SS(y) =n

i=1

(yi ¡ y)2

misura la variabilita totale della risposta y,

SS(R) =

n

i=1

(yi ¡ yi)2

e la somma dei quadrati dei residui e misura la variabilita non spiegata dalla linearita.Infine

SS(F ) =n

i=1

(yi ¡ y)2

misura la variabilita spiegata dal fattore x tramite linearita’.

PROPOSIZIONEData la scomposizione

SS(y) = SS(R) + SS(F )

si verifica cheSS(F ) = r2 ¢ SS(y), SS(R) = (1¡ r2)SS(y).

r2 e detto coefficiente di determinazione lineare, 0 · r2 · 1. r2 misura la frazione divariabilita spiegata dal fattore tramite dipendenza lineare:

r2 = SS(F )/SS(y) =ni=1(yi ¡ y)2ni=1(yi ¡ y)2

.

Dim.Poiche la retta passa per il baricentro (x, y), i valori sulla retta soddisfano, per i =

1, ..., n,yi ¡ y = b(xi ¡ x)

Usando l’espressione di b in termini del coefficiente di correlazione r

b = r ¢ sysx,

72

troviamo che

SS(F ) =n

i=1

(yi ¡ y)2 =n

i=1

b2(xi ¡ x)2 =

= r2 ¢ (sy)2

(sx)2¢ n ¢ (sx)2 = r2 ¢ n ¢ s2y = r2SS(y) 4.

Esempio

Tornando all’esempio precedente, dove il coefficiente di correlazione era r = 0.91,calcoliamo il coefficiente di determinazione lineare :

r2 ' 0.83

Quindi la dipendenza lineare di y da x spiega l’83% della variabilita dei dati yi. 4

Concludiamo con una traccia di dimostrazione riguardo al test di dipendenza lineare,cioe mostriamo che:

T ´ rpn¡ 2p1¡ r2 » t(n¡ 2)

o, in modo equivalente, che

T 2 ´ r2(n¡ 2)1¡ r2 » F (1, n¡ 2)

Dimostrazione.Per semplificare la notazione, chiamiamo

nSS(x) = (xi ¡ x)2 ´ ns2x, SP (x, y) = (xi ¡ x)(yi ¡ y),

SS(y) = (yi ¡ y)2 ´ ns2y

Il coefficiente angolare stimato e normalmente distribuito, perche combinazione linearedelle risposte yi, che sono normalmente distribuite: infatti

b =1

SS(x)¢ SP = 1

SS(x)(xi ¡ x)(yi ¡ y) = 1

SS(x)(xi ¡ x)yi

dove l’ultima uguaglianza viene dal fatto che (xi ¡ x)y = 0.Inoltre, poiche le yi sono indipendenti con la stessa varianza σ

2, b ha varianza:

(σb)2 = (

1

SS(x))2 ¢ (xi ¡ x)2V ar[yi] = 1

SS(x)σ2.

73

Ora ci serve uno stimatore s2 della varianza σ2 comune a tutte le yi, che e anche lavarianza comune agli errori normali i = yi¡α¡βxi. Basta scrivere i residui e la sommadei quadrati dei residui, e poi dividere questa somma per il numero di gradi di liberta:

1

n¡ 2 (yi ¡ a¡ bxi)2 = 1

n¡ 2 (yi ¡ yi)2 = 1

n¡ 2SS(R) = s2

dove (n ¡ 2) e la differenza tra il numero di scarti e il numero di statistiche necessarie ascrivere SS(R). Allora, ponendo

(sb)2 =

1

SS(x)s2 ´ 1

SS(x)

SS(R)

n¡ 2

concludiamo cheb¡ β

σb» N(0; 1) ; b¡ β

sb» t(n¡ 2)

dove i gradi di liberta della t di Student sono determinati dai gradi di liberta’ di s2b .Sotto l’ipotesi nulla, β = 0, co significa che la t di Student elevata al quadrato puo

scriversi:

( t(n¡ 2) )2 = ( bsb)2 = b2/(sb)

2 = r2(sy)

2

(sx)2¢ SS(x)(n¡ 2)

SS(R)=

r2SS(y)

(SS(x)¢ SS(x)(n¡ 2)(1¡ r2)SS(y) =

r2(n¡ 2)(1¡ r2)

dove si e usata la relazione SS(R) = (1¡ r2)SS(y). Quindi

rpn¡ 2p1¡ r2 » t(n¡ 2).

Infine, osservando che il quadrato di una t di Student e una particolare F di Fisher:

t(n¡ 2)2 = N(0; 1)2

1n−2χ

2(n¡ 2) =χ2(1)/1

χ2(n¡ 2)/(n¡ 2) = F (1, n¡ 2),

troviamo ancher2(n¡ 2)1¡ r2 » F (1, n¡ 2).

74

METODI MATEMATICI E STATISTICI - anno 2013 - ESERCIZI

Dall’incrocio tra l’attenzione per la singolarita, tra la precisione dello sguardo e tra lagioia dell’accoglienza [su questo ha scritto pagine mirabili la pensatrice francesce SimoneWeil] prende forma il cosciente / sapiente stupore per la vita. Nulla di bello viene allaluce senza un gesto di stupore: stupore per quella gratuita con cui siamo stati offerti a noistessi, con la nostra intelligenza, con il nostro cuore, le nostre lacrime e, soprattutto, lapossibilita di amare.

[Armando Matteo: ”Onora la tua intelligenza”, Bologna]

1) Applicare la nozione classica di probabilita a semplici esperimenti aleatori.

1.A - Trova la probabilita che almeno due fra 14 persone abbiano lo stessa data dicompleanno.

R.] 0.223

1.B - In uno scaffale ci sono 10 libri, 3 di matematica e 7 di fisica; trova la probabilitache i 3 libri di matematica si trovino insieme.

R.] 6.66%

1.C - Un carattere e una lettera o una cifra. Una password e formata da 8 carattericol vincolo che almeno un carattere sia una cifra. a) Quante password possono esserci? b)Se vengono generati a caso 8 caratteri, e ogni carattere ha la stessa probabilita di essereuna delle 26 lettere o una delle 10 cifre, trova la probabilita che sia generata una passwordvalida.

[2.61 ¢ 1012; 0.925]

1.D - Un compilatore assegna ad ognuna delle variabili che intervengono in un pro-gramma una cella di memoria a caso, con indipendenza da una variabile all’altra. In caso diconflitto (cioe se due variabili sono assegnate alla stessa cella), l’ operazione di assegnazionedeve essere ripetuta. Se vi sono 100 celle di memoria e 4 variabili, qual e la probabilitache si verifichi almeno un conflitto?

R.] 5.89%

1.E - a) Un programma deve usare 8 processori fra A1, ..., A10. Trova la proba-bilita che venga usato il processore A1. b) Il programma deve usare 8 processori fraA1, ..., A30. Trova la probabilita che vengano usati esattamente due processori tra i pro-cessori A1, A2, A3, A4.

a) [4/5] b) 0.24

2) Applicare i teoremi sulla probabilita di una unione, di probabilita com-posta, delle probabilita totali, di Bayes.

75

2.A - Un sistema antincendio ha due congegni di attivazione. Il primo ha affidabilita0.9, cioe quando c’e il fuoco si attiva con probabilita 0.9. Il secondo, che lavora indipenden-temente, ha un’affidabilita 0.8. Se almeno uno dei congegni si attiva, il sistema funziona.Se si sviluppa il fuoco, trova la probabilita: a) che il sistema funzioni; b) che il sistema nonfunzioni; c) che ambedue i congegni si attivino; d) che solo il primo congegno si attivi.

[0.98; 0.02; 0.72; 0.18]

2.B - Un lotto di 10 componenti ne contiene 3 che sono difettose. Vengono estrattesenza rimessa due componenti. Sia D1 l‘evento per cui la prima e difettosa. Sia D2 l’eventoper cui la seconda e difettosa. Trovare: a) P (D2jD1) ; b) P (D1 \D2); c) P (DC

1 \D2) ;d) P (D2).

[2/9; 1/15; 7/30; 3/10]

2.C - Uno studente studia con probabilita 1/2. Gli viene presentato un quiz con 4risposte possibili. Se ha studiato da’ certamente la risposta esatta, se non ha studiatosceglie a caso una delle 4 risposte. Supponiamo che abbia dato risposta esatta: con cheprobabilita ha studiato davvero?

R.: 0.8

2.D - Un gene e composto di due alleli, ciascuno puo essere di tipo A oppure a. Nellapopolazione vi sono 3 tipi di individui: di tipo AA, Aa, e aa. Ciascun genitore trasmetteal figlio uno dei due alleli scelto a caso. Sapendo che inizialmente le proporzioni dei tretipi sono

AA :1

3Aa :

1

5aa :

7

15

quali saranno le proporzioni del tipo AAI , del tipo AaI , del tipo aaI alla generazionesuccessiva?

[ AAI : 0.1878 AaI : 0.4910 aaI : 0.3211 ]

2.E - In una regione una malattia colpisce il 5 per mille della popolazione. Un test eaffidabile con probabilita 0.99 tanto sui sani quanto sui malati [cioe: per un malato il teste postivo con probabilita 99%; per un sano il test e negativo con probabilita 0.99]. a)Se il risultato di una persona e positivo, trova la probabilita che la persona sia realmentemalata. b) Se il risultato e negativo, trova la probabilita che la persona sia in realtamalata.

[a) 0.332; b) 5.08 ¢ 10−5 ]2.F - In una regione una malattia colpisce il 4 per mille della popolazione. Un test e

affidabile con probabilita 0.94 sui sani e 0.88 sui malati [cioe: per un malato il test e postivocon probabilita 88%; per un sano il test e negativo con probabilita 0.94]. Assumiamo chei test ripetuti siano indipendenti. Se due test su una persona sono risultati positivi, trovala probabilita che la persona sia malata.

[0.46]

76

2.F - Il gruppo sanguigno A puo donare ai gruppi A, AB. Il gruppo B puo donare aigruppi B, AB. Il gruppo AB puo donare solo al gruppo AB. Il gruppo O puo donare atutti. Supponiamo che in una regione le proporzioni siano: per il gruppo A il 21%; per ilgruppo B il 43%; per il gruppo AB il 10%; per il gruppo O il 26%. Trova: a) la probabilitache un donatore a caso possa donare il sangue a una persona a caso; b) la probabilita che,se un donatore puo’ donare a un altro, allora quel donatore sia del gruppo B.

[0.563; 0.405]

2.G - L’urna I contiene 5 palline bianche e 9 palline rosse. L’urna II contiene 7 pallinebianche e 4 rosse. Una pallina e estratta dall’urna I e, senza osservare il colore, viene messanell’urna II. Poi viene estratta una pallina dall’urna II. Trova la probabilita che la primaestratta sia rossa, sapendo che la seconda estratta sia bianca.

[ 0.612]

3) Uso delle principali variabili aleatorie discrete e assolutamente continue.

3.A - Il numero X di difetti di un certo prodotto e 0, 1, 2, 3 con rispettive probabilita:

P (X = 0) = 0.38, P (X = 1) = 0.29, P (X = 2) = 0.20, P (X = 3) = 0.13

a) Trova la varianza di X; b) trova i valori della standardizzata di X.

[a) σ2 = 1.09, σ = 1.04; b) (¡1.03; ¡0.076; 0.88; 1.84) ]

3.B - Una ditta chimica vende un certo solvente in fusti da 10 Kg. Il numero X di fustiacquistati da un cliente a caso e una v.a. discreta con la seguente funzione di ripartizione:

per x = 1, 2, 3, 4, 5, F (x) = 4/10, 6/10, 8/10, 9/10, 1.

Inoltre chiamiamo Y il numero di Kg acquistati. Trova: a) il numero medio di fustiacquistati; b) la varianza del numero di Kg acquistati.

[a) μX = 2.3; b) σ2Y = 181 ]

3.C - Certe particelle, usate come catalizzatori di un processo, hanno masse compresetra 10 e 70 μg. Sia X la massa di una particella. X ha densita di probabilita

f(x) =x−101800 , 10 < x < 70

0, altrove

Trova: a) la proporzione di particelle che hanno massa · 50 μg; b) la funzione di ripar-tizione di X; c) la mediana di X.

77

[a) 0.444;

b) F (x) =

⎧⎪⎨⎪⎩0, x < 101

1800 (12x

2 ¡ 10x+ 50), 10 · x < 701, x ¸ 70

c) 52.42 μg ]

3.D - Per le nevicate in una certa regione, il numero X di cm di neve e una v.a. condensita di probabilita del tipo:

f(x) =

⎧⎪⎨⎪⎩c ¢ x, 0 · x · 5¡c ¢ (x¡ 10), 5 < x · 100, altrove

Trova: a) il fattore c di normalizzazione; b) la funzione di ripartizione di X; c) il 40-mopercentile di X.

[a) 1/25;

b) F (x) =

⎧⎪⎪⎪⎨⎪⎪⎪⎩0, x < 0x2

50 , 0 · x < 51025x¡ x2

50 ¡ 1, 5 < x · 101, x > 10

c) 4.472 ]

3.E - Sia X una v.a. assolutamente continua con densita di probabilita

f(x) =54 (1¡ x4), 0 < x < 10, altrove

Trova: a) P (X > 0.8); b) la funzione di ripartizione di X.

[a) 0.082;

F (x) =

⎧⎪⎨⎪⎩0, x · 054 (x¡ x5

5 ), 0 < x · 11, x > 1

]

3.F - Una compagnia concede uno sconto sugli ordini che vengono pagati entro 30giorni. Su tutti gli ordini, il 10% riceve uno sconto. Si estraggono a caso 12 ordini. Trova:a) la probabilita che ricevano uno sconto meno di 4 sui 12; b) piu di 1 sui 12.

[ 0.974; 0.341 ]

3.G - Un’urna contiene 6 palline bianche e 10 rosse. Si estraggono 5 palline. Trovala probabilita che 2 o 3 siano rosse: a) se l’estrazione e con rimessa; b) se l’estrazione esenza rimessa.

78

[ 0.549; 0.618 ]

3.H - Un messaggio di 10 bit arriva o dalla sorgente A (con probabilita 1/3) o dallasorgente B (con probabilita 2/3); non puo’ venire in parte da A in parte da B. A mandai messaggi in modo che 1 ha probabilita 1/2 e 0 ha probabilita 1/2. Invece B manda imessaggi in modo che 1 ha probabilita 4/7 e 0 ha probabilita 3/7. Trova: a) la probabilitache in un messaggio ci siano 6 bit uguali ad 1; b) la probabilita che il messaggio venga daA, se il messaggio ricevuto contiene 6 bit uguali ad 1.

[0.2328; 0.2934 ]

3.I - Il numero medio di accessi a un sito web al minuto e 5. Trova la probablita chenei prossimi tre minuti ci siano esattamente 17 accessi.

[0.0847 ]

3.L - Diluendo latte in acqua distillata con fattore 10−1, 10−2, 10−3, 10−4 troviamo,dopo incubazione, sviluppo dei batteri; mentre troviamo sterile la diluizione con fattore10−5. Prendiamo 20 tubi con volume 1 cm3, e vi mettiamo la sospensione diluita confattore 10−4. Poniamo di trovare sterili 12 tubi su 20. Se il numero di batteri per cm3

e di Poisson, trovare: a) numero medio di batteri in un cm3 di sospensione diluita; b) ilnumero medio di batteri per cm3 di latte non diluito.

[ a) 0.51; b) 5100 ]

3.M - La probabilita che una lampadina bruci in un giorno e 0.1. Calcola la probabilitache essa bruci il 20-mo giorno.

[ 0.0135 ]

3.N - I punteggi di un test di ammissione sono normalmente distribuiti, con media 480e varianza 8100. a) Se il peggior 25% dei candidati sara escluso, trova il minimo punteggioper essere ammessi. b) Se il miglior 12% dei candidati avra una borsa di studio, trova ilminimo punteggio per avere la borsa di studio.

[ a) ' 420 ; b) ' 586 ]

3.O - La concentrazione di zucchero per coltivare il penicillium deve essere circa 4.9mg/ml e, se eccede 6.0 mg/ml, il fungo muore e il processo deve essere fermato quel giorno.Trova la probabilita che il processo sia fermato: a) se la concentrazione di zucchero e’normale con media 4.9 e varianza 0.36; b) se la concentrazione di zucchero e’ normale conmedia 5.2 e deviazione standard 0.4.

[ 0.0336; 0.0228 ]

3.P - La durata di un circuito integrato ha una distribuzione esponenziale con mediapari a due anni. a) Trova la probabilita’ che esso duri almeno (¸) 3 anni; b) se il circuitoe’ gia’ durato 4 anni, trova la probabilita’ che duri almeno (¸) altri 3 anni.

79

[ 0.223; 0.223 ]

4) Vettori aleatori, covarianza, indipendenza

4.A - Siano X,Y v.a. discrete con funzione di probabilita

f(1, 1) = 3/12 f(1, 2) = 1/12 f(1, 3) = 0f(2, 1) = 3/12 f(2, 2) = 0 f(2, 3) = 2/12f(3, 1) = 1/12 f(3, 2) = 1/2 f(3, 3) = 1/12

Trova: a) le medie di X, Y ; b) la covarianza di X,Y ; c) la varianza di (X + Y )

[ a) E(X) =23

12, E(Y ) =

5

3; b) Cov(X, Y ) =

2

9; c)

295

36]

4.B - Un vettore aleatorio (X,Y ) ha la densita congiunta:

f(x, y) = c ¢ e−(x+y)I(0,+∞)(x)I(x,+∞)(y)

dove c e la solita costante opportuna. a) Trova c; )¯trova le densita marginali di X,Y .

Sono v.a. indipendenti? ; c) trova P (X > Y ¡ 1)

[ c = 2; fX(x) = 2e−2xI(0,+∞)(x); fY (y) = 2e−2y(ey¡1)I(0,+∞)(y); P (X > Y¡1) = e¡ 1

e]

4.C - Una lampada e composta da 2 lampadine. La durata X di una lampadina,misurata in ore, e normale di media 800 e varianza 104. La durata Y dell’altra lampadinae normale di media 900 e varianza 22500. Le durate sono indipendenti. Trova: a) laprobabilita che la seconda duri 200 ore piu della prima. b) Si decide di usare la primalampadina e, quando questa brucia, di usare la seconda: trova la probabilita che la duratatotale sia maggiore di 2000 ore.

[ a) 0.2912 b) 0.0485 ]4.D - Due giovani decidono di incontrarsi tra le 17 e le 18 con l’accordo che nessuno

deve aspettare l’altro per piu di 10 minuti. Supponiamo che gli orari X ed Y in cui arrivanosiano indipendenti e uniformi. Trovare la probabilita che si incontrino.

[11/36 ]

4.E - Due v.a. discrete, X,Y , hanno funzione di probabilita congiunta:

f(¡1, 4) = 0.15 f(¡1, 5) = 0.10

f(2, 4) = 0.20 f(2, 5) = 0.10

80

f(3, 4) = 0.40 f(3, 5) = 0.05

Trova: a) la media di X + Y ; b) la covarianza di X, Y ; c) la varianza di X + Y .

a) μX + μY = 5.95; b) Cov(X,Y ) = E(XY )¡ μxμY = ¡0.175; c) V ar(X + Y ) =2.447.

4.F - Due atleti arrivano al traguardo di una corsa in istanti X, Y indipendenti. L’unoarriva in un istante casuale X fra le 16 e le 17. L’altro arriva in un istante casuale Y fra le16.15 e le 17. Trova: a) la probabilita che sia Y ¸ X; b) la probabilita che sia jY ¡Xj · 15.

[ a) P (Y ¸ X) = 0.625 b) P (jY ¡Xj · 15) = 60·45−302/2−452/260·45 = 0.458 ]

4.G - Un componente elettronico e formato da due elementi uguali in parallelo (cioenon funziona se ambedue han cessato di funzionare); ciascuno dei due a sua volta e formatoda due elementi in serie (cioe non funziona se almeno uno dei due non funziona). Questidue elementi in serie hanno tempo di vita esponenziale di parametri rispettivamente λ1 =2/10, λ2 = 1/10 e si assume l’indipendenza. Sia U il tempo di vita globale. Trova: a) lafunzione di ripartizione di U ; b) la densita di U ; c) la media di U .

[ a) FU (t) = (1¡ e−3t/10)2 ¢ I[0,∞)(t)b) fU (t) = (

610e−3t/10 ¡ 6

10e−6t/10) ¢ I[0,∞)(t)

c) E(U) = 2 ¢ 103 ¡ 106 = 5 ]

4.H - Un componente elettronico e formato da due elementi in serie (cioe non funzionase almeno uno dei due non funziona), il primo dei quali ha un tempo di vita distribuitoesponenzialmente con parametro 1/12. Il secondo elemento e a sua volta formato da dueelementi in parallelo (cioe non funziona se ambedue non funzionano), aventi tempo di vitaesponenziale rispettivamente con parametro 3/12 e 3/12. Si suppone l’indipendenza. SiaU il tempo di vita globale. Trova: a) la funzione di ripartizione di U ; b) la densita di U ;c) la media di U .

[ a) FU (t) = (1¡ 2 ¢ e−4t/12 + e−7t/12) ¢ I[0,∞)(t)b) fU (t) = (

812e−4t/12 ¡ 7

12e−7t/12) ¢ I[0,∞)(t)

c) E(U) = 2 ¢ 124 ¡ 127 = 4.286 ]

5) Approssimare correttamente la binomiale alla Poissoniana, la binomialealla normale, la somma di variabili i.i.d. alla normale.

5.A - Viene lanciata 100 volte una coppia di dadi equi contando quante volte esce lasomma ”sette”. Trova: a) la probabilita’ che esca piu’ di 20 volte; b) la probabilita’ cheesca da 14 a 20 volte (estremi compresi).

[0.152; 0.6508 ]

5.B - Il 20% di componenti prodotti e’ difettoso. Ogni spedizione comprende 400pezzi. Se una spedizione contiene piu’ di 90 pezzi difettosi, puo’ essere restituita. Trova:

81

a) la probabilita’ che una data spedizione venga restituita; b) se in un particolare giornovengono fatte 500 spedizioni, la probabilita’ che 60 o piu’ di queste spedizioni venganorestituite.

[ 0.0951; 0.0344 ]

5.C - La compagnia aerea VOLAREBASSO sa che il 5% dei passeggeri prenotati nonsi presenta all’imbarco. Allora arrischia l’overbooking e per un volo di 300 posti accetta310 prenotazioni. Con che probabilita resteranno delle persone a terra?

[ 0.0594 ]

5.D - Sia X una v.a. esponenziale di parametro λ = 2. a) Trova media e varianza diX. b) Siano X1, ...,X150 150 v.a. indipendenti e identicamente distribuite, Xi » exp(2).Poni S = X1 + ...+X150. Calcola approssimativamente P (S < 85).

[ μ = 1/2, σ2 = 1/4; P (S < 85) ' 0.948 ]

5.E - Il tempo di sopravvivenza di una lampada e v.a. esponenziale di media μ = 10giorni. Appena si brucia, essa e sostituita. a) Trova la probabilita che 40 lampade sianosufficienti per un anno. b) Trova quante lampade occorrono per tenere accesa la luce perun anno con probabilita 0.90.

[ 0.71; 46 ]

5.F - Un calcolatore addiziona un milione di numeri e in ognuna di queste addizionisi effettua un errore di arrotondamento; supponiamo che i singoli errori siano indipendentie abbiano distribuzione uniforme su [¡ 1

210−10, 1210

−10] (cioe supponiamo che la decimacifra decimale sia significativa). a) Qual e’ la deviazione standard del singolo errore? b)Qual e la probabilita che l’errore finale sia inferiore in valore assoluto a 1

210−7? (cioe qual

e la probabilita che la settima cifra decimale sia significativa?)

[2.88 ¢ 10−11; 0.92]

5.G - Un corpo ha 5000 atomi di una sostanza radioattiva. Ogni atomo decade in unminuto con probabilita 0.0004. Sia X il numero di atomi che decadono in un minuto. a)Trova la probabilita che decadano almeno 3 atomi. b) Se il corpo ha 5 ¢ 106 atomi dellasostanza radioattiva, trova la probabilita che decadano da 1980 a 2020 atomi.

[ a) 0.3233 b) 0.35 ]

5.H - Una certa lotteria istantanea ha probabilita di vincita 0.01 per singolo biglietto.Si domanda: a) la probabilita che fra 300 biglietti tale vincita si verifichi 2 o 3 volte; (b)la probabilita che fra 30000 biglietti quella vincita si verifichi da 295 a 310 volte (estremiinclusi)

82

[0.44; 0.35]

5.I - Supponiamo che un ubriaco disti duecento passi da casa, ma riesca solo a fare, ogniunita di tempo, un passo di avvicinamento con probabilita 1/2 o un passo di allontanamentocon probabilita 1/2. Quanti passi deve fare per avere probabilita 20% di arrivare a casa?

[56690]

6) Intervalli di fiducia

6.A - Si analizza un campione di 20 sigarette per determinare il contenuto di nicotina eil valore medio dei dati ottenuti e di 1.2 mg. Trovare: a) un intervallo di fiducia 99%bilaterale per la media di nicotina sapendo che la varianza campionaria e 0.04; b) unintervallo di fiducia unilaterale destro con fiducia 95%.

a] [1.07, 1.32] b] μ > 1.12

6.B - In un paese si vuole stimare la proporzione θ di persone aventi una certa opinione.Per questo si intervistano a caso n = 1000 individui e si contano Zn = 470 individui chehanno tale opinione. Trovare un intervallo di fiducia di livello α = 5% per la proporzioneincognita θ.

a] [0.439, 0.501]

6.C - Nel misurare i tempi di reazione, uno psicologo stima che la deviazione standardsia di 0.05 sec. Trova la numerosita del campione di misure da considerare affinch ci siaconfidenza che l’errore nella stima della media non superi gli 0.01 sec.: (a) al 95% (b) al99%

a] (a) n ¸ 97 (b) n ¸ 167

7) Test di ipotesi

7.A - In una fabbrica si vuole controllare se lo standard di qualita (una proporzione< 3% di pezzi difettosi) e stato raggiunto. Si controllano 900 pezzi, 17 dei quali sonotrovati difettosi. Al livello α = 0.05 si puo dire che sia stata raggiunta la qualita?

a] si’ perche 17 · 197.B - L’altezza media delle reclute alla visita di leva nel 2000 era di 169 cm; 150 reclutesono scelte a caso nel 2010. I valori di media e varianza del campione sono

x = 172, s2 = 126

Si puo affermare (al livello α = 0.01) che l’ altezza media delle reclute e aumentata?a] si’ perche 3.27 > 2.32.

7.C - L’etichetta di un liquore dichiara un contenuto di 730 ml. Un’associazione di con-sumatori decide di controllare: su 81 bottiglie provate si riscontra una media di x = 726 ml,

83

con una varianza campionaria s2 = 625. I controllori riusciranno a dire con significativita1¡ α = 95% che le bottiglie contengono meno di quanto dichiarato?

a] no, perche ¡1.44 > ¡1.66Risoluzione I dati: x = 726, s = 25, n = 81. Dunque i GL sono ν = 80 e μ = 730

e il parametro da sottoporre a test.

x =1

n(x1 + ...+ xn) » N(μ, nσ

2

n2)

=) T ´ x¡ 730s/pn

» t(80) ´ ”t” di Student con 80 GL

L’ipotesi nulla H e μ = 730, l’ipotesi alternativa H1 e μ < 730. Come sempre, H1determina la regione di rifiuto che sara a una coda: T < Tc, dove il valore critico e

Tc = t0.05(80) = ¡t0.95(80) = ¡1.66

Per saggiare μ dobbiamo vedere se Tsper cade o no nella regione di rifiuto:

Tsper · Tc =) rifiuto dell’ipotesi H : μ = 730Tsper > Tc =) non rifiuto dell’ipotesi H : μ = 730

Calcolando:

Tsper =x¡ 730s/pn=725¡ 73025/9

= ¡1.44 > ¡1.66 = Tc

i consumatori non possono rifiutare H al livello 5%. Pero

P (t(80) · ¡1.44) = P (t(80) ¸ 1.44) = 0.077 = 7.7%

e i consumatori possono rifiutare H con livello α = 7.7%.

7.D - Si sa che il numero di arresti per guasto in un reparto ogni settimana segue una leggedi Poisson di parametro λ, ed inoltre i guasti in settimane successive possono considerarsiindipendenti. Indichiamo con X1, ...X10 il numero di guasti in 10 settimane diverse eponiamo X = 1

10(X1 + ... + X10). Determinare: 1) la soglia critica c tale che fX ¸ cgsia una regione di rigetto di livello α = 0.05 per il test dell’ipotesi H : λ = 2 controH1 : λ = 3; 2) la potenza 1¡ β del test.

a] c = 2.7334, 1¡ β = 67%.

Risoluzione Le ipotesi del modello sono: Xi » P (λ), λ = E(Xi) = V ar(Xi),X = 1

n2 ¢ nλ = λn . Le ipotesi del test sono: H : λ = 2, H1 : λ = 3. Per standardizare

X1+ ...+Xn ricordiamo che ha media nλ e varianza nλ; inoltre applicando il teorema dellimite centrale:

Z =X1 + ...+Xnp

nλ» N(0, 1)

84

Dunque la soglia critica c fra nλ = 10 ¢ 2 ed nλ = 10 ¢ 3 e tale che

5% = P (Z > c) = =) c = 1.64

La soglia critica c di Z determina allora la soglia di X1 + ... +Xn, sempre nella ipotesiH:

X1 + ...+X10 ¡ 20p20

= 1.64 =) X1 + ...+X10 = 20 + (1.64) ¢p20 = 27.334

da cui la soglia c richiesta: c = X = 2.7334 Per trovare la potenza 1 ¡ β ricordo che laprobabilita β di errore di seconda specie e calcolata nella ipotesi H1. Di nuovo mediantel’ approssimazione alla normale:

1¡ β = 1¡ P (X1 + ...+X10jλ=3 < 27.334) ' 1¡ P (N(30; 30) < 27.33) =

= 1¡ P (N(0, 1) < 27, 33¡ 305.477

) = P (N(0, 1) < 0.487) = 67%

e questa e la potenza del test.

7.E - In 360 lanci di due dadi si osservano 74 ”sette” e 24 ”undici”. uisando il livello disignificativit 0.05 , saggiate l’ipotesi che i due dadi siano equi.

a] χ20.95(2) = ...

7.F - Un certo indice di inquinamento viene misurato in due luoghi. In un luogo si fannon1 = 8 misurazioni, con varianza s21 = 190, nell’altro luogo n2 = 13 misurazioni, convarianza s22 = 281. Si deve rifiutare, al livello α = 5%, l’ipotesi di omogeneita dellevarianze?

a] no, perche 1.48 < 3.57

7.G - La concentrazione in mg/Kg di un idrocarburo e rilevata in due specie di pesci in unlago. n1 = 9 pesci della prima specie danno media x = 60 e varianza s

2x = 108. n2 = 16

degli altri pesci danno media y = 35 e varianza s2y = 89. E significativa, al livello α = 5%,la differenza di concentrazione tra le due specie?

a] si’ perche 1.9636 > 1.7138

7H. - Per valutare l’efficacia di un farmaco che dovrebbe abbassare il colesterolo, si scel-gono 24 pazienti a cui viene misurato il tasso di colesterolo prima (xi) e dopo (yi ) lasomministrazione del farmaco. Le differenze zi = xi ¡ yi, per i = 1, ..., 24 hanno media evarianza:

z = 8.21; s2 = 770.61

Saggiare al livello 0.05 se il farmaco e efficace.a] no perche 1.45 < 1.71

7I - Chiediamo a un software di dare 80 numeri casuali tra i valori estremi 0 e 7.Contiamo N1 numeri tra 0 ed 1, ..., N7 numeri tra 6 e 7:

N1 = 20, N2 = 10, N3 = 15, N4 = 5, N5 = 15, N6 = 10, N7 = 5

85

Al livello 0.05, saggiare se la distribuzione e uniforme in (0, 7)

8) Test di dipendenza lineare

8A - In 8 citta dove opera una ditta, X indica l’aumento in un anno di investimentied Y l’aumento delle vendite. Si trovano:

8

i=1

xi = 52; yi = 54.5; (xi ¡ x)2 = 156

(yi ¡ y)2 = 66.07, (xi ¡ x) ¢ (yi ¡ y) = 83.45a) Trova la retta di regressione lineare; b) al livello α = 0.05, saggia se c’e dipendenzalineare; c) trova il coefficiente di determinazione lineare.

R.:

y = 3.29 + 0.53x; T = 3.53 > 2.44 oppure F = 12.4 > 5.95; r2 = 0.67

8B - Facendo 48 osservazioni di due variabili x, y si trova:

x = 5; y = 3.44; s2x = 0.126

s2y = 0.141; sx,y = 0.093

a) Trova la retta di regressione lineare; b) al livello α = 0.01 saggia se c’e dipendenzalineare o meno; c) trova il coefficiente di determinazione lineare.

R.:

y = ¡0.286 + 0.7380x; T = 6.605 > 2.68 oppure F = 43.6 > 7.22; r2 = 0.4868

8C - Un tale e’ convinto che il consumo di carburante non dipenda dalla velocitadi guida. Si misurano allora X, Y , cioe’ rispettivamente la velocita’ e il numero di Kmpercorsi con un litro.

X : 45 50 55 60 65 70 75

Y : 24.2 25.0 23.3 22.0 21.5 20.6 19.8

a) Trova il coefficiente di correlazione. b) Al livello α = 0.01, questi dati confermano l’ideache la velocita’ non influenzi il consumo di carburante?

R.: [ b) no, perche’ T = 8.139 > 4.032 (oppure perche’ F = 66.2 > 16.25) ]

86