Matematica con elementi di Informaticavargiolu/MatCTF/CTFVariabiliAleatorie.pdf · de nito...
Transcript of Matematica con elementi di Informaticavargiolu/MatCTF/CTFVariabiliAleatorie.pdf · de nito...
Variabili aleatorie
Matematica
con elementi di Informatica
Tiziano VargioluDipartimento di Matematica
Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche
Anno Accademico 2018/19
Variabili aleatorie Anno Accademico 2018/19 1 / 36
Variabili aleatorie
Una variabile aleatoria e semplicemente una funzione X : Ω→ E , che aseconda del verificarsi dei possibili risultati ω ∈ Ω assume valori diversinell’insieme E .Esempio: lancio di un dado. Supponiamo di vincere 10 Euro se esce 6, 2Euro se esce 5 e 0 altrimenti. Come modellizzare questo?Iniziamo dicendo che un modello sensato per l’esperimento aleatorio eporre Ω = 1, 2, . . . , 6 con la probabilita uniforme P (tale chePω = 1/6 per ogni ω ∈ Ω).Allora possiamo definire due variabili aleatorie ”significative”:
la variabile aleatoria ”risultato del lancio” puo essere definita come
X (ω) := ω ∀ω ∈ Ω (E = Ω)
la variabile aleatoria ”vincita” puo essere definita come
Y (ω) =
10 se ω = 6 (o X = 6),2 se ω = 5 (o X = 5),0 se ω = 1, 2, 3 o 4 (o X ∈ 1, 2, 3, 4)
(E = 0, 2, 10)
Variabili aleatorie Anno Accademico 2018/19 2 / 36
Esempio: variabili aleatorie gaussiane
Esempio: misura di una altezza.Supponiamo di voler misurare l’altezza X di un individuo, e che quindi Xsia la nostra variabile aleatoria. Come costruiamo tutto?Spazio campionario: Ω = R (se vogliamo essere sofisticati, Ω = R+)Probabilita: P tale che, per ogni intervallo I ⊆ R di estremi−∞ ≤ a < b ≤ +∞, si abbia
P(I ) =∫ b
a
1√2πσ2
e−12(x−µ)2
σ2 dx
Anche qui, possiamo porre X (ω) = ω, e quindi
PX ∈ I =∫ b
a
1√2πσ2
e−12(x−µ)2
σ2 dx
Diciamo allora che X ha legge gaussiana o normale N(µ, σ2).
Variabili aleatorie Anno Accademico 2018/19 3 / 36
Operazioni tra variabili aleatorie
Una variabile aleatoria X puo essere chiamata, a seconda dello spazio diarrivo E :
reale se E ⊆ R;
complessa se E ⊆ C;
discreta se E e discreto (cioe finito o numerabile).
Queste definizioni non si autoescludono: le variabili aleatorie X e Y delprimo esempio sono reali discrete.Invece le gaussiane sono reali ma NON discrete (E = R).Le operazioni tra variabili aleatorie sono quelle che si possono fare traelementi degli insiemi di arrivo (e il risultato e ancora una variabilealeatoria).Ad esempio, nel caso di variabili aleatorie reali, sono possibili tutte leoperazioni possibili tra numeri reali (quattro operazioni, elevamento apotenza, esponenziali e logaritmi, funzioni trigonometriche, ecc.)
Variabili aleatorie Anno Accademico 2018/19 4 / 36
Operazioni tra eventi e variabili aleatorie
Tramite le variabili aleatorie e possibile descrivere eventi.Esempio: se X e una variabile aleatoria reale, per ogni I ⊆ R rimanedefinito l’evento
ω ∈ Ω | X (ω) ∈ I = X ∈ I
E possibile anche definire variabili aleatorie a partire da eventi.L’esempio tipico e quello della funzione indicatrice di un evento A:
1A =
1 se si verifica A,0 se non si verifica A,
Quindi, la funzione indicatrice e una variabile aleatoria discreta a valori inE = 0, 1.
Variabili aleatorie Anno Accademico 2018/19 5 / 36
Distribuzione di una variabile aleatoria
Per ogni valore x che la variabile aleatoria X puo assumere, si puoconsiderare la probabilita dell’evento X = x.Possiamo quindi considerare la distribuzione di X .Esempio: lancio di un dado.
PX = 10 = P6 = 1
6,
PX = 2 = P5 = 1
6,
PX = 0 = P1, 2, 3, 4 = 4
6=
2
3
Piu in generale, se una variabile aleatoria X assume valori in E , possiamoconsiderare PX ∈ A per ogni A ⊆ E .Esempio:
PX 6= 0 = PX ∈ 2, 10 = 2
6=
1
3
Variabili aleatorie Anno Accademico 2018/19 6 / 36
Distribuzione di una variabile aleatoria
Se una variabile aleatoria X assume valori in E , un risultato fondamentalee che la distribuzione di X definisce una probabilita su E
PX (A) = PX ∈ A ∀A ⊆ E
Per indicare che la variabile aleatoria X ha distribuzione PX , si usa lascrittura X ∼ PX .Esempio: possiamo considerare X ∼ N(µ, σ2), che significa (come giavisto) che per ogni intervallo I ⊆ R di estremi a < b abbiamo
PX ∈ I =∫ b
a
1√2πσ2
e−12(x−µ)2
σ2 dx
Notiamo che, a differenza della costruzione presentata inizialmente, quinon abbiamo bisogno di specificare lo spazio campionario.
Variabili aleatorie Anno Accademico 2018/19 7 / 36
Variabile aleatoria di Bernoulli
Un esempio significativo di variabile aleatoria e la seguente. Sia dato unevento A, con P(A) = p ∈ (0, 1), e consideriamo la funzione indicatrice diA:
X = 1A =
1 se si verifica A,0 se non si verifica A,
Ovviamente X assume valori su E = 0, 1.Se vogliamo interessarci solo alla sua distribuzione, abbiamo
PX (∅) = PX ∈ ∅ = 0,
PX (0) = PX = 0 = P(Ac) = 1− p,
PX (1) = PX = 1 = P(A) = p,
PX (E ) = PX ∈ E = 1,
Una variabile aleatoria di questo tipo (cioe a valori in E = 0, 1) vienechiamata variabile aleatoria di Bernoulli di parametro p, in simboliX ∼ Be(p) (ricordiamo: p = PX = 1).
Variabili aleatorie Anno Accademico 2018/19 8 / 36
Variabili aleatorie discrete e continue
Se X e una variabile aleatoria discreta, allora e possibile calcolarePX ∈ A, con A finito o complementare di insieme finito, a partire daivalori PX = x:
PX ∈ A = ∑x∈A
PX = x
C’e un’altra importante classe di variabili aleatorie, che sono le variabilialeatorie continue.Una variabile aleatoria reale X si dice continua di densita fX se, per ogniintervallo I ⊆ R di estremi a < b, si ha
PX ∈ I =∫ b
af (x) dx
Esempio: variabili aleatorie gaussiane.In generale, se due variabili aleatorie X e Y hanno la stessa distribuzione,si dicono identicamente distribuite (i.d.)
Variabili aleatorie Anno Accademico 2018/19 9 / 36
Funzione di ripartizione di una variabile aleatoria
Abbiamo visto che variabili aleatorie discrete e continue hannodistribuzioni (o leggi) individuate da somme piuttosto che da integrali.C’e pero un concetto che unifica questi due tipi di calcolo, che e quello difunzione di ripartizione.Data una variabile aleatoria reale X , la sua funzione di ripartizioneFX : R→ [0, 1] e definita da
FX (t) = PX ≤ t ∀t ∈ R
Quindi: per variabili aleatorie discrete si ha
FX (t) = ∑x≤t
PX = x
e per variabili aleatorie continue si ha
FX (t) =∫ t
−∞fX (x) dx
Variabili aleatorie Anno Accademico 2018/19 10 / 36
Uso della funzione di ripartizione
Tramite la funzione di ripartizione si possono eseguire la maggior parte deicalcoli di probabilita su variabili aleatorie. Ad esempio:
Pa < X ≤ b = P(X ≤ b \ X ≤ a) == PX ≤ b −PX ≤ a = FX (b)− FX (a)
Variabili aleatorie Anno Accademico 2018/19 11 / 36
Esempi di funzione di ripartizione
Esempio: variabile aleatoria di Bernoulli. Se X ∼ Be(p), allora
FX (t) =
0 se t < 0,1− p se 0 ≤ t < 1,1 se t ≥ 1,
Esempio: variabile aleatoria continua. Se X e continua di densita f , alloraper ogni intervallo I di estremi a < b (cioe I = (a, b), (a, b], [a, b), [a, b])si ha
PX ∈ I =∫ b
af (x) dx = FX (b)− FX (a)
Questo e molto utile sulle variabili aleatorie gaussiane: siccome la densitagaussiana non ammette primitiva, i calcoli si possono fare tramite laconoscenza di FX (tavole della gaussiana).
Variabili aleatorie Anno Accademico 2018/19 12 / 36
Variabili aleatorie gaussiane
Tramite le funzioni di ripartizione, e molto facile vedere che tutte levariabili aleatorie gaussiane (e di conseguenza i relativi calcoli) si possonoricondurre ad una normale N(0, 1) (standard).
Difatti, se X ∼ N(µ, σ2), e definiamo Y = X−µσ , allora Y ∼ N(0, 1). Per
vedere questo, basta calcolare la sua funzione di ripartizione:
FY (t) = PY ≤ t = PX ≤ µ + σt =∫ µ+σt
−∞
1√2πσ2
e−12(x−µ)2
σ2 dx =
=∫ t
−∞
1√2π
e−12 y
2dy
dove abbiamo fatto il cambio di variable dentro l’integrale y = x−µσ .
Questo significa anche che possiamo rappresentare ogni X ∼ N(µ, σ)come X = σY + µ con Y ∼ N(0, 1).Di conseguenza. . . basta conoscere (i.e. tabulare) la legge N(0, 1) perottenere tutte le probabilita gaussiane!
Variabili aleatorie Anno Accademico 2018/19 13 / 36
Tavole della funzione di ripartizione FZ per Z ∼ N(0, 1)
.00 .01 .02 .03 .04 .05 .06 .07 .08 .090.0 .50000 .50399 .50798 .51197 .51595 .51994 .52392 .52790 .53188 .535860.1 .53983 .54380 .54776 .55172 .55567 .55962 .56356 .56750 .57142 .575350.2 .57926 .58317 .58706 .59095 .59483 .59871 .60257 .60642 .61026 .614090.3 .61791 .62172 .62552 .62930 .63307 .63683 .64058 .64431 .64803 .651730.4 .65542 .65910 .66276 .66640 .67003 .67364 .67724 .68082 .68439 .687930.5 .69146 .69497 .69847 .70194 .70540 .70884 .71226 .71566 .71904 .722400.6 .72575 .72907 .73237 .73565 .73891 .74215 .74537 .74857 .75175 .754900.7 .75804 .76115 .76424 .76731 .77035 .77337 .77637 .77935 .78230 .785240.8 .78814 .79103 .79389 .79673 .79955 .80234 .80511 .80785 .81057 .813270.9 .81594 .81859 .82121 .82381 .82639 .82894 .83147 .83398 .83646 .83891
1.0 .84134 .84375 .84614 .84850 .85083 .85314 .85543 .85769 .85993 .862141.1 .86433 .86650 .86864 .87076 .87286 .87493 .87698 .87900 .88100 .882981.2 .88493 .88686 .88877 .89065 .89251 .89435 .89617 .89796 .89973 .901471.3 .90320 .90490 .90658 .90824 .90988 .91149 .91309 .91466 .91621 .917741.4 .91924 .92073 .92220 .92364 .92507 .92647 .92786 .92922 .93056 .931891.5 .93319 .93448 .93574 .93699 .93822 .93943 .94062 .94179 .94295 .944081.6 .94520 .94630 .94738 .94845 .94950 .95053 .95154 .95254 .95352 .954491.7 .95543 .95637 .95728 .95819 .95907 .95994 .96080 .96160 .96246 .903271.8 .96407 .96485 .96562 .96638 .96712 .96784 .96856 .96926 .96995 .970621.9 .97128 .97193 .97257 .97320 .97381 .97441 .97500 .97558 .97615 .97670
2.0 .97725 .97778 .97831 .97882 .97933 .97982 .98030 .98077 .98124 .981692.1 .98214 .98257 .98300 .98341 .98382 .98422 .98461 .98500 .98537 .985742.2 .98610 .98645 .98679 .98713 .98745 .98778 .98809 .98840 .98870 .988992.3 .98928 .98956 .98983 .99010 .99036 .99061 .99086 .99111 .99134 .991582.4 .99180 .99202 .99224 .99245 .99266 .99286 .99305 .99324 .99343 .993612.5 .99379 .99396 .99413 .99430 .99446 .99461 .99477 .99492 .99506 .995202.6 .99534 .99547 .99560 .99573 .99585 .99598 .99609 .99621 .99632 .996432.7 .99653 .99664 .99674 .99683 .99693 .99702 .99711 .99720 .99728 .997362.8 .99745 .99752 .99760 .99767 .99774 .99781 .99788 .99795 .99801 .998072.9 .99813 .99819 .99825 .99831 .99836 .99841 .99846 .99851 .99856 .99861
3.0 .99865 .99869 .99874 .99878 .99882 .99886 .99889 .99893 .99896 .999003.1 .99903 .99906 .99910 .99913 .99916 .99918 .99921 .99924 .99926 .999293.2 .99931 .99934 .99936 .99938 .99940 .99942 .99944 .99946 .99948 .999503.3 .99952 .99953 .99955 .99957 .99958 .99960 .99961 .99962 .99964 .999653.4 .99966 .99968 .99969 .99970 .99971 .99972 .99973 .99974 .99975 .999763.5 .99977 .99978 .99978 .99979 .99980 .99981 .99981 .99982 .99983 .999833.6 .99984 .99985 .99985 .99986 .99986 .99987 .99987 .99988 .99988 .999893.7 .99989 .99990 .99990 .99990 .99991 .99991 .99992 .99992 .99992 .999923.8 .99993 .99993 .99993 .99994 .99994 .99994 .99994 .99995 .99995 .999953.9 .99995 .99995 .99996 .99996 .99996 .99996 .99996 .99996 .99997 .99997
Variabili aleatorie Anno Accademico 2018/19 14 / 36
Simmetria delle variabili aleatorie gaussiane
Una variabile aleatoria reale X si dice simmetrica se X e −X sono i.d.Proposizione. Per ogni σ > 0, la variabile aleatoria X ∼ N(0, σ2) esimmetrica.Dimostrazione. Per ogni t ∈ R abbiamo
F−X (t) = P−X ≤ t = PX ≥ −t =∫ +∞
−t
1√2πσ2
e−12x2
σ2 dx
Facendo il cambio di variabile y = −x otteniamo
F−X (t) =∫ t
−∞
1√2πσ2
e−12y2
σ2 dy = FX (t)
Esempio. Se X ∼ N(1, 2), calcolare P0 < X < 2.Per risolvere il problema, poniamo Z = X−1√
2. Allora
P0 < X < 2 = P
−1√
2<
X − 1√2
<2− 1√
2
= FZ
(1√2
)− FZ
(−1√
2
)=
= FZ
(1√2
)− 1 + FZ
(1√2
)= 0.522
Variabili aleatorie Anno Accademico 2018/19 15 / 36
Variabili aleatorie indipendenti
Ricordiamo che due eventi A e B si dicono indipendenti se
P(A∩ B) = P(A)P(B)
Due variabili aleatorie X e Y si dicono indipendenti se ogni coppia dieventi esprimibile tramite queste sono indipendenti.In dettaglio, se X assume valori in E ed Y assume valori in F , allora sidicono indipendenti se, per ogni A ⊆ E , B ⊆ F si ha
PX ∈ A,Y ∈ B = PX ∈ APY ∈ B
L’idea e sempre che, anche se si possiedono informazioni su una delle duevariabili aleatorie, questo non modifichi in alcun modo la distribuzionedell’altra.
Variabili aleatorie Anno Accademico 2018/19 16 / 36
Variabili aleatorie indipendenti: caso generale
Il concetto di indipendenza si puo estendere a piu di due variabili aleatoriein questo modo: le variabili aleatorie X1, X2, . . . , Xn, a valoririspettivamente in E1, E2, . . . , En, si dicono indipendenti se per ogniscelta di Ai ⊆ Ei , i = 1, . . . , n,
P
(n⋂
i=1
Xi ∈ Ai)
=n
∏i=1
PXi ∈ Ai
Se le variabili aleatorie (Xi )i oltre ad essere indipendenti, sono anche i.d.(e quindi Ei ≡ E ), allora si usa la dicitura indipendenti e identicamentedistribuite (i.i.d.)
Variabili aleatorie Anno Accademico 2018/19 17 / 36
Variabili aleatorie binomiali
Consideriamo una famiglia di variabili aleatorie (Xi )i , i = 1, . . . , n i.i.d., dilegge Xi ∼ Be(p), con p ∈ (0, 1).Interpretazione: vogliamo ”contare” n eventi aleatori indipendenti tra loroe ”simili”, o meglio ugualmente probabili.Ha senso chiedersi quanti di questi eventi si verificanocontemporaneamente. Questo numero e dato da
Sn =n
∑i=1
Xi
Che legge ha Sn?Sn assume valori su E = 0, 1, . . . , n. La sua legge e quindi determinataunivocamente dalle quantita PSn = k. Per k = 0 e k = n e facile:
PSn = 0 = PXi = 0 ∀i = 1, . . . , n =n
∏i=1
PXi = 0 = (1− p)n,
PSn = n = PXi = 1 ∀i = 1, . . . , n =n
∏i=1
PXi = 1 = pn
Variabili aleatorie Anno Accademico 2018/19 18 / 36
Distribuzione binomiale
Per k 6= 0, n, le cose sono piu complicate.Ad esempio, gia per k = 1, abbiamo un piccolo ragionamento da fare:
PSn = 1 = P∃i : Xi = 1,Xj = 0 ∀j 6= i == P (∪ni=1Xi = 1,Xj = 0 ∀j 6= i) =
=n
∑i=1
PXi = 1,Xj = 0 ∀j 6= i =n
∑i=1
p(1− p)n−1 =
= np(1− p)n−1
dove la somma e giustificata dal fatto che l’unione sopra e disgiunta.Ugualmente, per k = n− 1, con lo stesso ragionamento si arriva a:
PSn = n− 1 = n(1− p)pn−1
Per il caso generale, serve sapere la soluzione al seguente problemamatematico classico: quanti sottoinsiemi diversi di k elementi si possonoestrarre da un insieme di n elementi?
Variabili aleatorie Anno Accademico 2018/19 19 / 36
Distribuzione binomiale: caso generale
Risposta: coefficiente binomiale:(n
k
)=
n!k !(n− k)!
Per il caso generale, k variabili su n saranno uguali a 1 e n− k uguali a 0:
PSn = k = P(∪A⊆1,...,n,|A|=kXi = 1 ∀i ∈ A,Xj = 0 ∀j /∈ A
)=
= ∑A⊆1,...,n,|A|=k
PXi = 1 ∀i ∈ A,Xj = 0 ∀j /∈ A =
= ∑A⊆1,...,n,|A|=k
pk(1− p)n−k =
(n
k
)pk(1− p)n−k
Ovviamente, per k = 0, 1, n− 1, n, si riottengono i casi visti prima.Una variabile aleatoria con la legge sopra si chiama binomiale di parametrin e p, in simboli Sn ∼ B(n, p).
Variabili aleatorie Anno Accademico 2018/19 20 / 36
Speranza (valor medio) di una variabile aleatoria
Una volta che conosciamo la distribuzione di X , possiamo calcolarne lamedia (valor medio, speranza matematica).Se X e discreta, allora
E[X ] = ∑x∈E
x ·PX = x
Se la somma e infinita: serie!Esempio: lancio di un dado.
E[X ] = 10 · 1
6+ 2 · 1
6+ 0 · 2
3=
12
6= 2
o anche
E[X ] = 10 ·P6+ 2 ·P5+ 0 ·P1, 2, 3, 4 = 2
Variabili aleatorie Anno Accademico 2018/19 21 / 36
Speranza matematica: esempi notevoli
Se X ∼ Be(p), allora
E[X ] = 1 ·PX = 1+ 0 ·PX = 0 = 1 · p = p
Se X ∼ B(n, p), allora
E[X ] =n
∑k=0
kPX = k =n
∑k=0
k
(n
k
)pk(1− p)n−k = . . .???
Possono essere utili alcune proprieta della speranza matematica!
Variabili aleatorie Anno Accademico 2018/19 22 / 36
Proprieta della speranza
Se X e Y sono variabili aleatorie reali che ammettono speranza finita,allora:
1 se X ≥ Y , allora E[X ] ≥ E[Y ] (monotonia);
2 se X ≡ c ∈ R, allora E[X ] = c ;
3 se a, b ∈ R, allora E[aX + bY ] = aE[X ] + bE[Y ] (linearita);
4 se X e Y sono i.d., allora E[X ] = E[Y ].
Esempio di applicazione: se X ∼ B(n, p), allora X ha la stessa legge diSn = ∑n
i=1 Xi , con (Xi )i i.i.d. di legge Be(p). Allora
E[X ] = E[Sn] = E
[n
∑i=1
Xi
]=
n
∑i=1
E[Xi ] =n
∑i=1
p = np
Variabili aleatorie Anno Accademico 2018/19 23 / 36
Speranza di una variabile aleatoria continua
Se X e una variabile aleatoria continua di densita f , allora la speranza edefinita da
E[X ] =∫
xf (x) dx
Dobbiamo pero controllare che l’integrale sia ben definito! Questo succedesicuramente se e verificata la condizione sufficiente∫
|x |f (x) dx < +∞
Variabili aleatorie Anno Accademico 2018/19 24 / 36
Speranza di variabili aleatorie gaussiane
Esempio: se X ∼ N(0, 1), allora
∫|x | 1√
2πe−
12 x
2dx = 2
∫ +∞
0x
1√2π
e−12 x
2dx = 2
[− 1√
2πe−
12 x
2
]+∞
0
=
=2√2π
< +∞
e quindi possiamo calcolare
E[X ] =∫
x1√2π
e−12 x
2dx =
[− 1√
2πe−
12 x
2
]+∞
−∞= 0
Esempio: se X ∼ N(µ, σ2), allora usiamo la rappresentazioneX = σY + µ, con Y ∼ N(0, 1), e abbiamo
E[X ] = E[σY + µ] = σE[Y ] + µ = µ
Variabili aleatorie Anno Accademico 2018/19 25 / 36
Formula della speranza di una variabile aleatoria composta
Se X e una variabile aleatoria discreta a valori in E , e g : E → R, comepossiamo calcolare E[g(X )]?
E[g(X )] = ∑x∈E
g(x)PX = x
Difatti g(X ) e ancora una variabile aleatoria discreta, a valori nell’insiemeg(E ). Allora
E[g(X )] = ∑y∈g (E )
yPg(X ) = y
Ma abbiamo g(X ) = y = X ∈ Ay, conAy = g−1(y) = x ∈ E | g(x) = y. Ma allora
E[g(X )] = ∑y∈g (E )
yPX ∈ Ay = ∑y∈g (E )
∑x∈Ay
g(x)PX = x =
= ∑x∈E
g(x)PX = x
Variabili aleatorie Anno Accademico 2018/19 26 / 36
Formula della speranza di una variabile aleatoria composta
Nel caso di una variabile aleatoria X continua di densita f , abbiamo
E[g(X )] =∫
g(x)f (x) dx
Le formule sopra sono vere ogniqualvolta il secondo membro nella formulaper E[g(X )] da un risultato ben definito.
Variabili aleatorie Anno Accademico 2018/19 27 / 36
Varianza di una variabile aleatoria
Consideriamo, nella formula precedente, il caso g(x) = (x −E[X ])2.Allora possiamo definire
Var[X ] = E[(X −E[X ])2](= E[X 2]−E[X ]2)
Abbiamo quindi sempre Var[X ] ≥ 0, e potrebbe verificarsi Var[X ] = +∞.In questo caso, diciamo che X non ammette varianza finita.Esempio. Se X ∼ Be(p), con p ∈ (0, 1), allora
Var[X ] = (0− p)2PX = 0+ (1− p)2PX = 1 == p2(1− p) + (1− p)2p = p(1− p)
Esempio. Se X ∼ N(0, 1), allora
Var[X ] =∫
x2√2π
e−12 x
2dx =
[− 1√
2πxe−
12 x
2
]+∞
−∞+∫
e−12 x
2
√2π
dx = 1
Variabili aleatorie Anno Accademico 2018/19 28 / 36
Proprieta della varianza
Se X e Y sono variabili aleatorie reali che ammettono varianza finita,allora:
1 se a ∈ R, allora
Var[aX ] = E[(aX −E[aX ])2] = E[a2(X −E[X ])2] = a2Var[X ]
2 X ≡ c ∈ R ⇐⇒ Var[X ] = 0: la varianza misura la dispersione diuna variabile aleatoria intorno alla sua media;
3 se X e Y sono i.d., allora Var[X ] = Var[Y ].
4 Var[X + Y ] = . . .Per la varianza della somma, ci serve un altro concetto.
Variabili aleatorie Anno Accademico 2018/19 29 / 36
Covarianza di due variabili aleatorie
Se X e Y sono variabili aleatorie, possiamo definire la loro covarianzacome
Cov(X ,Y ) = E[(X −E[X ])(Y −E[Y ])](= E[XY ]−E[X ]E[Y ])
La covarianza misura il grado di ”comonotonia” di due variabili aleatorie:se Cov(X ,Y ) > 0, significa che quando X > E[X ] anche Y > E[Y ].Le variabili aleatorie X e Y si dicono:
positivamente correlate se Cov(X ,Y ) > 0;
negativamente correlate se Cov(X ,Y ) < 0;
non correlate o scorrelate se Cov(X ,Y ) = 0.
Si puo dimostrare che, se X e Y sono indipendenti, allora sono scorrelate.Il viceversa non e vero in generale!
Variabili aleatorie Anno Accademico 2018/19 30 / 36
Varianza di una somma
Ovviamente, applicando la definizione abbiamo Cov(X ,X ) = Var[X ].Se X e Y ammettono varianza finita, anche X +Y la ammette, e abbiamo
Var[X + Y ] = Var[X ] + Var[Y ] + 2Cov(X ,Y )
In particolare, se X e Y sono indipendenti, abbiamo
Var[X + Y ] = Var[X ] + Var[Y ]
Variabili aleatorie Anno Accademico 2018/19 31 / 36
Esempi notevoli
Esempio. Se X ∼ B(n, p), allora X ha la stessa legge di Sn = ∑ni=1 Xi ,
con (Xi )i i.i.d. di legge Be(p). Allora
Var[X ] = Var[Sn] =n
∑i=1
Var[Xi ] = np(1− p)
Esempio: se X ∼ N(µ, σ2), allora usiamo la rappresentazioneX = σY + µ, con Y ∼ N(0, 1), e abbiamo
Var[X ] = E[(σY + µ− µ)2] = σ2E[Y 2] = σ2Var[Y ] = σ2
Proposizione. Se X ∼ N(µX , σ2X ) e Y ∼ N(µY , σ2
Y ) sono indipendenti,allora X + Y ∼ N(µX + µY , σ2
X + σ2Y ).
Dimostrazione. La parte difficile (che non faremo) e dimostrare cheX + Y e gaussiana. Una volta fatto questo, i suoi parametri seguono dalleproprieta additive di media e varianza.
Variabili aleatorie Anno Accademico 2018/19 32 / 36
Teoremi limite
Vediamo ora due teoremi molto utili in Statistica, che riguardano ilcomportamento di successioni di variabili aleatorie reali (Xn)n≥1.Diciamo che la successione (Xn)n converge in probabilita alla variabile
aleatoria X (in simboli, XnP→ X ) se, per ogni δ > 0, si ha
limn→∞
P|Xn − X | > δ = 0
Diciamo che la successione (Xn)n converge in legge, o in distribuzione
alla variabile aleatoria X (in simboli, Xnlegge→ X ) se, dette FXn e FX le
funzioni di ripartizione di Xn e X , si ha
limn→∞
FXn(t) = FX (t)
in ogni punto in cui FX e continua.Attenzione: per quest’ultima convergenza, possiamo anche sostituire Xcon la sua distribuzione! Si puo quindi dire, se ad esempio X ∼ N(0, 1),
che Xnlegge→ N(0, 1).
Variabili aleatorie Anno Accademico 2018/19 33 / 36
Legge dei grandi numeri
Supponiamo che (Xn)n sia una successione di variabili aleatorie reali i.i.d. Idue teoremi limite seguenti riguardano il comportamento della loro sommaparziale
Sn =n
∑i=1
Xi
quando n→ ∞.Legge dei grandi numeri. Se le (Xn)n sono i.i.d., ciascuna con mediaE[Xn] = µ, allora Sn/n converge in probabilita a µ:
1
nSn =
Snn
=1
n
n
∑i=1
XiP→ µ
Variabili aleatorie Anno Accademico 2018/19 34 / 36
Teorema limite centrale
Teorema limite centrale. Se le (Xn)n sono i.i.d., ciascuna con mediaE[Xn] = µ e varianza Var[Xn] = σ2, e definiamo
S∗n =Sn − nµ
σ√n
allora S∗n converge in legge ad una N(0, 1):
S∗n =Sn − nµ
σ√n
legge→ N(0, 1)
Applicazione: approssimazione normale. Se dobbiamo calcolare unaprobabilita del tipo PSn ≤ t, allora per ”n grande” abbiamo
PSn ≤ t = P
Sn − nµ
σ√n≤ t − nµ
σ√n
= FS∗n
(t − nµ
σ√n
)' FZ
(t − nµ
σ√n
)dove Z e una generica variabile aleatoria di legge N(0, 1).
Variabili aleatorie Anno Accademico 2018/19 35 / 36
Esempio con variabili aleatorie di Bernoulli
Consideriamo (Xn)n i.i.d. di legge Be(p).Allora µ = E[Xi ] = p e σ =
√Var[Xi ] =
√p(1− p).
La frase “n grande” in questo caso consiste nelle condizioni np > 5 en(1− p) > 5: se queste due condizioni sono verificate, allora valel’approssimazione normale:
PSn ≤ t ' FZ
(t − nµ
σ√n
)= FZ
(t − np√np(1− p)
)Esempio. Supponiamo di avere n = 25 variabili aleatorie Xi ∼ Be(1/2) edi voler calcolare PSn ≤ 15.Innanzitutto abbiamo np = n(1− p) = 25 · 12 = 12.5 > 5.Quindi, per quanto visto prima, il risultato si puo approssimare con
PS25 ≤ 15 ' FZ
15− 25 · 12√25 · 12 ·
12
= FZ (1) = 0.841
Il calcolo esatto darebbe PS25 ≤ 15 ' 0.885.Variabili aleatorie Anno Accademico 2018/19 36 / 36