Post on 01-Dec-2015
description
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Elementi di Calcolo delle Probabilità e Statisticaper il corso di Analisi Matematica B
Laurea in Ingegneria MeccatronicaA.A. 2010–2011
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabili aleatorie n-dimensionali
Riepilogo .
Gli esiti di un esperimento aleatorio (cioè gli elementi s ∈ S) sono stati“etichettati” con un unico numero reale (il valore della variabilealeatoria X ).
Ciò è stato fatto in modo che almeno a tutti gli intervalli di R fossepossibile associare una probabilità (abbiamo cioè richiesto chel’immagine inversa di ogni intervallo fosse un evento di Ω).
In un esperimento aleatorio possiamo essere interessaticontemporaneamente a tante variabili aleatorie diverseXi , i = 1,2, . . . n.
Le n-uple (x1, x2, · · · xn), dove xi è un valore di Xi per ogni i , possonoessere interpretate come il valore (vettoriale) di un’unica variabilealeatoria n-dimensionale.
Ci limiteremo qui al caso bidimensionale, cioè a una sola coppia divariabili aleatorie (X ,Y ).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabile aleatoria bidimensionale (X ,Y )
Definizione (variabile bidimensionale)
Dato uno spazio di probabilità (S,Ω, p), si dice variabile aleatoriabidimensionale una coppia di funzioni (X ,Y ) che ad ogni s ∈ Sassocia la coppia di numeri reali
(
X (s),Y (s))
in modo che l’insieme
s : X (s) ≤ a, Y (s) ≤ b
sia un evento di Ω per ogni a, b ∈ R.
Definizione (funzione di ripartizione)
Data una variabile aleatoria bidimensionale (X ,Y ) definita sullospazio di probabilità (S,Ω, p), si chiama funzione di ripartizioneassociata a (X ,Y ) la funzione F : R2 → [0, 1] data da
F (x , y) = p(X ≤ x , Y ≤ y) per ogni (x , y) ∈ R2.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Proprietà della funzione di ripartizione bidimensionale
Dalla sua definizione:
F (x , y) = p(X ≤ x , Y ≤ y) = p(
(X ≤ x) ∩ (Y ≤ y))
=
= p(
s ∈ S : X (s) ≤ x ∩ s ∈ S : Y (s) ≤ y)
.
Teorema (proprietà di F )
limx → +∞y → +∞
F (x , y) = 1;
limx→−∞
F (x , y) = limy→−∞
F (x , y) = 0;
limx→+∞
F (x , y) = p(Y ≤ y) =: FY (y),
dove la funzione FY è detta funzione di ripartizione marginaledella variabile Y ;
limy→+∞
F (x , y) = p(X ≤ x) =: FX (x),
con FX funzione di ripartizione marginale di X .
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Proprietà della funzione di ripartizione bidimensionale
Teorema (probabilità del rettangolo)
p(
x1 < X ≤ x2 , y1 < Y ≤ y2)
=
= F (x2, y2)− F (x1, y2) + F (x1, y1)− F (x2, y1).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabili aleatorie bidimensionali discrete
Definizione (variabile bidimensionale discreta)
Una variabile bidimensionale (X ,Y ) è discreta se esiste un insiemefinito o numerabile di coppie (xr , ys) ∈ R
2, r = 1, 2, . . . , s = 1, 2, . . . ,tali che
prs := p(X = xr , Y = ys) ≥ 0, e∑
r ,s
prs = 1.
Si chiama funzione di probabilità congiunta la funzione
f (x , y) =
prs se (x , y) = (xr , ys), r = 1, 2, . . . ; s = 1, 2, . . .0 altrove.
Si dicono funzioni di probabilità marginali le funzioni
fX (x) =
pr• =∑
s prs se x = xr per r = 1, 2, . . .0 altrove.
fY (y) =
p•s =∑
r prs se y = ys per s = 1,2, . . .0 altrove.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabile bidimensionale finita
Nel caso finito : r = 1, 2, . . . , n; s = 1,2, . . . ,m, e le funzioni diprobabilità congiunta e marginali si rappresentano in una tabella:
Yy1 y2 y3 · · · ym
x1 p11 p12 p13 · · · p1m p1•x2 p21 p22 p23 · · · p2m p2•
X x3 p31 p32 p33 · · · p3m p3•...
......
.... . .
......
xn pn1 pn2 pn3 · · · pnm pn•p•1 p•2 p•3 · · · p•m
Figura: Tabella delle probabilità congiunta e marginali nel caso finito
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabili bidimensionali continue
Definizione (variabile bidimensionale continua)
Una variabile bidimensionale (X ,Y ) è continua se esiste una funzionenon negativa f (x , y), detta funzione densità congiunta , tale che
F (x , y) =∫ x
−∞
∫ y
−∞f (u, v) dudv .
Osservazione . La condizione che f deve soddisfare per essere unafunzione densità è
∫ +∞
−∞
∫ +∞
−∞f (u, v) dudv = 1.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabili bidimensionali continue
Si può dimostrare che le funzioni di ripartizione marginali dellevariabili X e Y sono date in questo caso da
FX (x) =∫ x
−∞
(∫ +∞
−∞f (u, v)dv
)
du
e
FY (y) =∫ y
−∞
(∫ +∞
−∞f (u, v)du
)
dv .
Le densità marginali di X e Y valgono quindi
fX (x) =∫ +∞
−∞f (x , v) dv
e
fY (y) =∫ +∞
−∞f (u, y)du.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Un teorema importante
Teorema (probabilità di una variabile bidimensionale)
Se A ⊆ R2 è tale che l’insieme s ∈ S :
(
X (s),Y (s))
∈ A è unevento di Ω, allora
p(
(X ,Y ) ∈ A)
=
∫∫
Af (x , y) dxdy .
Corollario (legge di composizione)
Sia (X ,Y ) una variabile casuale bidimensionale con densitàcongiunta f (x , y). Se Φ(X ,Y ) è una variabile casuale funzione di X eY , allora, per ogni intervallo I ⊆ R,
p(
Φ(X ,Y ) ∈ I)
=
∫∫
Af (x , y) dxdy ,
essendo A = (x , y) ∈ R2 : Φ(x , y) ∈ I.
Dimostrazione : basta notare che p(
Φ(X ,Y ) ∈ I)
= p(
s : Φ(
X (s),Y (s))
∈ I)
=
= p(
s :(
X (s),Y (s))
∈ A)
.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La covarianza di due variabili casuali σX ,Y
Definizione (covarianza)
Si dice covarianza delle variabili casuali X e Y , e si indica con σX ,Y
oppure con Cov(X ,Y ), il numero
σX ,Y = Cov(X ,Y ) := E[
(X − µX )(Y − µY )]
.
Esplicitando la formula del valore atteso:
σX ,Y =
∑
r
∑
s(xr − µX )(ys − µY )prs, nel caso discreto;
∫∫
R2(x − µX )(y − µY )f (x , y)dxdy , nel caso continuo.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Proprietà della covarianza
Teorema (proprietà covarianza)
σX ,Y = µX ·Y − µXµY
σ2X±Y = σ2
X + σ2Y ± 2σX ,Y
=⇒ generalizzato alla somma di n variabili aleatorie:
Var
(
n∑
i=1
Xi
)
=n∑
i=1
Var(Xi) + 2∑
1≤i<j≤n
Cov(Xi ,Xj)
σ2X ,Y ≤ σ2
Xσ2Y
Dimostrazione (della prima relazione, nel caso finito).
σX,Y =∑
r
∑
s
(xr − µX )(ys − µY )f (xr , ys)
=∑
r
∑
s
(xr ys − xrµY − µX ys + µXµY )f (xr ys)
= µXY − µXµY − µX µY + µXµY
= µXY − µXµY .
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Indipendenza tra variabili casuali
Definizione (indipendenza)
Due variabili aleatorie X e Y si dicono indipendenti se
F (x , y) = FX (x) · FY (y) per ogni x , y ∈ R.
Teorema
X, Y discrete indipendenti ⇐⇒ prs = pr•p•s cioè
p(X = xr , Y = yr ) = p(X = xr ) · p(Y = yr ).
X, Y continue indipendenti ⇐⇒ f (x , y) = fX (x) · fY (y).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Indipendenza tra variabili casuali
Teorema (media del prodotto di variabili indipendenti)
Se due variabili aleatorie X e Y sono indipendenti, allora
µXY = µX · µY
Dimostrazione (nel caso finito):
µXY =∑
r,s
xr ysprs
=∑
r
∑
s
xr yspr•p•s
=∑
r
xr pr•
(
∑
s
ysp•s
)
= µX · µY
Corollario (indipendenza e covarianza)
Se le variabili casuali X e Y sono indipendenti, allora σX ,Y = 0 (da: σX ,Y = µXY − µxµY e teorema precedente); σ2
X±Y = σ2X + σ2
Y (dalla formula della varianza di X ± Y).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Il coefficiente di correlazione lineare ρX ,Y
Definizione (coefficiente di correlazione)
Si dice coefficiente di correlazione tra le variabili casuali X e Y ilnumero
ρX ,Y :=σX ,Y
σX · σY.
Osservazioni . ρX ,Y = 0 ⇐⇒ σX ,Y = 0 ⇐⇒ X e Y sono dette incorrelate . ρX ,Y 6= 0 =⇒ X e Y si dicono correlate . |ρX ,Y | ≤ 1 (da: σ2
X ,Y ≤ σ2Xσ
2Y ).
massima correlazione se |ρX ,Y | = 1 =⇒ lineare dipendenza :
Y = αX + β
con α < 0 se ρX ,Y = −1, oppure α > 0 se ρX ,Y = +1.
N.B.: X ,Y indipendenti ⇒ X ,Y incorrelate; ma non viceversa!
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Variabili incorrelate
Corollario (additività della varianza)
Se X1,X2, . . . ,Xn sono n variabili aleatorie incorrelate, allora
Var(X1 + X2 + · · ·Xn) = Var(X1) + Var(X2) + · · ·+ Var(Xn).
In particolare, se le variabili hanno tutte la stessa varianza σ2, allora
Var(X1 + X2 + · · ·Xn) = nσ2.
Vale inoltre:
Var(a1X1+a2X2+· · · anXn) = a21Var(X1)+a2
2Var(X2)+· · ·+a2nVar(Xn).
Osservazioni .
L’ultima proprietà segue immediatamente da: Var(aX ) = a2Var(X ).
L’additività della varianza dipende dalla incorrelazione delle variabili aleatorie che si
sommano, a differenza della additività del valore atteso , che vale sempre.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Incorrelazione e indipendenza
Osservazione : variabili incorrelate 6⇒ variabili indipendenti.
Y−1 0 +1
−1 0 14 0 1/4
X 0 14 0 1
4 1/2+1 0 1
4 0 1/41/4 1/2 1/4
Figura: Esempio di variabili incorrelate ma non indipendenti.
p(X = −1,Y = −1) = 0 6= p(X = −1)p(Y = −1) = 14 · 1
4 = 116
=⇒ X ,Y non indipendenti.
µXY = µX = µY = 0 =⇒ X ,Y incorrelate (perché µXY − µXµY = 0).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Studio di alcune distribuzioni notevoli
Ci limiteremo alle seguenti distribuzioni discrete: la distribuzione binomiale, ovvero delle prove indipendenti
ripetute di Bernoulli (variabile aleatoria discreta finita); la distribuzione di Poisson , ovvero degli eventi rari (variabile
aleatoria discreta infinita numerabile);
ed alla seguente distribuzione continua: la distribuzione di Gauss , ovvero la distribuzione normale.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La distribuzione binomiale
Teorema (di Bernoulli)
La probabilità che in n prove indipendenti l’evento A si verifichiesattamente k volte, con k = 0,1, . . . , n, vale
(
nk
)
pk (1 − p)n−k
dove p è la probabilità di A in ogni singola prova.
Definizione (distribuzione binomiale)
Dati p ∈ (0, 1) e n ∈ N, si dice variabile binomiale la variabilealeatoria discreta (e finita) X avente la seguente funzione diprobabilità
p(X = k) =
(
nk
)
pk (1 − p)n−k , k = 0, 1,2, . . . , n.
Se X è binomiale di parametri n e p, si scrive anche X ≃ B(n, p).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Proprietà della distribuzione binomiale
Dalla formula del binomio abbiamo
n∑
k=0
(
nk
)
pk(1 − p)n−k = (p + 1 − p)n = 1,
dunque si tratta effettivamente di una funzione di probabilità.
Teorema (media e varianza della binomiale)
Se X ≃ B(n, p) allora µX = np e σ2X = np(1 − p).
Dimostrazione. Si può ottenere X come somma di n variabili aleatorieindipendenti Xi ≃ B(1, p), ciascuna delle quali rappresenta il numero disuccessi (0 oppure 1) in una sola prova:
X = X1 + X2 + . . .+ Xn.
Tramite calcolo diretto abbiamo
E(Xi ) = p, Var(Xi ) = p(1 − p) per ogni i .
Dunque E(X) = np e, dall’indipendenza delle Xi , segue anche cheVar(X) = np(1 − p).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La distribuzione di Poisson
Definizione (distribuzione di Poisson)
Una variabile aleatoria discreta X è detta di Poisson con parametroµ > 0 se può assumere gli infiniti valori k = 0, 1,2, . . . con probabilità
p(X = k) =µk
k !e−µ.
Osservazioni .∑∞
k=0µ
k
k ! e−µ = e−µ · eµ = 1.
Se X è di Poisson con parametro µ allora µX = σ2X = µ (no dim.).
⇒ aumentando µ, aumenta anche la dispersione dei dati attornoalla media.
Descrive il conteggio di fenomeni casuali distribuiti con una datadensità media µ nell’unità di tempo (superficie, volume. . . ).
Si ottiene dalla binomiale quando n è grande e p è vicino a 0 (perquesto è detta distribuzione degli eventi rari).
Vale la relazione ricorsiva: p(X = k + 1) = µ
k+1 p(X = k).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Esempi
Conteggio delle particelle α emesse da una sostanza radioattiva(X di Poisson con parametro µ = 0.5). Probabilità di osservaredue o più particelle in un secondo:
p(X ≥ 2) =+∞∑
k=2
(0.5)k
k !e−0.5
= 1 − p(X = 0)− p(X = 1)
= 1 − e−0.5 − 0.5 · e−0.5 ≈ 9%.
Carica batterica. Se una sospensione contiene in media 5 batteriper cm3, allora la probabilità che un campione casuale di 1 cm3
a) non contenga batteri, b) ne contenga al più 2, c) ne contengaalmeno 5, vale:
p(X = 0) = e−5 ≈ 0.7%;
p(X ≤ 2) =(
1 + 5 +52
2!
)
e−5 ≈ 12.5%;
p(X ≥ 5) = 1 − p(X ≤ 4) =(
1 + 5 +52
2!+
53
3!+
54
4!
)
e−5 ≈ 56%.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La distribuzione di Gauss
Definizione (distribuzione di Gauss)
Una variabile aleatoria continua X è detta di Gauss o normale conparametri µ e σ (µ ∈ R, σ > 0), e si scrive X ≃ N(µ, σ2) se la funzionedensità è
f (x) =1
σ√
2πe− (x−µ)2
2σ2 .
f (x) è detta funzione di Gauss : è una funzione “a campana”, simmetrica rispetto a x = µ; ha un massimo in x0 = µ, dove assume il valore 1
σ√
2π;
questo coefficiente ha il significato di fattore di normalizzazione:∫ +∞
−∞f (x)dx =
1√π
∫ +∞
−∞e−
(
x−µ
σ
√2
)2
d(
x − µ
σ√
2
)
= 1.
NB: Se I =∫
Re−x2
dx , allora I2 =∫
Re−x2
dx ·∫
Re−y2
dy =∫∫
R2 e−(x2+y2)dxdy .
Passando a coordinate polari, I2 =∫ 2π
0 dθ∫ +∞
0 ρe−ρ2
dρ = 2π[
e−ρ2
−2
]+∞
0= π.
Quindi I =√π.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Proprietà della distribuzione normale
Teorema (media e varianza della gaussiana)
Se X è una variabile di Gauss di parametri µ e σ, cioè X ≃ N(µ, σ2),allora
E(X ) = µ, Var(X ) = σ2.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Calcolo della probabilità p(a < X < b) sulla gaussiana
La funzione di ripartizione vale
F (x) =∫ x
−∞
1
σ√
2πe− (t−µ)2
2σ2 dt
da cui
p(a < X < b) = F (b)− F (a) =∫ b
a
1
σ√
2πe− (t−µ)2
2σ2 dt .
Osservazione . F (x) non si può calcolare esplicitamente. Per gliscopi concreti, si ricorre ad integrazione numerica o ai valori tabulatiper una particolare funzione di ripartizione normale, la normalestandardizzata.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La variabile aleatoria normale standardizzata
Teorema
Sia X una variabile aleatoria normale di parametri µ e σ e sia
Φ(x) =∫ x
−∞
1√2π
e− u22 du
la funzione di ripartizione della corrispondente variabile normalestandardizzata X∗ ≃ N(0,1) (X∗ è cioè normale con media 0 evarianza 1), allora la funzione di ripartizione di X vale
F (x) = Φ(x − µ
σ
)
.
Dimostrazione . Siccome∫ x−∞
f (t)dt = limc→−∞
∫ xc f (t)dt abbiamo
F (x) = limc→−∞
∫ x
c
1
σ√
2πe−
(t−µ)2
2σ2 dt
ponendo t−µ
σ= u, si ha dt = σdu, quindi
F (x) = limc→−∞
∫ x−µ
σ
c−µ
σ
1√
2πe− u2
2 du = Φ
(
x − µ
σ
)
.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Esempi e applicazioni (conoscendo i valori di Φ(x))
Probabilità di una variabile aleatoria normale X ≃ N(µ, σ2)
p(a ≤ X ≤ b) = Φ
(
b − µ
σ
)
− Φ(a − µ
σ
)
.
Esempio (problema diretto).
p(µ− σ < X < µ+ σ ) = Φ(1)− Φ(−1) ≈ 68.3%
p(µ− 2σ < X < µ+ 2σ) = Φ(2)− Φ(−2) ≈ 95.5%
p(µ− 3σ < X < µ+ 3σ) = Φ(3)− Φ(−3) ≈ 99.7%.
Esempio (problema inverso).
Assegnata una probabilità α, si cerca il numero x0 tale che Φ(x0) = α.x0 si indica con φα e si chiama quantile relativo ad α.Se α = n
100 , allora φα si chiama percentile n−esimo .(Soluzione: basta leggere la tabella dei valori di Φ(x) al contrario).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Esempi e applicazioni
Una relazione utile
Φ(−x) = 1 − Φ(x) cioè φ1−α = −φα.
Teorema (immagine affine di una distribuzione normale)
Se X ≃ N(µ, σ2) allora anche Y = aX + b (a > 0) è normale conmedia aµ+ b e varianza a2σ2.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Il teorema del limite centrale
Definizione (convergenza in legge)
Una successione di variabili aleatorie Xnn converge in legge (o indistribuzione ) alla variabile aleatoria X se e solo se, dette Fn(x) edF (x) le rispettive funzioni di ripartizione, si ha
limn→∞
Fn(x) = F (x)
per ogni punto x ∈ R di continuità per F .
NB: Se le variabili aleatorie Xi sono indipendenti e hanno tutte mediaµ e varianza σ2, allora la variabile aleatoria Sn = X1 + X2 + · · ·+ Xn ètale che
E(Sn) = nµ e Var(Sn) = nσ2.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Il teorema del limite centrale
Teorema (del limite centrale)
Sia Xnn una successione di variabili aleatorie indipendenti edidenticamente distribuite , di media µ e varianza σ2. Allora la somman−esima standardizzata
S∗n =
X1 + X2 + . . .+ Xn − nµσ√
n
converge in legge a N(0,1).
Osservazioni . La funzione di probabilità di S∗
n (complicata da esprimere ingenerale) si approssima, per n grande , con una legge N(0,1). . .
. . . e questo a prescindere dalla particolare legge delle Xn! Interpretazione : un effetto casuale che sia la risultante di molti
effetti aleatori, ciascuno dei quali dia solo un piccolo contributoall’effetto finale, segue approssimativamente una legge normale(esempio: errori di misurazione).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
L’approssimazione normale
Formula per n variabili Xi indip. e identicamente distribuite:
p(X1 + X2 + . . .+ Xn ≤ x) = p(
S∗n ≤ x − nµ
σ√
n
)
≈ Φ
(
x − nµσ√
n
)
.
In pratica : soglia di applicabilità (in genere): n > 30, ma può essere più alta; nel caso, ad esempio, delle prove di Bernoulli, devono valere le
condizioni np > 5 e n(1 − p) > 5; nel caso di variabili a valori interi conviene porre, se k ∈ Z,
p(X1 + . . .+ Xn = k) = p(
k − 12 < X1 + . . .+ Xn < k + 1
2
)
≈ Φ
(
k+ 12 −nµ
σ√
n
)
−Φ
(
k− 12 −nµ
σ√
n
)
;
se Xi ≃ B(1, p), allora X = X1 + X2 + · · ·+ Xn ≃ B(n, p) eE(X ) = np, Var(X ) = np(1 − p). L’approssimazione diventa:
p(X ≤ k) ≈ Φ
(
k + 12 − np
√
np(1 − p)
)
.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Le fasi di un’indagine statistica
Rilevazione dei dati; organizzazione dei dati; presentazione dei dati organizzati; interpretazioni e conclusioni.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Classi, frequenze assolute, relative, cumulate
Se i dati sono di tipo numerico, si ordinano e si stabilisce il campo divariazione , o rango , cioè il minimo intervallo che li contiene tutti.
Può essere conveniente suddividere i dati in classi della stessaampiezza per una migliore leggibilità. Il numero di classi può esserescelto con la formula (di Sturges)
nc = [1 + 1.443 ln n]
dove n è il numero di dati e [a] è l’intero più vicino ad a.
Si definiscono: la funzione di frequenza ϕ(x) che associa ad ogni classe il
numero degli elementi che la compongono; la funzione di frequenza relativa ϕr (x) =
ϕ(x)n ;
la funzione di frequenza cumulativa ϕc(x), cioè il numero dielementi nella classe e in tutte le classi precedenti;
la funzione di frequenza cumulativa relativa ϕcr (x) = ϕc (x)n .
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Rappresentazioni grafiche
Le più significative sono: istogramma; grafico a bastoni; poligoni delle frequenze.
In tutti i casi si riportano sulle ordinate le frequenze delle classi riferiteal loro punto di mezzo (sulle ascisse).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Rappresentazioni grafiche
Figura: Istogramma.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Rappresentazioni grafiche
Figura: Diagramma a bastoni.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Rappresentazioni grafiche
Figura: Istogramma e poligono delle frequenze.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Rappresentazioni grafiche
Figura: Poligono delle frequenze ϕ(x).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Rappresentazioni grafiche
Figura: Poligono delle frequenze cumulative ϕc(x).
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Indici di tendenza centrale
Definizione (media)
Date n osservazioni numeriche xi , i = 1, 2, . . . , n, si chiama mediadelle osservazioni il numero
x =1n
n∑
i=1
xi .
Definizione (mediana)
Si chiama mediana il valore centrale dell’insieme ordinato:
xmed =
x n+12
se n è dispari12
(
x n2+ x n
2 +1
)
se n è pari.
Definizione (moda)
Si chiama moda un numero xmod che si ripete il maggior numero divolte.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Indici di dispersione
Definizione (deviazione standard)
Date n osservazioni numeriche x1, . . . , xn, si chiama deviazionestandard , o scarto quadratico medio delle osservazioni il numero
σ =
√
√
√
√
1n
n∑
i=1
(xi − x)2.
Il numero σ2 è chiamato la varianza dei dati.
Definizione (deviazioni medie)
Si chiamano deviazione media dalla media e deviazione mediadalla mediana i numeri
Dmed (x) =1n
n∑
i=1
|xi − x |; Dmed (xmed ) =1n
n∑
i=1
|xi − xmed |.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Popolazione e campione
Definizione (popolazione)
Si definisce popolazione un insieme i cui elementi hanno in comunealmeno un attributo descritto attraverso una variabile aleatoria X,detta variabile sottostante , la cui distribuzione in generale èincognita.
Definizione (campione)
Si chiama campione casuale di dimensione n, estratto da unapopolazione avente X come variabile sottostante, una variabilen-dimensionale (X1,X2, . . . ,Xn) con le Xi indipendenti e aventi lastessa distribuzione di X .
Definizione (statistica)
Sia (X1,X2, . . . ,Xn) un campione di una popolazione la cuidistribuzione è nota in funzione di un parametro incognito θ. Sidefinisce statistica una funzione g(X1,X2, . . . ,Xn) delle variabilicasuali Xi (e dunque, a sua volta, una variabile casuale) che noncontiene il parametro θ.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Stimatori
Definizione (stimatore)
Si definisce stimatore una statistica che viene utilizzata per stimareun parametro incognito θ.
Definizione (stima puntuale)
Se f (X1, . . . ,Xn) = θ è uno stimatore e (x1, . . . , xn) è un valoreosservato del campione, allora il valore θ = f (x1, . . . , xn) è detto stimapuntuale del parametro θ.
Definizione (stimatore corretto)
Uno stimatore T del parametro θ si dice corretto se E(T ) = θ.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La media campionaria
Definizione (media campionaria)
Si chiama media campionaria di un campione (X1,X2, . . . ,Xn) lavariabile casuale X così definita:
X =1n
n∑
i=1
Xi .
Teorema
La media campionaria è uno stimatore corretto della media vera µ,cioè
E(X ) = E(X ) = µ.
Dimostrazione . Siccome abbiamo supposto che E(Xi ) = E(X ) = µ, allora
E(X ) =1
n
n∑
i=1
E(Xi ) =nµ
n= µ.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La media campionaria
Teorema (varianza della media campionaria)
La varianza della media campionaria vale quella di X diviso n, cioè
Var(X) =1n
Var(X ) =σ2
n.
Dimostrazione .
Var(X ) =1
n2Var
(
n∑
i=1
Var(Xi )
)
=nσ2
n2=
σ2
n.
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
La varianza campionaria
Definizione (varianza campionaria)
Si chiama varianza campionaria di un campione (X1,X2, . . . ,Xn) lavariabile casuale S2 così definita:
S2 =1
n − 1
n∑
i=1
(Xi − X )2.
Teorema
La varianza campionaria è uno stimatore corretto della varianza veraσ2, cioè
E(S2) = Var(X ) = σ2.
Osservazione . A differenza di S2, lo stimatore
S2 =1
n
n∑
i=1
(Xi − X )2.
non è uno stimatore corretto della varianza vera σ2 .
Seconda parte
Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali
Variabili discrete
Variabili continue
Covarianza
Indipendenza
Correlazione
Distribuzioni notevoliBinomiale
Poisson
Gauss
Approssimazionenormale
Statistica descrittivaOrganizzazione dei dati
Indicatori centrali e didispersione
Statistica matematicaMedia campionaria
Varianza campionaria
Bibliografia
Per approfondire
Il materiale esposto in questi lucidi è tratto principalmente da:
V. Franceschini , Lezioni di Statistica Matematica1. Reperibile al sito:http://cdm.unimo.it/home/matematica/franceschini.valter/
Ulteriori testi consigliati:
W. Navidi , Probabilità e Statistica per l’Ingegneria e le Scienze,McGraw Hill, 2006.
G. Anichini , Elementi di Calcolo delle Probabilità e di InferenzaStatistica2, in “Calcolo 4 – Parte prima”, Pitagora Editrice, Bologna,1995.
1Appunti per i corsi di Ingegneria Meccanica e dei Materiali dell’Università di Modena(contiene molti degli esercizi in Esercizi.pdf, interamente svolti).
2Testo introduttivo alla probabilità soggettivista e alla statistica bayesiana.