Materiale Docenti Malaguti Didattica Analisi Matematica B Lucidi Prob-II

Post on 01-Dec-2015

37 views 2 download

description

Materiale Docenti Malaguti Didattica Analisi Matematica B Lucidi Prob-II

Transcript of Materiale Docenti Malaguti Didattica Analisi Matematica B Lucidi Prob-II

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Elementi di Calcolo delle Probabilità e Statisticaper il corso di Analisi Matematica B

Laurea in Ingegneria MeccatronicaA.A. 2010–2011

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabili aleatorie n-dimensionali

Riepilogo .

Gli esiti di un esperimento aleatorio (cioè gli elementi s ∈ S) sono stati“etichettati” con un unico numero reale (il valore della variabilealeatoria X ).

Ciò è stato fatto in modo che almeno a tutti gli intervalli di R fossepossibile associare una probabilità (abbiamo cioè richiesto chel’immagine inversa di ogni intervallo fosse un evento di Ω).

In un esperimento aleatorio possiamo essere interessaticontemporaneamente a tante variabili aleatorie diverseXi , i = 1,2, . . . n.

Le n-uple (x1, x2, · · · xn), dove xi è un valore di Xi per ogni i , possonoessere interpretate come il valore (vettoriale) di un’unica variabilealeatoria n-dimensionale.

Ci limiteremo qui al caso bidimensionale, cioè a una sola coppia divariabili aleatorie (X ,Y ).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabile aleatoria bidimensionale (X ,Y )

Definizione (variabile bidimensionale)

Dato uno spazio di probabilità (S,Ω, p), si dice variabile aleatoriabidimensionale una coppia di funzioni (X ,Y ) che ad ogni s ∈ Sassocia la coppia di numeri reali

(

X (s),Y (s))

in modo che l’insieme

s : X (s) ≤ a, Y (s) ≤ b

sia un evento di Ω per ogni a, b ∈ R.

Definizione (funzione di ripartizione)

Data una variabile aleatoria bidimensionale (X ,Y ) definita sullospazio di probabilità (S,Ω, p), si chiama funzione di ripartizioneassociata a (X ,Y ) la funzione F : R2 → [0, 1] data da

F (x , y) = p(X ≤ x , Y ≤ y) per ogni (x , y) ∈ R2.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Proprietà della funzione di ripartizione bidimensionale

Dalla sua definizione:

F (x , y) = p(X ≤ x , Y ≤ y) = p(

(X ≤ x) ∩ (Y ≤ y))

=

= p(

s ∈ S : X (s) ≤ x ∩ s ∈ S : Y (s) ≤ y)

.

Teorema (proprietà di F )

limx → +∞y → +∞

F (x , y) = 1;

limx→−∞

F (x , y) = limy→−∞

F (x , y) = 0;

limx→+∞

F (x , y) = p(Y ≤ y) =: FY (y),

dove la funzione FY è detta funzione di ripartizione marginaledella variabile Y ;

limy→+∞

F (x , y) = p(X ≤ x) =: FX (x),

con FX funzione di ripartizione marginale di X .

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Proprietà della funzione di ripartizione bidimensionale

Teorema (probabilità del rettangolo)

p(

x1 < X ≤ x2 , y1 < Y ≤ y2)

=

= F (x2, y2)− F (x1, y2) + F (x1, y1)− F (x2, y1).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabili aleatorie bidimensionali discrete

Definizione (variabile bidimensionale discreta)

Una variabile bidimensionale (X ,Y ) è discreta se esiste un insiemefinito o numerabile di coppie (xr , ys) ∈ R

2, r = 1, 2, . . . , s = 1, 2, . . . ,tali che

prs := p(X = xr , Y = ys) ≥ 0, e∑

r ,s

prs = 1.

Si chiama funzione di probabilità congiunta la funzione

f (x , y) =

prs se (x , y) = (xr , ys), r = 1, 2, . . . ; s = 1, 2, . . .0 altrove.

Si dicono funzioni di probabilità marginali le funzioni

fX (x) =

pr• =∑

s prs se x = xr per r = 1, 2, . . .0 altrove.

fY (y) =

p•s =∑

r prs se y = ys per s = 1,2, . . .0 altrove.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabile bidimensionale finita

Nel caso finito : r = 1, 2, . . . , n; s = 1,2, . . . ,m, e le funzioni diprobabilità congiunta e marginali si rappresentano in una tabella:

Yy1 y2 y3 · · · ym

x1 p11 p12 p13 · · · p1m p1•x2 p21 p22 p23 · · · p2m p2•

X x3 p31 p32 p33 · · · p3m p3•...

......

.... . .

......

xn pn1 pn2 pn3 · · · pnm pn•p•1 p•2 p•3 · · · p•m

Figura: Tabella delle probabilità congiunta e marginali nel caso finito

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabili bidimensionali continue

Definizione (variabile bidimensionale continua)

Una variabile bidimensionale (X ,Y ) è continua se esiste una funzionenon negativa f (x , y), detta funzione densità congiunta , tale che

F (x , y) =∫ x

−∞

∫ y

−∞f (u, v) dudv .

Osservazione . La condizione che f deve soddisfare per essere unafunzione densità è

∫ +∞

−∞

∫ +∞

−∞f (u, v) dudv = 1.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabili bidimensionali continue

Si può dimostrare che le funzioni di ripartizione marginali dellevariabili X e Y sono date in questo caso da

FX (x) =∫ x

−∞

(∫ +∞

−∞f (u, v)dv

)

du

e

FY (y) =∫ y

−∞

(∫ +∞

−∞f (u, v)du

)

dv .

Le densità marginali di X e Y valgono quindi

fX (x) =∫ +∞

−∞f (x , v) dv

e

fY (y) =∫ +∞

−∞f (u, y)du.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Un teorema importante

Teorema (probabilità di una variabile bidimensionale)

Se A ⊆ R2 è tale che l’insieme s ∈ S :

(

X (s),Y (s))

∈ A è unevento di Ω, allora

p(

(X ,Y ) ∈ A)

=

∫∫

Af (x , y) dxdy .

Corollario (legge di composizione)

Sia (X ,Y ) una variabile casuale bidimensionale con densitàcongiunta f (x , y). Se Φ(X ,Y ) è una variabile casuale funzione di X eY , allora, per ogni intervallo I ⊆ R,

p(

Φ(X ,Y ) ∈ I)

=

∫∫

Af (x , y) dxdy ,

essendo A = (x , y) ∈ R2 : Φ(x , y) ∈ I.

Dimostrazione : basta notare che p(

Φ(X ,Y ) ∈ I)

= p(

s : Φ(

X (s),Y (s))

∈ I)

=

= p(

s :(

X (s),Y (s))

∈ A)

.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La covarianza di due variabili casuali σX ,Y

Definizione (covarianza)

Si dice covarianza delle variabili casuali X e Y , e si indica con σX ,Y

oppure con Cov(X ,Y ), il numero

σX ,Y = Cov(X ,Y ) := E[

(X − µX )(Y − µY )]

.

Esplicitando la formula del valore atteso:

σX ,Y =

r

s(xr − µX )(ys − µY )prs, nel caso discreto;

∫∫

R2(x − µX )(y − µY )f (x , y)dxdy , nel caso continuo.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Proprietà della covarianza

Teorema (proprietà covarianza)

σX ,Y = µX ·Y − µXµY

σ2X±Y = σ2

X + σ2Y ± 2σX ,Y

=⇒ generalizzato alla somma di n variabili aleatorie:

Var

(

n∑

i=1

Xi

)

=n∑

i=1

Var(Xi) + 2∑

1≤i<j≤n

Cov(Xi ,Xj)

σ2X ,Y ≤ σ2

Xσ2Y

Dimostrazione (della prima relazione, nel caso finito).

σX,Y =∑

r

s

(xr − µX )(ys − µY )f (xr , ys)

=∑

r

s

(xr ys − xrµY − µX ys + µXµY )f (xr ys)

= µXY − µXµY − µX µY + µXµY

= µXY − µXµY .

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Indipendenza tra variabili casuali

Definizione (indipendenza)

Due variabili aleatorie X e Y si dicono indipendenti se

F (x , y) = FX (x) · FY (y) per ogni x , y ∈ R.

Teorema

X, Y discrete indipendenti ⇐⇒ prs = pr•p•s cioè

p(X = xr , Y = yr ) = p(X = xr ) · p(Y = yr ).

X, Y continue indipendenti ⇐⇒ f (x , y) = fX (x) · fY (y).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Indipendenza tra variabili casuali

Teorema (media del prodotto di variabili indipendenti)

Se due variabili aleatorie X e Y sono indipendenti, allora

µXY = µX · µY

Dimostrazione (nel caso finito):

µXY =∑

r,s

xr ysprs

=∑

r

s

xr yspr•p•s

=∑

r

xr pr•

(

s

ysp•s

)

= µX · µY

Corollario (indipendenza e covarianza)

Se le variabili casuali X e Y sono indipendenti, allora σX ,Y = 0 (da: σX ,Y = µXY − µxµY e teorema precedente); σ2

X±Y = σ2X + σ2

Y (dalla formula della varianza di X ± Y).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Il coefficiente di correlazione lineare ρX ,Y

Definizione (coefficiente di correlazione)

Si dice coefficiente di correlazione tra le variabili casuali X e Y ilnumero

ρX ,Y :=σX ,Y

σX · σY.

Osservazioni . ρX ,Y = 0 ⇐⇒ σX ,Y = 0 ⇐⇒ X e Y sono dette incorrelate . ρX ,Y 6= 0 =⇒ X e Y si dicono correlate . |ρX ,Y | ≤ 1 (da: σ2

X ,Y ≤ σ2Xσ

2Y ).

massima correlazione se |ρX ,Y | = 1 =⇒ lineare dipendenza :

Y = αX + β

con α < 0 se ρX ,Y = −1, oppure α > 0 se ρX ,Y = +1.

N.B.: X ,Y indipendenti ⇒ X ,Y incorrelate; ma non viceversa!

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Variabili incorrelate

Corollario (additività della varianza)

Se X1,X2, . . . ,Xn sono n variabili aleatorie incorrelate, allora

Var(X1 + X2 + · · ·Xn) = Var(X1) + Var(X2) + · · ·+ Var(Xn).

In particolare, se le variabili hanno tutte la stessa varianza σ2, allora

Var(X1 + X2 + · · ·Xn) = nσ2.

Vale inoltre:

Var(a1X1+a2X2+· · · anXn) = a21Var(X1)+a2

2Var(X2)+· · ·+a2nVar(Xn).

Osservazioni .

L’ultima proprietà segue immediatamente da: Var(aX ) = a2Var(X ).

L’additività della varianza dipende dalla incorrelazione delle variabili aleatorie che si

sommano, a differenza della additività del valore atteso , che vale sempre.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Incorrelazione e indipendenza

Osservazione : variabili incorrelate 6⇒ variabili indipendenti.

Y−1 0 +1

−1 0 14 0 1/4

X 0 14 0 1

4 1/2+1 0 1

4 0 1/41/4 1/2 1/4

Figura: Esempio di variabili incorrelate ma non indipendenti.

p(X = −1,Y = −1) = 0 6= p(X = −1)p(Y = −1) = 14 · 1

4 = 116

=⇒ X ,Y non indipendenti.

µXY = µX = µY = 0 =⇒ X ,Y incorrelate (perché µXY − µXµY = 0).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Studio di alcune distribuzioni notevoli

Ci limiteremo alle seguenti distribuzioni discrete: la distribuzione binomiale, ovvero delle prove indipendenti

ripetute di Bernoulli (variabile aleatoria discreta finita); la distribuzione di Poisson , ovvero degli eventi rari (variabile

aleatoria discreta infinita numerabile);

ed alla seguente distribuzione continua: la distribuzione di Gauss , ovvero la distribuzione normale.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La distribuzione binomiale

Teorema (di Bernoulli)

La probabilità che in n prove indipendenti l’evento A si verifichiesattamente k volte, con k = 0,1, . . . , n, vale

(

nk

)

pk (1 − p)n−k

dove p è la probabilità di A in ogni singola prova.

Definizione (distribuzione binomiale)

Dati p ∈ (0, 1) e n ∈ N, si dice variabile binomiale la variabilealeatoria discreta (e finita) X avente la seguente funzione diprobabilità

p(X = k) =

(

nk

)

pk (1 − p)n−k , k = 0, 1,2, . . . , n.

Se X è binomiale di parametri n e p, si scrive anche X ≃ B(n, p).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Proprietà della distribuzione binomiale

Dalla formula del binomio abbiamo

n∑

k=0

(

nk

)

pk(1 − p)n−k = (p + 1 − p)n = 1,

dunque si tratta effettivamente di una funzione di probabilità.

Teorema (media e varianza della binomiale)

Se X ≃ B(n, p) allora µX = np e σ2X = np(1 − p).

Dimostrazione. Si può ottenere X come somma di n variabili aleatorieindipendenti Xi ≃ B(1, p), ciascuna delle quali rappresenta il numero disuccessi (0 oppure 1) in una sola prova:

X = X1 + X2 + . . .+ Xn.

Tramite calcolo diretto abbiamo

E(Xi ) = p, Var(Xi ) = p(1 − p) per ogni i .

Dunque E(X) = np e, dall’indipendenza delle Xi , segue anche cheVar(X) = np(1 − p).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La distribuzione di Poisson

Definizione (distribuzione di Poisson)

Una variabile aleatoria discreta X è detta di Poisson con parametroµ > 0 se può assumere gli infiniti valori k = 0, 1,2, . . . con probabilità

p(X = k) =µk

k !e−µ.

Osservazioni .∑∞

k=0µ

k

k ! e−µ = e−µ · eµ = 1.

Se X è di Poisson con parametro µ allora µX = σ2X = µ (no dim.).

⇒ aumentando µ, aumenta anche la dispersione dei dati attornoalla media.

Descrive il conteggio di fenomeni casuali distribuiti con una datadensità media µ nell’unità di tempo (superficie, volume. . . ).

Si ottiene dalla binomiale quando n è grande e p è vicino a 0 (perquesto è detta distribuzione degli eventi rari).

Vale la relazione ricorsiva: p(X = k + 1) = µ

k+1 p(X = k).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Esempi

Conteggio delle particelle α emesse da una sostanza radioattiva(X di Poisson con parametro µ = 0.5). Probabilità di osservaredue o più particelle in un secondo:

p(X ≥ 2) =+∞∑

k=2

(0.5)k

k !e−0.5

= 1 − p(X = 0)− p(X = 1)

= 1 − e−0.5 − 0.5 · e−0.5 ≈ 9%.

Carica batterica. Se una sospensione contiene in media 5 batteriper cm3, allora la probabilità che un campione casuale di 1 cm3

a) non contenga batteri, b) ne contenga al più 2, c) ne contengaalmeno 5, vale:

p(X = 0) = e−5 ≈ 0.7%;

p(X ≤ 2) =(

1 + 5 +52

2!

)

e−5 ≈ 12.5%;

p(X ≥ 5) = 1 − p(X ≤ 4) =(

1 + 5 +52

2!+

53

3!+

54

4!

)

e−5 ≈ 56%.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La distribuzione di Gauss

Definizione (distribuzione di Gauss)

Una variabile aleatoria continua X è detta di Gauss o normale conparametri µ e σ (µ ∈ R, σ > 0), e si scrive X ≃ N(µ, σ2) se la funzionedensità è

f (x) =1

σ√

2πe− (x−µ)2

2σ2 .

f (x) è detta funzione di Gauss : è una funzione “a campana”, simmetrica rispetto a x = µ; ha un massimo in x0 = µ, dove assume il valore 1

σ√

2π;

questo coefficiente ha il significato di fattore di normalizzazione:∫ +∞

−∞f (x)dx =

1√π

∫ +∞

−∞e−

(

x−µ

σ

√2

)2

d(

x − µ

σ√

2

)

= 1.

NB: Se I =∫

Re−x2

dx , allora I2 =∫

Re−x2

dx ·∫

Re−y2

dy =∫∫

R2 e−(x2+y2)dxdy .

Passando a coordinate polari, I2 =∫ 2π

0 dθ∫ +∞

0 ρe−ρ2

dρ = 2π[

e−ρ2

−2

]+∞

0= π.

Quindi I =√π.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Proprietà della distribuzione normale

Teorema (media e varianza della gaussiana)

Se X è una variabile di Gauss di parametri µ e σ, cioè X ≃ N(µ, σ2),allora

E(X ) = µ, Var(X ) = σ2.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Calcolo della probabilità p(a < X < b) sulla gaussiana

La funzione di ripartizione vale

F (x) =∫ x

−∞

1

σ√

2πe− (t−µ)2

2σ2 dt

da cui

p(a < X < b) = F (b)− F (a) =∫ b

a

1

σ√

2πe− (t−µ)2

2σ2 dt .

Osservazione . F (x) non si può calcolare esplicitamente. Per gliscopi concreti, si ricorre ad integrazione numerica o ai valori tabulatiper una particolare funzione di ripartizione normale, la normalestandardizzata.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La variabile aleatoria normale standardizzata

Teorema

Sia X una variabile aleatoria normale di parametri µ e σ e sia

Φ(x) =∫ x

−∞

1√2π

e− u22 du

la funzione di ripartizione della corrispondente variabile normalestandardizzata X∗ ≃ N(0,1) (X∗ è cioè normale con media 0 evarianza 1), allora la funzione di ripartizione di X vale

F (x) = Φ(x − µ

σ

)

.

Dimostrazione . Siccome∫ x−∞

f (t)dt = limc→−∞

∫ xc f (t)dt abbiamo

F (x) = limc→−∞

∫ x

c

1

σ√

2πe−

(t−µ)2

2σ2 dt

ponendo t−µ

σ= u, si ha dt = σdu, quindi

F (x) = limc→−∞

∫ x−µ

σ

c−µ

σ

1√

2πe− u2

2 du = Φ

(

x − µ

σ

)

.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Esempi e applicazioni (conoscendo i valori di Φ(x))

Probabilità di una variabile aleatoria normale X ≃ N(µ, σ2)

p(a ≤ X ≤ b) = Φ

(

b − µ

σ

)

− Φ(a − µ

σ

)

.

Esempio (problema diretto).

p(µ− σ < X < µ+ σ ) = Φ(1)− Φ(−1) ≈ 68.3%

p(µ− 2σ < X < µ+ 2σ) = Φ(2)− Φ(−2) ≈ 95.5%

p(µ− 3σ < X < µ+ 3σ) = Φ(3)− Φ(−3) ≈ 99.7%.

Esempio (problema inverso).

Assegnata una probabilità α, si cerca il numero x0 tale che Φ(x0) = α.x0 si indica con φα e si chiama quantile relativo ad α.Se α = n

100 , allora φα si chiama percentile n−esimo .(Soluzione: basta leggere la tabella dei valori di Φ(x) al contrario).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Esempi e applicazioni

Una relazione utile

Φ(−x) = 1 − Φ(x) cioè φ1−α = −φα.

Teorema (immagine affine di una distribuzione normale)

Se X ≃ N(µ, σ2) allora anche Y = aX + b (a > 0) è normale conmedia aµ+ b e varianza a2σ2.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Il teorema del limite centrale

Definizione (convergenza in legge)

Una successione di variabili aleatorie Xnn converge in legge (o indistribuzione ) alla variabile aleatoria X se e solo se, dette Fn(x) edF (x) le rispettive funzioni di ripartizione, si ha

limn→∞

Fn(x) = F (x)

per ogni punto x ∈ R di continuità per F .

NB: Se le variabili aleatorie Xi sono indipendenti e hanno tutte mediaµ e varianza σ2, allora la variabile aleatoria Sn = X1 + X2 + · · ·+ Xn ètale che

E(Sn) = nµ e Var(Sn) = nσ2.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Il teorema del limite centrale

Teorema (del limite centrale)

Sia Xnn una successione di variabili aleatorie indipendenti edidenticamente distribuite , di media µ e varianza σ2. Allora la somman−esima standardizzata

S∗n =

X1 + X2 + . . .+ Xn − nµσ√

n

converge in legge a N(0,1).

Osservazioni . La funzione di probabilità di S∗

n (complicata da esprimere ingenerale) si approssima, per n grande , con una legge N(0,1). . .

. . . e questo a prescindere dalla particolare legge delle Xn! Interpretazione : un effetto casuale che sia la risultante di molti

effetti aleatori, ciascuno dei quali dia solo un piccolo contributoall’effetto finale, segue approssimativamente una legge normale(esempio: errori di misurazione).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

L’approssimazione normale

Formula per n variabili Xi indip. e identicamente distribuite:

p(X1 + X2 + . . .+ Xn ≤ x) = p(

S∗n ≤ x − nµ

σ√

n

)

≈ Φ

(

x − nµσ√

n

)

.

In pratica : soglia di applicabilità (in genere): n > 30, ma può essere più alta; nel caso, ad esempio, delle prove di Bernoulli, devono valere le

condizioni np > 5 e n(1 − p) > 5; nel caso di variabili a valori interi conviene porre, se k ∈ Z,

p(X1 + . . .+ Xn = k) = p(

k − 12 < X1 + . . .+ Xn < k + 1

2

)

≈ Φ

(

k+ 12 −nµ

σ√

n

)

−Φ

(

k− 12 −nµ

σ√

n

)

;

se Xi ≃ B(1, p), allora X = X1 + X2 + · · ·+ Xn ≃ B(n, p) eE(X ) = np, Var(X ) = np(1 − p). L’approssimazione diventa:

p(X ≤ k) ≈ Φ

(

k + 12 − np

np(1 − p)

)

.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Le fasi di un’indagine statistica

Rilevazione dei dati; organizzazione dei dati; presentazione dei dati organizzati; interpretazioni e conclusioni.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Classi, frequenze assolute, relative, cumulate

Se i dati sono di tipo numerico, si ordinano e si stabilisce il campo divariazione , o rango , cioè il minimo intervallo che li contiene tutti.

Può essere conveniente suddividere i dati in classi della stessaampiezza per una migliore leggibilità. Il numero di classi può esserescelto con la formula (di Sturges)

nc = [1 + 1.443 ln n]

dove n è il numero di dati e [a] è l’intero più vicino ad a.

Si definiscono: la funzione di frequenza ϕ(x) che associa ad ogni classe il

numero degli elementi che la compongono; la funzione di frequenza relativa ϕr (x) =

ϕ(x)n ;

la funzione di frequenza cumulativa ϕc(x), cioè il numero dielementi nella classe e in tutte le classi precedenti;

la funzione di frequenza cumulativa relativa ϕcr (x) = ϕc (x)n .

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Rappresentazioni grafiche

Le più significative sono: istogramma; grafico a bastoni; poligoni delle frequenze.

In tutti i casi si riportano sulle ordinate le frequenze delle classi riferiteal loro punto di mezzo (sulle ascisse).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Rappresentazioni grafiche

Figura: Istogramma.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Rappresentazioni grafiche

Figura: Diagramma a bastoni.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Rappresentazioni grafiche

Figura: Istogramma e poligono delle frequenze.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Rappresentazioni grafiche

Figura: Poligono delle frequenze ϕ(x).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Rappresentazioni grafiche

Figura: Poligono delle frequenze cumulative ϕc(x).

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Indici di tendenza centrale

Definizione (media)

Date n osservazioni numeriche xi , i = 1, 2, . . . , n, si chiama mediadelle osservazioni il numero

x =1n

n∑

i=1

xi .

Definizione (mediana)

Si chiama mediana il valore centrale dell’insieme ordinato:

xmed =

x n+12

se n è dispari12

(

x n2+ x n

2 +1

)

se n è pari.

Definizione (moda)

Si chiama moda un numero xmod che si ripete il maggior numero divolte.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Indici di dispersione

Definizione (deviazione standard)

Date n osservazioni numeriche x1, . . . , xn, si chiama deviazionestandard , o scarto quadratico medio delle osservazioni il numero

σ =

1n

n∑

i=1

(xi − x)2.

Il numero σ2 è chiamato la varianza dei dati.

Definizione (deviazioni medie)

Si chiamano deviazione media dalla media e deviazione mediadalla mediana i numeri

Dmed (x) =1n

n∑

i=1

|xi − x |; Dmed (xmed ) =1n

n∑

i=1

|xi − xmed |.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Popolazione e campione

Definizione (popolazione)

Si definisce popolazione un insieme i cui elementi hanno in comunealmeno un attributo descritto attraverso una variabile aleatoria X,detta variabile sottostante , la cui distribuzione in generale èincognita.

Definizione (campione)

Si chiama campione casuale di dimensione n, estratto da unapopolazione avente X come variabile sottostante, una variabilen-dimensionale (X1,X2, . . . ,Xn) con le Xi indipendenti e aventi lastessa distribuzione di X .

Definizione (statistica)

Sia (X1,X2, . . . ,Xn) un campione di una popolazione la cuidistribuzione è nota in funzione di un parametro incognito θ. Sidefinisce statistica una funzione g(X1,X2, . . . ,Xn) delle variabilicasuali Xi (e dunque, a sua volta, una variabile casuale) che noncontiene il parametro θ.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Stimatori

Definizione (stimatore)

Si definisce stimatore una statistica che viene utilizzata per stimareun parametro incognito θ.

Definizione (stima puntuale)

Se f (X1, . . . ,Xn) = θ è uno stimatore e (x1, . . . , xn) è un valoreosservato del campione, allora il valore θ = f (x1, . . . , xn) è detto stimapuntuale del parametro θ.

Definizione (stimatore corretto)

Uno stimatore T del parametro θ si dice corretto se E(T ) = θ.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La media campionaria

Definizione (media campionaria)

Si chiama media campionaria di un campione (X1,X2, . . . ,Xn) lavariabile casuale X così definita:

X =1n

n∑

i=1

Xi .

Teorema

La media campionaria è uno stimatore corretto della media vera µ,cioè

E(X ) = E(X ) = µ.

Dimostrazione . Siccome abbiamo supposto che E(Xi ) = E(X ) = µ, allora

E(X ) =1

n

n∑

i=1

E(Xi ) =nµ

n= µ.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La media campionaria

Teorema (varianza della media campionaria)

La varianza della media campionaria vale quella di X diviso n, cioè

Var(X) =1n

Var(X ) =σ2

n.

Dimostrazione .

Var(X ) =1

n2Var

(

n∑

i=1

Var(Xi )

)

=nσ2

n2=

σ2

n.

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

La varianza campionaria

Definizione (varianza campionaria)

Si chiama varianza campionaria di un campione (X1,X2, . . . ,Xn) lavariabile casuale S2 così definita:

S2 =1

n − 1

n∑

i=1

(Xi − X )2.

Teorema

La varianza campionaria è uno stimatore corretto della varianza veraσ2, cioè

E(S2) = Var(X ) = σ2.

Osservazione . A differenza di S2, lo stimatore

S2 =1

n

n∑

i=1

(Xi − X )2.

non è uno stimatore corretto della varianza vera σ2 .

Seconda parte

Variabili aleatoriebidimensionaliDistribuzione congiunta emarginali

Variabili discrete

Variabili continue

Covarianza

Indipendenza

Correlazione

Distribuzioni notevoliBinomiale

Poisson

Gauss

Approssimazionenormale

Statistica descrittivaOrganizzazione dei dati

Indicatori centrali e didispersione

Statistica matematicaMedia campionaria

Varianza campionaria

Bibliografia

Per approfondire

Il materiale esposto in questi lucidi è tratto principalmente da:

V. Franceschini , Lezioni di Statistica Matematica1. Reperibile al sito:http://cdm.unimo.it/home/matematica/franceschini.valter/

Ulteriori testi consigliati:

W. Navidi , Probabilità e Statistica per l’Ingegneria e le Scienze,McGraw Hill, 2006.

G. Anichini , Elementi di Calcolo delle Probabilità e di InferenzaStatistica2, in “Calcolo 4 – Parte prima”, Pitagora Editrice, Bologna,1995.

1Appunti per i corsi di Ingegneria Meccanica e dei Materiali dell’Università di Modena(contiene molti degli esercizi in Esercizi.pdf, interamente svolti).

2Testo introduttivo alla probabilità soggettivista e alla statistica bayesiana.