8 probability overview-it

Post on 28-Nov-2014

1.992 views 0 download

description

Un ripasso della teoria assiomatica e un passo piccolo piccolo nella direzione di una teoria Bayesiana

Transcript of 8 probability overview-it

Un ripasso di probabilità

Pau

l K

lee,

Gia

rdin

o d

i T

un

isi, 1

91

9

Riccardo Rigon

“Fare Scienza è oggi una attività che

non si svolge più nella notte dei secoli

bui, nè alla chiara luce dei lumi, ma nel

crepuscolo della probabilità ”

Paolo Agnoli citando Paolo Vineis che cita John

Locke

R. Rigon

!3

Sommario

• Nella lezione presente ricorderemo alcune proprietà fondamentali della probabilità

• Tratteremo anche delle differenze tra probabilità e statistica

• Descriveremo alcune distribuzioni di probabilità e le loro caratteristiche

• Ricorderemo il teorema del limite centrale

R. Rigon

!4

I fatti centrali del CP si possono derivare dal considerare

semplici esperimenti come quelli del lancio di una moneta:

se si lancia una moneta un numero grande di volte, la

proporzione di teste o croce, raggiunge valori prossimi al

50%.

Il calcolo delle probabilità

R. Rigon

!5

In altre parole mentre il risultato di un lancio è

completamente incerto, una lunga serie di lanci porta ad un

risultato certo.

Il passaggio da una forma di incertezza ad una di certezza

è uno dei temi essenziali del CP

Il calcolo delle probabilità

R. Rigon

!6

Alcune applicazioni del CP

•La Fisica Statistica, inclusa la modellazione dei sistemi biologici

•La teoria dei giochi

•Decisioni in economia e finanza

•La teoria dell’informazione

•La bioinformatica

•L’analisi dei dati idro-meteorologici!

R. Rigon

!7

L’esperimento probabilistico

Dunque con il CP abbiamo a che fare con:

!

• Experimenti il cui esito non può essere predetto con certezza

!

• Le realizzazioni dell’esperimento

!

Il termine esperimento è qui usato in senso lato, per significare il

verificarsi di eventi fisici ( e la loro misura) di cui il calcolo delle

probabilità rappresenta una astrazione in senso matematico

R. Rigon

!8

Lo spazio degli eventi

L’insieme di tutte le possibili realizzazioni di un esperimento è chiamato

spazio degli eventi (relativo all’esperimento).

!

Ogni singolo elemento dello spazio degli eventi è chiamato campione,

evento.

!

I campioni e lo spazio degli eventi dipendono da che cosa lo

sperimentatore decide di osservare.

R. Rigon

!9

Un Esempio classico Piove o non piove

L’osservatore può scegliere di osservare il verificarsi di precipitazione in una sequenza di

intevalli prefissati. Chiamamo P il caso di istante piovoso e S un istante non piovoso. Allora

! R= {PP, PS, SP, SS}

!Possiamo scegliere di registrare le coppie di istanti non piovosi. Allora lo spazio degli eventi

è costituito da:

! S= {0, 1, 2}

!eventi piovosi.

R. Rigon

!10

Un Esempio classico Piove o non piove

Se invece la nostra osservazione corrisponde al fatto che due giorni

successivi hanno lo stesso stato pluviometrico (U) o un diverso stato

pluivometrico (D), allora lo spazio degli eventi è:

!

T= {U, D}

R. Rigon

!11

Una definizione formale

• Sia Ω lo spazio degli eventi:

– Esso contiene tutte le possibili realizzazioni di un determinato

esperimento

!

– è un singolo evento

– è un insieme di eventi

!

– E’ richiesto che sia una sigma-algebra

� � �A � �

R. Rigon

!12

Una definizione più formale gli assiomi della probabilità

e.g. Feller, 1968

R. Rigon

!13

Non perseguiremo qui la prova dei seguenti enunciati. Tuttavia,

una evidenza intuitiva deriva dall’associare alla probabilità

l’area della figura geometrica disegnata nelle slides che

seguono.

Altre proprietà della probabilità. dedotte dagli assiomi 1-3:

R. Rigon

!14

Altre proprietà della probabilità. dedotte dagli assiomi 1-3:

Se

A + Ac = �

Allora:

P (A) = 1� P (Ac)

A

Ac

R. Rigon

!15

Altre proprietà della probabilità. dedotte dagli assiomi 1-3:

A ⇥ B =⇤ P (A) � P (B)

B AB

R. Rigon

!16

Altre proprietà della probabilità. dedotte dagli assiomi 1-3:

P (A ⇥B) = P (A) + P (B)� P (A ⇤B)

A

R. Rigon

!17

Altre proprietà della probabilità. dedotte dagli assiomi 1-3:

P (A ⇥B) = P (A) + P (B)� P (A ⇤B)

B

R. Rigon

!18

Altre proprietà della probabilità. dedotte dagli assiomi 1-3:

P (A ⇥B) = P (A) + P (B)� P (A ⇤B)

A �B

A �B

R. Rigon

!19

Il problema centrale

non è il calcolo: che risulta “automatico”. Ma l’assegnazione

delle probabilità ovvero della forma funzionale della P( ).

Quando si conosce la probabilità, si conosce tutto del fenomeno che

si va descrivendo: se ne è assegnata “la fisica”.

R. Rigon

!20

La probabilità condizionale

Si dice che una probabilità è condizionale, se essa è assegnata in

seguito alla conoscenza della realizzazione di uno o più eventi e si

scrive:

L a c o n o s c e n z a c h e c i h a permesso d i as segnare la probabilità

R. Rigon

!21

La probabilità condizionale

Si dice che una probabilità è condizionale, se essa è assegnata in

seguito alla conoscenza della realizzazione di uno o più eventi e si

scrive:

O più semplicemente:

se l’evento x è condizionato da y

R. Rigon

!22

Probabilità composte

Come negli esempi iniziali, è possibile considerare, il contemporaneo

realizzarsi di più insiemi di eventi. Si parla allora di Probabilità

congiunta, indicata con le due scritture equivalenti:

A, B � �

R. Rigon

!23

Probabilità composte

Come negli esempi iniziali, è possibile considerare, il contemporaneo

realizzarsi di più insiemi di eventi. Si parla allora di Probabilità

congiunta:

La probabilità è, in questo caso,

l ’ area de l t rapezio rosso ,

rispetto all’area di

A, B � �

R. Rigon

!24

Probabilità condizionali

La probabilità condizionale è invece definita come

Pertanto

Riccardo Rigon

!25

Dunque

La probabilità (pdf) di due eventi A e B congiunti è data da

dove P(A | B) è la probabilità di ottenere A da un campione casuale, sapendo che

B è certo, èd è chiamata probabilità condizionale di A rispetto ad B, e P(B) è la

probabilità di ottenere B. Equivalentemente il teorema si legge anche:

vista la simmetria esistente tra gli insiemi A e B

Bayes Theorem

Riccardo Rigon

!26

La regola di Bayes

Vale allora la Regola di Bayes

Bayes Theorem

Che di solito è scritta come:

R. Rigon

!27

Indipendenza statistica:

A e B sono detti statisticamente indipendenti se

Analogamente, se gli Aj sono indipendenti, allora

e

R. Rigon

!28

Indipendenza statistica:

Il concetto di indipendenza statistica estende quello del calcolo combinatorico

di eventi discreti, ma non è affatto intuitivo geometricamente.

Esso afferma, nella sostanza, che l’area dell’intersenzione (non nulla) di due

insiemi è uguale al prodotto delle aree degli insiemi. L’indipendenza statistica

rappresenta perciò una equazione che deve essere soddisfatta.

A

B

R. Rigon

!29

Indipendenza statistica:

Sia considerato, per illustrare l’esempio, uno spazio degli eventi rappresentato

da un quadrato di lato unitario e i due suoi sottoinsiemi con un lato unitario ed

uno, lungo 2/3

A

B

R. Rigon

!30

Indipendenza statistica:

Qualora i due sottoinsiemi siano disposti come in figura, la loro intersezione e’

di area 2/3 x 2/3 = 4/9 e, poichè P(B) = 2/3 e P(A) = 2/3

A

B

Allora A e B (come disposti in figura) sono eventi indipendenti !

2/3

1/3

2/3 1/3

R. Rigon

!31

Indipendenza statistica:

Se i due insiemi A e B sono fatti muovere parallelamente a se stessi, in base alla

definizione data, si ottengono altri insieme isomorfi ai primi che rimangono

indipendenti.

A

B2/3

1/3

2/3 1/3

R. Rigon

!32

Indipendenza statistica:

In altre configurazioni, some quella rappresentata sotto, non sono più

indipendenti statisticamente.

A

B2/3

1/3

2/3 1/3

R. Rigon

!33

Probabilità in spazi metrici

Sinora si è pensata la probabilità come definita su insiemi generici. D’ora in poi

assumeremo che lo spazio degli eventi siano uno spazio metrico, isomorfo ad

Rn. In questo caso gli insiemi sono generalmente rappresentati da

coordinate, di solito cartesiane e la probabilità viene rappresentata da

funzioni su Rn che vengono dette

• Funzioni di ripartizione

Se tali funzioni sono funzioni sono di una sola variabile (P: R ->R ) , il processo

viene detto:

•univariato

Altrimenti viene detto

•multivariato

!

!

R. Rigon

!34

D’ora in poi

Faremo assumeremo sempre di lavorare in Rn o R. Quindi:

In genere, A e B saranno intervalli di

R. Rigon

!35

D’ora in poi

Per indicare la probabilità di ottenere valori minori di x useremo la notazione:

oppure la probabilità di ottenere valori compresi tra x1 ed x2:

con ovvie generalizzazioni ai casi molti-dimensionali

R. Rigon

!36

La regola di Bayes con questa notazione diviene

?

Riccardo Rigon

!37

Vista la simmetria tra le variabili

vale anche:

che può essere riscritto:

Ciò che qui appare un semplice rimaneggaimento algebrico è in effetti la

nascita di una nuova visione della disciplina.

Bayes Theorem

Riccardo Rigon

!38

Bayes Theorem

Infatti:

Si assuma infatti la conoscenza a priori della variabile x, definita dalla

la distribuzione a priori. Il teorema di Bayes afferma che la conoscenza

introdotta dalla variabile y (o meglio dai fatti che y descrive), modifica la

conoscenza della variabile x (o meglio: della sua distribuzione), e che

questa conoscenza è garantita della distribuzione a posteriori:

che è proporzionale, ma non necessariamente uguale alla prima.

,

,

Riccardo Rigon

!39

Bayes Theorem

Il fattore di proporzionalità

è chiamato verosimiglianza:

Cosicchè:

la probabilità a posteriori (di x) uguaglia il prodotto della verosimiglianza per la

probabilità a priori (di x) diviso per l’evidenza

Alcuni distinguono tra numeratore, la verosimiglianza e denominatore che è

chiamato evidenza. Noi adotteremo quest’ultima convenzione.

R. Rigon

!40

Probabilità e causalità

La probabilità non riguarda necessariamente la rapporti causali

non significa che y causa x. Solo accenna alle relazioni tra y ed x.

Paradossalmente l’evento y può precedere x !

R. Rigon

!41

Distribuzioni delle variabili casuali

• La funzione di ripartizione o Cumulative Probability

Distribution (CDF) è definita:

• La sua derivata (se esiste) è la funzione densità di probabilità

Probability Density Function (PDF):

R. Rigon

!42

• Dalle due equazioni precedenti segue:

Distribuzioni delle variabili casuali

R. Rigon

!43

La distribuzione uniforme

• Una variabile random X è uniformemente distribuita tra x1 e x2 se ha funzione densità:

X1 X2

R. Rigon

!44

La distribuzione Gaussiana o Normale

• La densità di probabilità !!

• La probabilità

R. Rigon

• Si dice standard se μ = 0 e σ2 = 1

La distribuzione Gaussiana o Normale

-2 -1 1 2

0.2

0.4

0.6

0.8

1.0

Riccardo Rigon

Un Ripasso sulla Probabilità

Calcolo delle probabilità

• Probabilità di ottenere un intervallo di valori

!!

• Significato della deviazione standard

!!!

Riccardo Rigon

Un Ripasso sulla Probabilità

• Esempio

» X è una variabile random con μ = 0.8 & σ2 = 4

Calcolo delle probabilità

R. Rigon

!48

Uno sguardo più sistematico

1. Distribuzioni a valori discreti

2. Altre distribuzioni continue

R. Rigon

!49

Distribuzioni di Probabilità!

!

• La distribuzione di probabilità

!

– Determina la probabilità di un particolare evento

– Le distribuzioni discrete sono quelle che assumono un valori

nel campo dei numeri naturali o razionali

– Le distribuzioni continue sono quelle che assumono valori nel

campo dei numeri reali.

R. Rigon

• Se una variabile casuale X può assumere solo valori discreti: x1, x2, x3, …

• La funzione densità di probabilità f(x) è del tipo: !!!!!!!

• La CDF:

!50

Distribuzioni di probabilità discrete

R. Rigon

• Se una variabile casuale X può assumere solo valori discreti: x1, x2, x3, …

!!

• Tra le sue proprietà

!51

Distribuzioni di probabilità discrete

R. Rigon

!52

Distribuzioni di probabilità discrete

R. Rigon

!53

Distribuzioni di probabilità discrete

R. Rigon

!54

Distribuzioni di probabilità discrete

• Nei fatti, un istogramma e la ECDF sono delle distribuzioni a

valori discreti e la scrittura formale delle entità statistiche e

probabilistiche può coincidere.

!

• E’ bene ricordare però che mentre le entità statistiche

rappresentano campioni, le entità probabilistiche

rappresentano popolazioni (l’ontologia è diversa).

R. Rigon

!55

• Varianza di X:

• Deviazione standard di X:

Caratterizzazione delle distribuzioni

R. Rigon

!56

Caratterizzazione delle distribuzioni

• Si può definire, in generale, il momento n-esimo di una

distribuzione come:

M (n) :=� ⇥

�⇥xn pX(x) dx

R. Rigon

Funzione caratteristica

La funzione caratteristica è definita come il valore atteso della della funzione a valori complessi - eitx

R. Rigon

Funzione generatrice dei momenti

!!!La funzione generatrice dei momenti è definita come (il valore

atterso di etx ):

!!Il momento n-esimo può,, una volta ottenuto l’integrale di cui

sopra essere calcolati da:

!!!

Ovvero mediante la derivata n-esima dell funzione generatrice dei momenti, calcolata per t=0

R. Rigon

!59

La distribuzione Binomiale

• Governa la probabilità nel campo dei giochi, nell’analisi di qualità, nello studio delle opinioni, etc.

!!!

R. Rigon

!60

La distribuzione Binomiale

• Supponiamo di fare n tentativi, ovvero di avere n copie del

processo descritto a A e !A. Allora, la probabilità di avere x

volte A è:

R. Rigon

!61

La distribuzione Binomiale

!

• La media e la varianza della distribuzione sono

R. Rigon

!62

Poisson Distribution

• Infiniti eventi possibili

A1, A2, A3 ... An

La probabilità dei singoli eventi

ma

R. Rigon

!63

Poisson Distribution

• Allora

• Il valore numerico di media e varianza della distribuzione di Poisson sono uguali

R. Rigon

!64

Poisson Distribution

• Un calcolo esemplificativo

R. Rigon

!65

Altre distribuzioni continue

•Gaussiana o Normale

•Esponenziale

•Gamma

•Lognormale

•Chi square

•F and T

R. Rigon

Esponenziale

P [X < x;�] := 1� e��x 0 ⇥ x ⇥ ⇤

f(x;�) := �e��x 0 � x � ⇥

V ar[x;�] =1�2

E[X;�] =1�

R. Rigon

Esponenziale

R. Rigon

Esponenziale

More information on Wikipedia (Exponential distribution)

R. Rigon

GammaLa distribuzione Gamma può essere considerata una generalizzazione della distribuzione esponenziale e ha forma: !!!

Il suo integrale, cioè la probabilità è una funzione trascendente, che si trova tabulata (o si può calcolare con appropriati metodi numerici) e si chiama funzione gamma uncompleta

f(x; k, �) :=xk�1 e�x/�

�k �(k)0 � x � ⇥ k, � > 0

�(�) ⇥ (�� 1)!

R. Rigon

!70

Gamma

R. Rigon

!71

Gamma

R. Rigon

!72

Gamma

V ar(x; k, �) = k�2

Mode(x; k, �) = (k � 1)� k > 1

E[x; k, �] = k �

More information on Wikipedia (Gamma distribution)

R. Rigon

!73

Lognormale

R. Rigon

!74

Lognormale

R. Rigon

!75

Lognormale

R. Rigon

!76

Lognormale

E[x;µ, ⇥] = eµ+⇥2/2

Median[x;µ] = eµ

Mode[x;µ, ⇥] = emu��2

V ar[x;µ, ⇥] = (e⇥2� 1)e2µ+⇥2

More information on Wikipedia (Lognormal distribution)

R. Rigon

χ2

Le distribuzione della somma dei quadrati di n variabili random standardizzate ha una distribuzione χ2 con n gradi di libertà.

La funzione densità e la funzione di ripartizione sono rispettivamente:

f(x; k) =� 1

2k/2�(k/2)x(k/2�1)e�x/2 x > 0

0 x � 0

F [x; k] =�(k/2, x/2)

�k/2

R. Rigon

!78

χ2

R. Rigon

!79

χ2

R. Rigon

!80

E[x; k] = k

V ar[x; k] = 2k

χ2

More information on Wikipedia (Chi square distribution)

Mode[x; k] = k � 2 k ⇥ 2

R. Rigon

!81

χ2

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!82

Perchè la distribuzione Normale è così importante ?

-2 -1 1 2

0.2

0.4

0.6

0.8

1.0

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!83

4 Simulazione 3

4 Simulazione 3

In un terzo esempio, considereremo la distribuzione campionaria della

media nel caso di una variabile continua.

1. Verra utilizzata una popolazione teorica distribuita normalmente con

media e varianza conosciute: N (125, 33).

2. Usando R, verranno estratti da questa popolazione 50000 campioni

causali di grandezza n = 10.

3. Verra calcolata la media di ciascuno di questi campioni di grandezza

n = 10;

4. Verranno calcolate la media e la varianza della distribuzione delle

medie dei 50000 campioni di grandezza n = 10.

Tecniche di Ricerca Psicologica e di Analisi dei Dati 30

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!84

4 Simulazione 3

n <- 10

nSamples<- 50000

Mean <- 125

SD <- sqrt(33)

SampDistr <- rep(0,nSamples)

for (i in 1:nSamples){

samp <- rnorm(n, Mean, SD)

SampDistr[i] <- mean(samp)

}

MeanSampDistr <- mean(SampDistr)

VarSampDistr <- var(SampDistr)*(nSamples-1)/nSamples

Tecniche di Ricerca Psicologica e di Analisi dei Dati 31

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!85

4 Simulazione 3

Risultati della simulazione

> Mean

[1] 125

> Var

[1] 33

> MeanSampDistr

[1] 125.0029

> VarSampDistr

[1] 3.277463

> Var/n

[1] 3.300000

Tecniche di Ricerca Psicologica e di Analisi dei Dati 32

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!86

4 Simulazione 3

• Popolazione: µ = 125, �2 = 33.

• Distribuzione campionaria della media: µx = 125, �2x = 3.3.

• Risultati della simulazione: µx = 125.0029, �2x = 3.277463.

Tecniche di Ricerca Psicologica e di Analisi dei Dati 33

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!87

4 Simulazione 3

110 120 130 140

0.0

0.2

0.4

0.6

Media di campioni di grandezza n = 2

De

nsità

110 120 130 1400

.00.2

0.4

0.6

Media di campioni di grandezza n = 10

De

nsità

110 120 130 140

0.0

0.2

0.4

0.6

Media di campioni di grandezza n = 100

De

nsità

Tecniche di Ricerca Psicologica e di Analisi dei Dati 34

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!88

5 Simulazione 4

0 1 2 3 4 5 6

0.0

0.5

1.0

1.5

2.0

Media di campioni di grandezza n = 2

De

nsità

0 1 2 3 4 5 6

0.0

0.5

1.0

1.5

2.0

Media di campioni di grandezza n = 5

De

nsità

0 1 2 3 4 5 6

0.0

0.5

1.0

1.5

2.0

Media di campioni di grandezza n = 25

De

nsità

0 1 2 3 4 5 6

0.0

0.5

1.0

1.5

2.0

Media di campioni di grandezza n = 100

De

nsità

Tecniche di Ricerca Psicologica e di Analisi dei Dati 38

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!89

6 Conclusioni

6 Conclusioni

• Da questi esempi possiamo concludere le seguenti regole generali.

Supponiamo che x sia la media di un campione casuale estratto da

una popolazione avente media µ e varianza �2.

– La media della distribuzione campionaria di x e uguale alla media

della popolazione: µx = µ.

– La varianza della distribuzione campionaria di x e uguale a

�2x = �2

n .

Tecniche di Ricerca Psicologica e di Analisi dei Dati 39

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!90

6 Conclusioni

Legge dei grandi numeri

• Di conseguenza, al crescere della numerosita del campione, la media

del campione x diventa via via piu simile alla media della

popolazione µ.

– In un campione molto grande, x sara quasi certamente molto

simile a µ. Tale fatto e chiamato legge dei grandi numeri.

Tecniche di Ricerca Psicologica e di Analisi dei Dati 40

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!91

6 Conclusioni

Teorema del limite centrale

• Indipendentemente dalla forma della distribuzione della popolazione,

la distribuzione campionaria di x e approssimativamente normale e

quest’approssimazione e tanto migliore quanto maggiori sono le

dimensioni del campione: x � N (µ, ��n). Tale fatto e chiamato

teorema del limite centrale.

– Quanto debba essere grande n a�nche questa approssimazione

sia accettabile dipende dalla forma della distribuzione della

popolazione – in generale, comunque, n = 30 e su�ciente.

Tecniche di Ricerca Psicologica e di Analisi dei Dati 41

Corr

ado C

aud

ek

Inferenza statistica e statistica descrittiva

Riccardo Rigon

!92

6 Conclusioni

Distribuzione campionaria nel caso di una popolazione gaussiana

• Se la distribuzione della popolazione e gaussiana allora la

distribuzione campionaria di x sara normale, indipendentemente

dalla numerosita n del campione.

Tecniche di Ricerca Psicologica e di Analisi dei Dati 42

Corr

ado C

aud

ek

Riccardo Rigon

Grazie per l’attenzione!

G.U

lric

i, 2

00

0 ?