Probabilità a priori informative - Statistica bayesiana

Post on 16-Jun-2015

328 views 0 download

description

Relazione di statistica bayesiana sulle probabilità a priori informative: - definizione - concetto di buona assegnazione di probabilità - formula di Bayes - esempi di aggiornamento delle probabilità per distribuzioni discrete e continue - misture di famiglie coniugate - probabilità a priori di massima entropia

Transcript of Probabilità a priori informative - Statistica bayesiana

LE PROBABILITA’ A PRIORIINFORMATIVE

Corso di Laurea Magistrale in Scienze Statistiche

A.A. 2008/2009

APPROCCIO DECISIONALE

Determinanti di una decisione:

esperienza a priori

campione

conseguenze potenziali

Fine di un paradigma o sua evoluzione?

Concetto di “informazione allargata”, che comprende anche quella inosservabile, consente di formalizzare l’esperienza a priori tramite modelli probabilistici.

Le probabilità a priori: una questione controversa

Fine di un paradigma o sua evoluzione?

SOGGETTIVITA’

nella scelta delle probabilità

mette in discussione la scientificità della statistica

mancanza di protezione da rappresentazioni distorte della realtà

Svantaggi controbilanciati dall’ipotesi di coerenza del decisore

Le probabilità a priori: una questione controversa

Le probabilità a priori: una questione controversa

La scelta dipende dall’ammontare di informazione disponibile

Se esiste tanta informazione in materia

In letteratura esiste una distribuzione a priori usata comunemente con valori dei parametri già specificati

Se l’informazione è parziale

Si ricorre alle probabilità a priori informative

Se non si hanno informazioni

Si utilizzano probabilità a priori non informative, tali da non veicolare alcun tipo di conoscenza a priori all’interno del modello utilizzato

Le probabilità a priori informative sono probabilità stabilite dal soggetto che effettua lo studio - prima di procedere all’osservazione della realtà - in base alla plausibilità che egli attribuisce a ciascun valore del parametro.

Legame indissolubile con il giudizio del soggetto “assertore”, che esprime il “grado di credibilità”– degree of belief – che egli attribuisce ad un insieme di valori plausibili del parametro.

Le probabilità a priori informative

Coerenza

Rispetto degli assiomi di Kolmogorov, così da garantire la comprensibilità del linguaggio probabilistico e l’assenza di contraddizioni

Regole nella scelta delle probabilità a priori

Osservabilità

Solo gli eventi verificabili (osservabili) nella realtà possono essere oggetto di assegnazione di probabilità

Le probabilità a priori informative

Una “buona” assegnazione di probabilità

Definizione A chi compete?

Bontà sostanziale

dipende dalla conoscenza che l’assertore ha riguardo l’oggetto dell’asserzione

all’ esperto in materia

Bontà normativa allo statistico

Necessità di una integrazione tra le due competenze per raggiungere un’assegnazione il più possibile vicina alla realtà.

legata all’abilità dell’assertore ad esprimere le sue opinioni in forma probabilistica.

Le probabilità a priori informative

Le probabilità a priori informative

Tipologie di probabilità a priori informative

Probabilità a priori di massima entropia

Probabilità a priori coniugate

Probabilità a priori coniugate

Una probabilità a priori coniugata con la

funzione di

verosimiglianza consente la

semplificazione

matematica della formula di Bayes:

poiché la probabilità a posteriori apparterrà alla stessa famiglia

di quella a priori.

La trattabilità matematica della formula di Bayes

Probabilità a priori coniugate

La libertà di scelta è assicurata da:

i parametri della curva, che per certe distribuzioni – per es. la Beta – possono modificare radicalmente l’andamento della curva

l’esistenza di famiglie coniugate mistura, che ampliano lo spettro di distribuzioni che possono esser utilizzate

Probabilità a priori coniugate

Definizione di famiglia coniugata

Sia F= una classe di funzioni di

verosimiglianza e P un insieme di funzioni di probabilità –

discrete o continue; se, per ogni x, ciascun F e

P, la risultante funzione di probabilità a posteriori

è ancora in P, allora P è

chiamata famiglia coniugata, o famiglia di probabilità a priori

coniugate, per F.

Sssxf X ),|(

)|( sxf X spS xspS | spS)|( sxf X

Probabilità a priori coniugate

Caratteristiche di una famiglia coniugata

Le famiglie sono:

• il più piccole possibile

• parametrizzate

il calcolo delle probabilità a posteriori si riduce ad un aggiornamento dei parametri associati alla probabilità a priori coniugata.

Probabilità a priori coniugate

Famiglie coniugate di particolari distribuzioni di probabilità

Probabilità a priori coniugate

Esempio di updating per variabili aleatorie discrete

10,)1()()(

)(),;( 11

ba

ba

babag

yny

y

nyg

)1()|(

)()(

)(

ba

ba

y

n

Distribuzione a priori: Beta

Nel calcolo delle probabilità a posteriori le costanti e

possono essere omesse. Allora sarà:

Verosimiglianza del parametro rispetto alle osservazioni: Binomiale

Probabilità a priori coniugate

Esempio di updating per variabili aleatorie discrete

1111 )1()1()1()|( ynbyaynybayg

),()|( ynbbyaaBetay

cioè la probabilità a posteriori è ancora della famiglia Beta, con i parametri aggiornati:

Probabilità a priori coniugate

Esempio di updating per variabili aleatorie continue

)2

)(exp()(

2

2

s

mg

),( 2smN

)2

)(exp()|(

2

2

y

yf ),( 2Ny

Quando la probabilità a priori e la funzione di verosimiglianza sono entrambe normali, cioè:

-

-

Probabilità a priori coniugate

Esempio di updating per variabili aleatorie continue

y

sn

nm

sn

s

nss

yyyg n

22

2

22

2

22

2221 11

1(

2

1exp),...,,|(

))(,( '2' smN

la probabilità a posteriori ha questa forma:

quindi la distribuzione a posteriori è ancora normale, ma con i parametri aggiornati

Probabilità a priori coniugate

Esempio di updating per variabili aleatorie continue

22'21

)(1

sn

s 22

22'2 2)(ns

ss

Infatti, definendo la precisione di una distribuzione come il reciproco della varianza, con la proprietà dell’additività, la varianza a posteriori viene calcolata proprio dalla precisione a posteriori, ottenuta come somma tra la precisione a priori e la precisione delle osservazioni:

, da cui

mentre la media a posteriori è la media ponderata della media a priori e quella osservata, dove i pesi sono dati rispettivamente dalla proporzione della precisione a posteriori dovuta alla distribuzione a priori e da quella dovuta alla distribuzione campionaria:

y

sn

nm

sn

sm22

2

22

2

11

1'

Probabilità a priori coniugate

Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate

- quota di mercato ottenuta da un nuovo brand.

)1,3(Beta- distribuzione triangolare, cioè g()=2(1-), o anche

.g(π)

π

Probabilità a priori coniugate

Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate

.

Si estragga un campione casuale di 5 consumatori: solo uno dei 5 compra il nuovo prodotto.

)|( xf 445 )1(5)1(1

5)1(

5

xx

x

Dal momento che la quota di mercato è una proporzione e supponendo le decisioni degli individui estratti indipendenti, si può ipotizzare una f.d.v. Binomiale, cioè

.

Probabilità a priori coniugate

Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate

..

55

1

0

5

5

1

0

4

4

1

0

)1(4242/10

)1(10

)1(10

)1(10

)1(5*) -2(1

)1(5*) -2(1

)|()(

)|()()|(

dddxfg

xfgxg

Calcolo delle probabilità a posteriori

La distribuzione a posteriori è quindi )2,8()|( Betax

Probabilità a priori coniugate

Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate

..

Posterior

-1

0

1

2

3

0 0.2 0.4 0.6 0.8 1

x

f

)2,8()|( Betax

In realtà, sarebbe bastato osservare che la distribuzione beta è la famiglia coniugata delle funzioni di verosimiglianza binomiali e, al fine di individuare le probabilità a posteriori, procedere all’updating dei parametri

Probabilità a priori coniugate

Misture di famiglie coniugate

..

L’introduzione di misture di famiglie coniugate permette di raggiungere una maggiore libertà e flessibilità nella formalizzazione delle conoscenze a priori

Proprietà di approssimazione universale

Probabilità a priori coniugate

Definizione di mistura di famiglie coniugate

Se P è una famiglia coniugata per F, lo è qualsiasi mistura m-dimensionale costruita con elementi di P.

Se però è la verosimiglianza ad essere una mistura di funzioni di F, la probabilità a posteriori risultante dalla combinazione di questa verosimiglianza con una probabilità a priori da P, non appartiene a P.

E’ possibile adottare una famiglia coniugata mistura per verosimiglianze di tipo mistura.

Probabilità a priori coniugate

Applicazione sulle misture di famiglie coniugate

CAMPIONE

Sia S una quantità ignota osservata n volte (cioè si estrae un campione casuale composto da n unità x1,x2,…xn) da una popolazione che si suppone ),( 2s con varianza nota.

La funzione di verosimiglianza sarà:

Probabilità a priori coniugate

Applicazione sulle misture di famiglie coniugate PROBABILITA’ A PRIORISi supponga che la conoscenza a priori del fenomeno spinga a

ritenere che:

- la probabilità che s sia vicina allo 0 è molto alta cioè

p(s=0)→1;

- c’è una probabilità positiva, ma bassa, che il parametro

assuma valori molto lontani dallo 0.Questo tipo di comportamento fa pensare ad una distribuzione a code pesanti, non contemplata nella famiglia coniugata normale. E’ quindi necessario ricorrere ad un modello mistura per le probabilità a priori:

Una distribuzione N(s| ), con =1

Probabilità a priori coniugate

Applicazione sulle misture di famiglie coniugate

20 Una distribuzione N(s| ), con

=20

21

20

21

Il modello mistura di a) e b), con

2.00

Probabilità a priori coniugate

Applicazione sulle misture di famiglie coniugate

PROBABILITA’ A POSTERIORI NELLA MIXTURE FORM

Aggiornamento del peso:

Probabilità a priori di massima entropia

Il metodo della massima entropia ha come obiettivo la ricerca di una probabilità a priori il più oggettiva (il meno informativa) possibile, pur non rinunciando all’informazione parziale disponibile.

Probabilità a priori di massima entropia

L’informazione

L’informazione può essere rappresentata da un codice costituito da una sequenza di bit.

Quando viene posta una domanda, essa porta con sé una quantità di incertezza sulla risposta corretta proporzionale alle alternative disponibili.

Se la domanda (variabile) X ha N risposte alternative (determinazioni), l’incertezza (Uncertainty) ad essa associata è pari a:

XNXU 2log)(

Probabilità a priori di massima entropia

L’informazione

N2log

Numero di

Alternative

Probabilità logica delle

opzioniBits

1 1 0

2 0.5 1

4 0.25 2

… … …

256 0.00390625 8

N

N

1

Probabilità a priori di massima entropia

L’informazione

xX NNxUXUXxI 22 loglog)()()(

))(

1log())(log()(

xPxPxI

Se x è una risposta – o un insieme di risposte - alternativa alla domanda X (cioè una determinazione - o un insieme di determinazioni - della variabile X), allora l’informazione che essa trasmette può esser definita come la differenza tra due stati di incertezza:

tanto più alta quanto più è bassa la probabilità di quell’evento:

Probabilità a priori di massima entropia

L’entropia

)( ixI ),...,,( 21 nxxx associata a ciascuna delle realizzazioni della stessa”:

“L’entropia di una variabile aleatoria X è la media dell’ informazione

n

iiii xPxIxIEXH

1

)()()]([)(

dove con si indica la “quantità di incertezza associata ad

un evento, cioè l’informazione che si ottiene affermando che tale

evento si è realizzato”

)( ixI

Probabilità a priori di massima entropia

Probabilità a priori di massima entropia per problemi a natura discreta

MsssSs ,...,, 21)(spS

)](log[)])(

1[log(

)())(

1log()()(

iSSiS

S

iSSs iS

iS

spEsp

E

sIEsp

spSHi

Quando il parametro s può assumere un numero finito di valori:

l’entropia della funzione di probabilità

è definita come:a priori

Probabilità a priori di massima entropia

Il metodo dei moltiplicatori di Lagrange

Il metodo dei moltiplicatori di Lagrange è un metodo che serve “per trovare i massimi e i minimi di una funzione in più variabili soggetta ad uno o più vincoli”, che si pone “alla base dell’ottimizzazione lineare non vincolata.”

“Esso riduce la ricerca dei punti stazionari di una funzione vincolata in n variabili con k vincoli a trovare i punti stazionari di una funzione non vincolata in n+k variabili, introducendo una nuova variabile scalare incognita per ogni vincolo”, detta moltiplicatore di Lagrange, “e definisce una nuova funzione (la Lagrangiana) in termini della funzione originaria, dei vincoli e dei moltiplicatori di Lagrange.”

Probabilità a priori di massima entropia

Metodo dei moltiplicatori di Lagrange e massimizzazione dell’entropia per problemi a natura discreta

Poiché anche la massimizzazione dell’entropia rientra tra i problemi di ottimizzazione vincolata, essa viene trattata con il metodo dei moltiplicatori di Lagrange.

Ss

kikiS

i

sgsp )()(

1)(

iSSs

spi

Una probabilità a priori di massima entropia per problemi a natura discreta è una funzione di probabilità che massimizza l’entropia (l’incertezza) tra tutte le funzioni compatibili con l’informazione parziale disponibile che, per l’applicabilità del criterio, deve essere espressa formalmente (rappresenta i vincoli al problema di massimizzazione):

dove è il vincolo onnipresente.

per k=0,1,…,m,

Probabilità a priori di massima entropia

Metodo dei moltiplicatori di Lagrange e massimizzazione dell’entropia per problemi a natura discreta

m

kkk g

MES esp 1

0

)(

)(spMES

Sotto questo tipo di vincoli, la probabilità a priori di massima entropia

per problemi a natura discreta assume la forma:

, dove i valori dei parametri sono

soluzioni del problema di ottimizzazione vincolata di

k

Probabilità a priori di massima entropia

La distribuzione che massimizza l’entropia per problemi a natura discreta

Problema: ricerca della distribuzione di probabilità a priori discreta

),...,( 21 npppg che massimizza l’entropia:

)(121 )(maxln:),...,(

sp

n

kkkn

S

SHpppppg

dove l’unico vincolo è quello onnipresente.

Probabilità a priori di massima entropia

La distribuzione che massimizza l’entropia per problemi a natura discreta

0))1(( fgpk

Si possono usare i moltiplicatori di Lagrange per trovare il punto di massima entropia (dipendente dalle probabilità). Per tutti i k da 1 a n, si richieda che:

1exp)( kS sp

Questo dimostra che tutti i pk sono uguali (perché dipendono da λ soltanto).

Probabilità a priori di massima entropia

La distribuzione che massimizza l’entropia per problemi a natura discreta

Utilizzando il vincolo ∑k pk = 1, troviamo:

Npk /1

La distribuzione uniforme è la distribuzione di massima entropia

Probabilità a priori di massima entropia

La distribuzione che minimizza l’entropia per problemi a natura discreta

1)( kS sp

ik

kS sp )( 1

Distribuzione di probabilità discreta:

, dove e

La concentrazione della massa di probabilità su un solo punto massimizza la certezza e minimizza l’informazione.

Ma se tende a 0, allora devono farlo tutti i , cioè: )( kS sp

Probabilità a priori di massima entropia

Probabilità a priori di massima entropia per problemi a natura continua

L’informazione disponibile, che rappresenta i vincoli al problema di massimizzazione dell’entropia, è espressa come: k=0, 1,…, m

La probabilità a priori di massima entropia diventa

per ,

dove i parametri sono ricavati dai vincoli.

S

kkS dssgsp )()(

m

kkk sg

SMES esqsp 1

0 )(

)()(

Ss

Probabilità a priori di massima entropia

Probabilità a priori di massima entropia per problemi a natura continua

Non esiste la distribuzione che massimizza l’entropia, ma occorre di volta in volta scegliere una distribuzione a priori qS(s) non informativa.

Se non ci sono vincoli espliciti oltre la normalizzazione, allora la probabilità a priori di massima entropia coincide con la densità non-informativa qS(s) prescelta.

Grazie per l’attenzione!

Carla Guadalaxara