Metodi e modelli per le decisioni - Home di homes.di.unimi.it · alternative per il lancio di un...

14
Metodi e modelli per le decisioni Roberto Cordone A. A. 2017-18

Transcript of Metodi e modelli per le decisioni - Home di homes.di.unimi.it · alternative per il lancio di un...

Metodi e modelli per le decisioni

Roberto Cordone

A. A. 2017-18

Capitolo 11

Teoria delle decisioni

La teoria delle decisioni estende i concetti esposti sinora, sia per le decisioni incondizioni di ignoranza sia per quelle in condizioni di rischio, a problemi e modellipiu complessi. In particolare, tiene conto del fatto che le decisioni in ambienteincerto possono essere distribuite nel tempo su piu fasi, e che quindi alcune variabilidi decisione possono essere fissate dopo che il valore di alcune variabili esogene sie rivelato.

11.1 Albero delle decisioni

L’albero delle decisioni e un strumento di risoluzione per problemi di tipo fini-to, equivalente alla matrice di valutazione, ma piu flessibile. Esso introduce unastruttura gerarchica sulle variabili di decisione e sulle variabili esogene.

L’idea fondamentale e che il processo decisionale si svolge in tmax fasi successive,rappresentate da un indice temporale t che cresce da 0 a tmax−1. In ciascuna fase t:

• prima, il decisore fissa un sottovettore di variabili decisionali x(t);

• poi, il mondo esterno fissa un sottovettore di variabili esogene ω(t).

Si puo paragonare il problema a un gioco, nel quale alternativamente il decisoresceglie una mossa x(t) e la natura risponde con una contromossa ω(t). Quando ildecisore deve scegliere x(t), non conosce solo i dati del problema, ma anche le propriemosse e quelle della natura per tutte le fasi precedenti, da 0 a t− 1. Quindi, il pro-blema non consiste piu semplicemente nel cercare una soluzione, cioe un vettore di

numeri reali x(t)i , ma una strategia, cioe un vettore di funzioni x

(t)i

(ω(0), . . . , ω(t−1)

)le cui componenti dipendono in generale dal valore delle variabili esogene note almomento della decisione.

L’albero e costituito da livelli in rigoroso ordine cronologico, dal livello 0, cheinclude solo la radice dell’albero, al livello 2tmax + 1, che include solo foglie. I livellisono organizzati a coppie:

• i livelli di indice pari (2t) corrispondono al primo tempo della fase t, in cui il

decisore compie scelte, cioe fissa il valore delle variabili di decisione x(t)i ; gli

archi uscenti da uno stesso nodo rappresentano tutti i possibili valori di talivariabili di decisione;

• i livelli di indice dispari (2t+ 1) corrispondono al secondo tempo della fase t,in cui parte dello stato di natura si rivela, cioe fissa il valore delle variabili

esogene ω(t)j ; gli archi uscenti da uno stesso nodo v rappresentano tutti i

possibili valori di tali variabili esogene, cioe diversi eventi casuali.

1

L’ordine cronologico dei livelli fa sı che il dispiegarsi delle decisioni e degli eventiesterni si traduca nel percorrere un ramo dell’albero dalla radice ad una delle foglie.Le foglie dell’albero descrivono le situazioni in cui decisioni e stati di natura sonointeramente fissati, cioe le configurazioni (x, ω) del sistema. Ai vari nodi e archidell’albero sono associati i dati del problema:

• ogni foglia (x, ω) e marcata con il relativo impatto f (x, ω);

• gli archi uscenti dai nodi di livello dispari possono essere marcati con le pro-babilita π (ω) degli esiti casuali che essi rappresentano (se queste sono note);la somma delle probabilita per gli archi uscenti da ciascun nodo e unitaria.

Nei problemi studiati sinora, il processo decisionale attraversava una sola fase(tmax = 1), per cui l’albero corrispondente ha tre livelli: un livello iniziale di deci-sione, uno di svelamento degli scenari e uno finale di valutazione degli impatti (vediFigura 11.1). Per questi problemi, l’albero di decisione equivale perfettamente allamatrice di valutazione, e al vettore delle probabilita, se quest’ultimo e noto.

Figura 11.1: Albero di decisione a due livelli per un problema una sola fase didecisione, tre alternative e tre scenari

Per risolvere il problema, si applica il metodo dell’induzione a ritroso: si procedecioe a ritroso, dalle foglie alla radice, risalendo l’albero di livello in livello e marcandoil nodo padre in base alle marcature dei nodi figli secondo la strategia risolutivaprescelta:

• se il nodo padre corrisponde a una decisione, si marca il padre con la migliorefra le etichette dei nodi figli, a indicare che il decisore sceglie l’alternativache produce il risultato migliore; questo corrisponde anche a stabilire il valore

delle variabili x(t)i che descrivono la decisione;

• se il nodo padre corrisponde a un evento esogeno, viene marcato in base al cri-terio di scelta prescelto per affrontare l’incertezza: caso pessimo, rammarico,equiprobabilita, valore atteso, utilita stocastica, ecc. . .

2

Per esempio, se in un nodo v si adotta il criterio dell’utilita attesa, la marcaturadel nodo padre v deriva da quella dei nodi figli vω associati a tutti i possibili esitidell’insieme Ωv secondo la relazione:

u (v) =∑ω∈Ωv

πωu (vω)

Adottando altri criteri di scelta, si possono eseguire algoritmi risolutivi diversi sullostesso albero, e quindi ottenere soluzioni diverse.

Esempio 1 Un’azienda vuole introdurre sul mercato un nuovo prodotto scegliendofra tre possibili modelli (A, B, C). Sono stati ipotizzati tre possibili livelli di do-manda (Basso, Medio e Alto) e le relative probabilita. I modelli rappresentano lesoluzioni x disponibili mentre i livelli di domanda sono i possibili scenari ω. La Ta-bella 11.1 mostra i profitti f (x, ω) stimati per ogni configurazione modello/domandae le probabilita stimate per i possibili scenari. Si vuole massimizzare il profitto totale,applicando i criteri del caso pessimo, di Laplace e del valore atteso.

f (x, ω) Livello della domanda ωModello x Basso Medio Alto

A 200 000 350 000 600 000B 250 000 350 000 540 000C 300 000 375 000 490 000

Basso Medio AltoProbabilita π 0.1 0.5 0.4

Tabella 11.1: Matrice di valutazione e vettore delle probabilita degli scenari per illancio di un nuovo prodotto sul mercato

L’albero delle decisioni che rappresenta il problema e riportato in Figura 11.2.Il livello 0 corrisponde alla decisione x e gli archi uscenti dalla radice sono associatiai modelli. Il livello 1 corrisponde allo stato di natura e gli archi uscenti da ogninodo sono associati ai livelli di domanda, con le relative probabilita π (ω). Si notiche esse si ripetono in ciascuno dei tre sottoalberi associati alle possibili soluzioni.Infatti, le probabilita non dipendono dall’alternativa scelta. Alle foglie sono associatii valori dell’impatto f (x, ω).

Figura 11.2: Albero delle decisioni per il lancio di un nuovo prodotto sul mercato

3

Criterio del caso pessimo Partendo dalle foglie, marchiamo ciascun nodo padreassociato a una soluzione xi calcolando il valore pessimo minω∈Ω f (xi, ω) fra quellidei nodi figli, cioe fra gli scenari possibili nel nodo stesso. Questo equivale a calcolareil minimo di ogni riga della matrice di valutazione, come gia visto nella Sezione 9.1.Il risultato e riportato sui nodi del livello 1 in Figura 11.3. Al livello 0, invece, poicheesso rappresenta una decisione, si sceglie l’alternativa che massimizza le marcaturedei nodi figli, cioe il modello C. La Figura 11.3 riassume il procedimento.

Figura 11.3: Albero delle decisioni per il lancio di un nuovo prodotto sul mercato erisoluzione con il criterio del caso pessimo

Criterio di Laplace Il criterio di Laplace comporta lo stesso procedimento di in-duzione a ritroso, ma questa volta nei nodi del livello 1 si applica un diverso criteriodi marcatura: in ogni nodo si riporta la media aritmetica dei valori dei nodi figli.Al livello 0, invece, poiche esso rappresenta una decisione, si sceglie ancora l’alter-nativa che massimizza le marcature dei nodi figli, che e ancora il modello C anchese le marcature stesse sono cambiate. La Figura 11.4 riassume il procedimento.

Figura 11.4: Albero delle decisioni per il lancio di un nuovo prodotto sul mercato erisoluzione con il criterio di Laplace

Criterio del valore atteso Partendo dalle foglie, marchiamo ciascun nodo padreassociato a una soluzione xi calcolando il valore atteso E [f (xi, ω)] =

∑ω∈Ω πωf (xi, ω).

Questo equivale a calcolare il prodotto di ogni riga della matrice di valutazione peril vettore delle probabilita. Questa volta, quindi, si usa l’informazione fornita dal

4

vettore π. Il risultato e riportato sui nodi del livello 1 in Figura 11.5. A questo pun-to, si puo risalire dal livello 1 alla radice, usando la strategia deterministica, datoche la radice corrisponde a una decisione: si sceglie l’alternativa che massimizza lemarcature dei nodi figli, cioe il modello A. La marcatura associata viene posta comeetichetta del nodo radice ed e la soluzione del problema.

Figura 11.5: Albero delle decisioni per il lancio di un nuovo prodotto sul mercato erisoluzione con il criterio del valore atteso

Albero delle decisioni e matrice di valutazione sono due modi equivalenti di rap-presentare i dati di un problema di decisione in ambiente incerto. Il procedimentorisolutivo e lo stesso: lavorando sulle righe della matrice o sugli archi dell’albe-ro, infatti, si eseguono le stesse operazioni. Che vantaggio offre allora l’albero didecisione?

Nel seguito presentiamo tre situazioni nelle quali l’uso dell’albero di decisione simostra vantaggioso come strumento di modellazione in quanto piu flessibile dellamatrice.

11.2 Scenari condizionati dalla decisione

Quando lo stato di natura e influenzato dalle variabili di decisione, le probabilita de-gli scenari non costituiscono piu un vettore π (ω) di valori assoluti, ma una matriceπ (ω|x) di valori condizionati dall’alternativa scelta. Questo modifica solo legger-mente il procedimento: nell’albero di decisione ogni nodo ottenuto con una decisioneha archi uscenti associati agli scenari aperti da tale decisione. Bisogna associare atali archi non le probabilita assolute degli scenari, ma le probabilita condizionatealla decisione presa nel nodo.

Esempio 2 Modifichiamo l’esempio del lancio di un prodotto sul mercato suppo-nendo che i tre scenari di domanda del mercato siano dipendenti dal prodotto lancia-to, cioe che, siccome i modelli possibili hanno attrattive diverse tra loro (incognite,ma stimabili), i tre scenari denominati di bassa, media e alta domanda abbiano pro-babilita diverse a seconda del modello scelto: un modello piu attrattivo aumenta laprobabilita di una domanda alta. La Tabella 11.2 riporta le probabilita condizionateπ (ωj |xi).

La Figura 11.6 riporta l’albero di decisione che corrisponde alla matrice di valu-tazione originale e alle nuove probabilita condizionate e la risoluzione con il criteriodel valore atteso. Si confronti la marcatura degli archi con quella della Figura 11.2:gli archi associati allo stesso scenario in nodi diversi non hanno piu probabilitaidentiche, ma diverse. Questa volta vince il modello B, il quale tende ad avere

5

π (ωj |xi)xi Basso Medio AltoA 0.3 0.5 0.2B 0.1 0.5 0.4C 0.1 0.6 0.3

Tabella 11.2: Matrice delle probabilita degli stati di natura condizionate allealternative per il lancio di un nuovo prodotto sul mercato

un’attrattiva superiore per il mercato, e in particolare una probabilita piu forte distimolare una domanda alta.

Figura 11.6: Albero delle decisioni per il lancio di un nuovo prodotto sul mercatonel caso di probabilita condizionate

11.3 Decisioni distribuite in piu fasi

Quando le decisioni sono distribuite nel tempo e alcune variabili vengono fissatedopo che lo stato di natura si e parzialmente svelato, l’albero di decisione ha piu didue livelli. Questo problema non si riesce a rappresentare in modo elementare suuna matrice bidimensionale1.

Esempio 3 Supponiamo che, una volta lanciato il prodotto si possa decidere sefar partire una campagna pubblicitaria di sostegno alle vendite oppure no. In que-sto caso, le decisioni da prendere sono due: quale prodotto lanciare e se avviare lacampagna. La seconda decisione va presa dopo il lancio del prodotto, quando si e mi-surato se la domanda e bassa, media o alta. A sua volta, la campagna potrebbe avereun esito incerto, e quindi bisognerebbe introdurre un’ulteriore variabile esogena, eun ulteriore livello nell’albero delle decisioni. Per limitare le dimensioni dell’esem-pio, e per mostrare come si modellano i fenomeni deterministici in questo contesto,supponiamo che l’effetto della campagna sia certo e che sia quello riportato nellaTabella 11.3. I valori di profitto riportato tengono conto da un lato dell’aumentodi vendite provocato dalla campagna, dall’altro del costo della campagna stessa, percui il risultato e talvolta migliore e talatra peggiore che nella Tabella 11.1.

L’ipotesi che la campagna abbia un effetto noto a priori riduce il livello 3 del-l’albero di decisione (scenari conseguenti al lancio della campagna) a un insieme

1Vedremo nella Sezione 11.2 che e possibile, ma al costo di notevoli complicazioni.

6

Livello della domanda ωModello x Basso Medio Alto

A 220 000 340 000 560 000B 300 000 380 000 530 000C 360 000 415 000 480 000

Tabella 11.3: Matrice dei payoff per il lancio di un nuovo prodotto sul mercato dopoil lancio di una campagna pubblicitaria (da confrontare con la Tabella 11.1)

di archi singoli ciascuno uscente da un nodo del livello 2 e con probabilita associa-ta unitaria. Se la campagna avesse piu esiti potenziali, ciascun nodo emetterebbepiu archi, con probabilita di somma unitaria, potenzialmente condizionate sia dalledecisioni sia dagli scenari che si incontrano lungo il cammino dalla radice al nodopadre.

La Figura 11.7 riporta i dati e il procedimento risolutivo per questo problemaesteso. Si procede, come sempre, risalendo l’albero dalle foglie alla radice. Il livello 3e banale e consiste solo nel copiare le marcature delle foglie nei nodi padre. Sealcuni nodi padre avessero piu di un arco uscente, si dovrebbe invece scegliere eapplicare un criterio per determinarne la marcatura (per esempio, il criterio delvalore atteso). La marcatura del livello 2 si ottiene scegliendo il valore massimo frai figli, dato che si tratta di una decisione (avviare o no la campagna pubblicitaria).La marcatura del livello 1 viene fatta con il criterio del valore atteso, e quella dellaradice massimizzando. Il risultato, marcato in rosso nella figura, non e una semplicesoluzione, ma una strategia in due fasi, la prima determinata univocamente, laseconda dipendente dallo scenario parziale deciso dalla natura:

1. lanciare il modello C

2. misurare la domanda:

• se e bassa, avviare la campagna pubblicitaria;

• se e media, avviare la campagna pubblicitaria;

• se e alta, non avviare la campagna pubblicitaria.

La strategia ottima prevede non solo la scelta del modello, ma anche l’indicazionedi come reagire alla domanda di mercato, una volta che essa si rivela: in caso didomanda alta, non si esegue la campagna, perche il suo costo non e compensato dal-l’aumento di vendite atteso. Il guadagno atteso dall’applicazione di questa strategiae 439 500.

11.4 Esperimenti casuali

Talvolta la stima delle probabilita dei diversi scenari puo essere raffinata attraversol’esecuzione di un “esperimento”. Un esempio tipico riguarda i fenomeni meteoro-logici. Possiamo stimare la probabilita di pioggia in un determinato periodo sullabase di dati storici. Tuttavia, se consultiamo uno strumento come un barometro,termometro o igrometro (o anche piu strumenti insieme), otteniamo delle misureche a loro volta sono correlate in qualche modo con la probabilita di pioggia. Ilvalore di tali misure e l’esito di un esperimento casuale, e in genere non consente diconoscere con precisione lo stato di natura, cioe di sapere con certezza se piovera ono. Tuttavia, conoscendo la precisione dello strumento, cioe la correlazione fra gliesiti delle sue misure e i possibili scenari, si puo derivare una stima migliore delleprobabilita degli scenari stessi.

7

Figura 11.7: Albero delle decisioni per il lancio di un nuovo prodotto sul mercatonel caso di decisione in due fasi

L’albero di decisione consente di rappresentare tutto questo con un livello ag-giuntivo di scenari incerti, questa volta a monte della decisione fondamentale. Sic-come bisogna anche decidere se eseguire l’esperimento, occorre aggiungere un altrolivello, relativo a tale decisione, a monte del livello associato agli esiti dell’esperi-mento. Bisogna infatti tener conto che qualsiasi esperimento in genere ha un costo,e che quindi non e ovvio che convenga eseguirlo: dipende dal vantaggio che se nericava in termini di qualita della soluzione scelta. La Figura 11.8 da una rappre-sentazione compatta dell’albero di decisione, che illustra solo la struttura a livellidell’albero stesso, collassando tutti i nodi di un livello in un nodo solo. Si ha:

• un livello 0 relativo alla decisione se eseguire o no l’esperimento casuale primadi affrontare il problema dato: la variabile decisionale x′ ∈ X ′ puo assumeresolo due valori;

• un livello 1 relativo all’esperimento casuale: le variabili esogene ω′ ∈ Ω′

indicano l’esito dell’esperimento, detto anche segnale;

• un livello 2 relativo alla soluzione x ∈ X scelta per il problema dato;

• un livello 3 relativo agli scenari ω ∈ Ω del problema dato.

Se si vuole applicare il criterio del valore atteso, o quello dell’utilita attesa, bi-sogna riportare sugli archi relativi agli esiti dell’esperimento, cioe quelli uscenti dainodi del livello 1, le probabilita π (ω′) degli esiti stessi. Sugli archi relativi agli sce-nari, cioe quelli uscenti dai nodi del livello 3, bisogna invece riportare le probabilitacondizionate π (ω|ω′) di tali scenari rispetto agli esiti dell’esperimento. In gene-rale, la probabilita riportata su ogni arco e condizionata da tutto cio che avvienesugli archi precedenti nel cammino dalla radice. In particolare, le probabilita po-trebbero essere anche condizionate dalle decisioni precedenti, come accadeva nellaSezione 11.2, cioe da x′ per gli archi uscenti dai nodi del livello 1 e da x′ e x pergli archi uscenti dai nodi del livello 3. In questo esempio, pero, le decisioni non in-fluiscono sugli scenari. Osserviamo anche che la relazione non e di causa ed effetto,ma di semplice correlazione statistica: le probabilita π (ω|ω′) degli scenari meteoro-logici sono condizionate dagli esiti della consultazione degli strumenti. Questo non

8

Figura 11.8: Albero delle decisioni in presenza di un esperimento casuale: persemplicita si collassano tutti i nodi dello stesso livello in un nodo solo

significa che misurare la pressione col barometro modifichi le probabilita di pioggia.Significa che tale misura fornisce informazioni ulteriori rispetto alle frequenze stori-che, e tali informazioni alterano la nostra stima della probabilita che piova. Piu ingenerale, l’esperimento casuale non modifica lo stato di natura, ma approfondisce lanostra conoscenza cambiando la stima delle probabilita degli scenari. D’altra parte,l’esperimento non non da garanzie assolute sullo scenario; se lo facesse, ridurrebbegli scenari a uno solo, cancellando del tutto l’incertezza, riducendo l’intero problemaa un modello di Programmazione Matematica.

Il sottoalbero associato alla decisione di non eseguire l’esperimento dovrebbesaltare a pie pari il livello stocastico associato agli esiti dell’esperimento, passandodirettamente dal livello 0 (decisione sull’esperimento) al livello 2 (decisione relativaal problema dato). Per conservare la struttura a livelli alternati, si introduce anchein questo sottoalbero un livello 1 fittizio, costituito da un nodo che rappresenta unesperimento degenere, con un solo arco uscente, che rappresenta un esito fittizio diprobabilita 1. Le probabilita degli archi sul livello 3 di questo sottoalbero, cioe leprobabilita degli stati di natura, non sono condizionate dagli esiti dell’esperimento,che non viene eseguito, ma sono le probabilita stimate a priori in base allo storico.

Infine, le foglie dell’albero sono, come sempre, associate agli impatti di ciascunaconfigurazione finale del sistema. Le configurazioni non sono le classiche coppie(x, ω), ma includono anche le variabili di decisione e le variabili esogene relativeall’esperimento: sono quindi quaterne (y, ω′, x, ω). Infatti, l’impatto include il costodell’esperimento nelle configurazioni che richiedono di pagare questo costo. L’esitodell’esperimento, in questo esempio, non ha invece influenza sul costo finale, anchese in generale potrebbe averne.

Definizione 1 Definiamo valore dell’informazione V la differenza fra l’utilita gua-dagnata eseguendo l’esperimento e quella guadagnata non eseguendolo.

Il valore dell’informazione misura il miglioramento consentito dall’esperimento stes-so, e quindi il massimo costo che il decisore e disposto a pagare per poterlo eseguire.Un esperimento di costo superiore al valore dell’informazione che rivela non deveessere eseguito. Ovviamente, il tutto si puo generalizzare alle situazioni in cui sonodisponibili diversi tipi di esperimento: ciascuno di loro ha un proprio sottoalberoe si puo calcolare il valore dell’informazione ad esso associata per confronto con ilsottoalbero associato al non eseguire alcun esperimento.

11.4.1 Calcolo delle probabilita per l’albero delle decisioni

Per risolvere il problema con il solito metodo dell’induzione a ritroso, occorre as-sociare agli archi dei livelli stocastici le relative probabilita. Ognuna di loro e la

9

probabilita condizionata dalle decisioni e dagli esiti associati a tutti gli archi delcammino che porta dalla radice al nodo padre. Nel caso che stiamo analizzandobisogna riportare sull’albero:

1. al livello 1 le probabilita totali π (ω′) degli esiti dell’esperimento;

2. al livello 3 le probabilita π (ω|ω′) degli stati di natura condizionate agli esitidell’esperimento.

Per fissare le idee, consideriamo l’esempio delle previsioni del tempo, in cui le va-riabili esogene ω descrivono il tempo futuro e le variabili esogene ω′ descrivonola misura di uno strumento. Poiche la misura precede il manifestarsi del tempo,il livello delle variabili ω′ precede quello delle variabili ω. L’albero delle decisio-ni richiede sul livello 1 la probabilita π (ω′) di ciascuna misura, e sul livello 3 laprobabilita condizionata π (ω|ω′) di ciascun possibile tempo, dato che si sia ottenu-ta ciascuna possibile misura. Entrambe queste informazioni non sono disponibili.Tuttavia, si possono ricostruire a partire da informazioni disponibili. Ora vediamoquali informazioni sono disponibili e come fare a ricostruire quelle mancanti.

Oltre alle probabilita totali degli scenari (π (ω)), si puo supporre di avere del-le informazioni sull’affidabilita dell’esperimento, cioe sulla probabilita condizionataπ (ω′|ω) che l’esperimento abbia un dato esito ω′ in un determinato scenario ω.Queste probabilita derivano dall’esperienza storica. Nel caso delle previsioni deltempo, le probabilita condizionate indicano con quale frequenza, per esempio, unbarometro indica alta pressione dato che la situazione sia destinata a evolvera versoil bel tempo, oppure verso il brutto tempo. Questa e un’informazione storica: nonsappiamo se l’alta pressione indicata dal barometro garantira veramente bel tempo,ma sappiamo che in passato lo ha fatto con una certa probabilita. Il punto fonda-mentale e che sull’albero occorre riportare π (ω′) e π (ω|ω′), mentre le informazioniche si possiedono sono π (ω) e π (ω′|ω). Per ottenere le une dalle altre, e sufficienteapplicare il teorema di Bayes.

Teorema 1 Teorema di Bayes: Data una famiglia di eventi Ai incompatibili a duea due e un evento B:

P (Ai|B) =P (B|Ai)P (Ai)∑j P (B|Aj)P (Aj)

=P (B ∩Ai)

P (B)

Nel nostro caso, gli eventi Ai sono gli stati di natura ω ∈ Ω, mentre l’evento B eciascuno degli esiti ω′ dell’esperimento casuale (si riapplica il teorema su ogni esito).Quindi

π (ω|ω′) =π (ω′|ω)π (ω)∑

ω∈Ω

π (ω′|ω)π (ω)

Infine, le probabilita totali degli esiti dell’esperimento si ottengono a partire da quel-le condizionate π (ω′|ω) e da quelle degli scenari π (ω), sommando i loro prodotti:

π (ω′) =∑ω∈Ω

π (ω′, ω) =∑ω∈Ω

π (ω′|ω)π (ω)

Esempio 4 Un turista in vacanza viene informato che nei giorni piovosi la pioggiainizia a mezza mattina e prosegue per l’intero giorno. Gli si raccomanda di guardareil barometro prima di uscire per decidere come vestirsi. Il barometro puo indicarebel tempo, variabile e brutto tempo e il tempo puo essere bello e asciutto o bruttoe piovoso. Inoltre, il turista puo scegliere tre tipi di abbigliamento: leggero, leggeroma con l’ombrello o abbigliamento da pioggia con ombrello, impermeabile, berrettoe stivali.

Riassumendo, vi sono due possibili stati di natura (|Ω| = 2):

10

• ω1 = bel tempo

• ω2 = pioggia

Le azioni disponibili sono tre (|X| = 3):

• x1 = abbigliamento leggero

• x2 = abbigliamento leggero con ombrello

• x3 = abbigliamento da pioggia

L’osservazione del barometro e un esperimento con tre possibili risultati (|Ω′| = 3):

• ω′1 = bel tempo

• ω′2 = variabile

• ω′3 = pioggia

La Tabella 11.4 riporta i valori del “costo” f (x, ω) per ogni combinazione di de-cisione (vestiario) e scenario (tempo). Il problema e quindi di minimizzazione.

f (x, ω) ω1 ω2

x1 0 5x2 1 3x3 3 2

Tabella 11.4: Funzione di costo per il problema meteorologico

Lo storico fornisce la probabilita a priori π (ω) di ogni stato di natura (Tabel-la 11.5) e l’affidabilita del barometro, cioe la probabilita condizionata π (ω′|ω) di ave-

ω ω1 ω2

π (ω) 0.40 0.60

Tabella 11.5: Probabilita associata agli stati di natura per il problema meteorologico

re una certa indicazione dal barometro per un certo stato di natura (Tabella 11.6).

π (ω′|ω) ω1 ω2

ω′1 0.60 0.20ω′2 0.25 0.30ω′3 0.15 0.50

Tabella 11.6: Probabilita dei risultati dell’esperimento condizionate dallo stato dinatura per il problema meteorologico

Un barometro “ideale” avrebbe probabilita condizionata pari a 1 per (ω1, ω′1) e di

(ω2, ω′3) e 0 altrove, ma il barometro e ben lungi dall’essere ideale. Tuttavia, l’uso

del barometro puo migliorare il costo atteso della decisione.

La Figura 11.8 riporta lo schema dell’albero delle decisioni per questo problema:

1. gli archi uscenti dalla radice (primo livello) rappresentano la scelta x′ ∈ 0, 1del decisore se eseguire o no l’esperimento;

2. gli archi del secondo livello rappresentano i risultati ω′ dell’esperimento e sonomarcati con le loro probabilita totali;

11

3. gli archi del terzo livello rappresentano la scelta x (ω′) condotta dal decisorein base al risultato dell’esperimento;

4. gli archi del quarto livello rappresentano lo stato di natura ω, sono marca-ti con le loro probabilita condizionate ai risultati dell’esperimento, e quindideterminano il costo per il decisore, riportato sulle foglie.

Utilizzando il teorema di Bayes, si procede come segue:

1. si calcolano le probabilita congiunte p (ω, ω′) (Tabella 11.7), moltiplicando leprobabilita condizionate dei risultati per quelle a priori degli stati di natura;

π (ω′|ω) ω1 ω2

ω′1 0.24 0.12ω′2 0.10 0.18ω′3 0.06 0.30

Tabella 11.7: Probabilita congiunta fra stati di natura e risultati dell’esperimentoper il problema meteorologico

2. se ne ricavano le probabilita a priori dei risultati dell’esperimento π (ω′) (Ta-bella 11.8), sommando sugli stati di natura, cioe riga per riga;

ω′ π (ω′)ω′1 0.36ω′2 0.28ω′3 0.36

Tabella 11.8: Probabilita dei risultati dell’esperimento per il problemameteorologico

3. da queste si ricavano le probabilita condizionate degli stati di natura rispettoai risultati π (ω|ω′) (Tabella 11.9), dividendo ogni probabilita congiunta per laprobabilita a priori del risultato.

π (ω′|ω) ω1 ω2

ω′1 0.66 0.33ω′2 0.36 0.64ω′3 0.17 0.83

Tabella 11.9: Probabilita degli stati di natura condizionate dai risultatidell’esperimento per il problema meteorologico

Le ultime due famiglie di valori vengono usate per etichettare gli archi dell’albero didecisione.

A questo punto, possiamo risalire l’albero risolvendo il problema con il criteriodel valore atteso: nei livelli stocastici, si marca il nodo padre con il valore atteso deinodi figli; nei livelli deterministici, si marca il nodo padre col valore ottimo (minimo)dei nodi figli. La Figura 11.9 riporta l’albero delle decisioni, con le etichette ottenutea partire dalle foglie risalendo fino alla radice, nell’ipotesi che l’esperimento abbiacosto nullo.

I rami in grassetto indicano le scelte del decisore, le quali si configurano comeuna strategia. Vi sono due strategie ottime, equivalenti fra loro, e consistono nel

12

Figura 11.9: Albero delle decisioni per il problema meteorologico

porre:

x′ = 1 (effettuare l’esperimento) x =

x1 se ω′ = ω′1x2 se ω′ = ω′2x3 se ω′ = ω′3

oppure

x′ = 1 (effettuare l’esperimento) x =

x2 se ω′ ∈ ω′1, ω′2x3 se ω′ = ω′3

Se invece non si effettuasse l’esperimento, la soluzione migliore sarebbe x = x2.Questo implica che il valore dell’informazione e

V = 2.2− 2.02 = 0.18

Se l’esperimento comporta un costo C > 0, si deve tenerne conto nel procedimen-to: le etichette delle foglie del sottoalbero che deriva dalla scelta di fare l’esperimentovanno incrementate di C, per cui gli ultimi tre nodi del terzo livello hanno etichet-ta incrementata di C, e lo stesso avviene per il secondo nodo del secondo livello.I due nodi al livello 1 hanno etichette 2.2 (senza esperimento) e 2.02 + C (conesperimento). L’etichetta della radice sarebbe il minimo dei due valori. Quindi, sel’esperimento ha un costo C > 0.18, non conviene eseguirlo: in tal caso, la strategiaottima e non effettuare l’esperimento e scegliere direttamente x2.

13