Dispense d'Agostini Prob 3

download Dispense d'Agostini Prob 3

of 94

Transcript of Dispense d'Agostini Prob 3

Probabilit` e incertezza di misura aG. DAgostini Dipartimento di Fisica, Universit` La Sapienza, Roma a 30 ottobre 2001

ii

c G. DAgostini 2001

IndiceI1

Dal concetto di probabilit` ai problemi di probabilit` inversa a a` Incertezza e probabilita 1.1 Determinismo e probabilismo nei metodi di indagine scientica 1.2 Incertezze in Fisica e nelle altre scienze naturali . . . . . . . . 1.3 Limiti allaccuratezza delle misure - un esempio . . . . . . . . 1.4 Imparare dagli esperimenti: il problema dellinduzione . . . . 1.5 cLimiti del metodo di falsicazione . . . . . . . . . . . . . . 1.6 Decisioni in condizioni di incertezza . . . . . . . . . . . . . . 1.7 Concetto di probabilit` . . . . . . . . . . . . . . . . . . . . . a 1.8 Semplici valutazioni di probabilit` . . . . . . . . . . . . . . . a 1.9 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ` Valutazioni e interpretazioni della probabilit a 2.1 Primi interessi in stime quantitative di probabilit` . . . . . a 2.2 Valutazione combinatoria . . . . . . . . . . . . . . . . . . 2.3 Probabilit` e frequenza . . . . . . . . . . . . . . . . . . . a 2.4 Legge empirica del caso e denizione frequentista . . . 2.5 Interpretazione oggettivista e soggettivista della probabilit` a 2.6 Concetto di probabilit` condizionata . . . . . . . . . . . . a 2.7 Eventi di probabilit` nulla . . . . . . . . . . . . . . . . . a 2.8 Probabilit` e scommesse eque . . . . . . . . . . . . . . . a 2.9 Probabilit` e quote di scommessa . . . . . . . . . . . . a 2.10 Denizione soggettiva di probabilit` . . . . . . . . . . . . a 2.11 c La denizione ISO . . . . . . . . . . . . . . . . . . . 2.12 cNote sul termine soggettivo . . . . . . . . . . . . . . . 2.13 cRuolo virtuale della scommessa, valore dei soldi e ordini grandezza non intuitivamente percepibili . . . . . . . . . . 2.14 Speranza matematica e previsione di vincita . . . . . . 2.15 cPrevisione di guadagno e decisioni . . . . . . . . . . . . 2.16 cDecisioni vantaggiose e etica della ricerca . . . . . . . . 2.17 cRegola di penalizzazione - il bastone e la carota . . . . . 2.18 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 2.19 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .

13 3 4 6 7 9 10 10 13 15 17 19 19 20 21 23 25 26 28 29 30 31 32 33 34 36 37 39 40 41 43

2

. . . . . . . . . . . . . . . . . . . . . . . . di . . . . . . . . . . . . . .

iv3 Elementi di calcolo combinatorio 3.1 Problemi elementari tipici . . . . . . . . . . . . . . . . 3.2 Disposizioni e combinazioni . . . . . . . . . . . . . . 3.2.1 Regola fondamentale del calcolo combinatorio 3.2.2 Numero di -disposizioni di oggetti . . . . . 3.2.3 Numero di -disposizioni semplici di oggetti 3.2.4 Numero di permutazioni di oggetti . . . . . . 3.2.5 Combinazioni . . . . . . . . . . . . . . . . . . 3.2.6 Coefcienti binomiali . . . . . . . . . . . . . 3.2.7 Note su nomenclatura e simbologia . . . . . . 3.3 Note sul calcolo dei grandi numeri . . . . . . . . . . . 3.4 Ordinamenti, occupazioni ed estrazioni . . . . . . . . 3.5 Alcuni esempi classici . . . . . . . . . . . . . . . . . 3.6 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . 3.7 Problemi . . . . . . . . . . . . . . . . . . . . . . . . .

INDICE47 47 48 48 48 48 50 50 52 53 53 55 57 59 60 61 61 62 67 67 69 71 72 74 75 76 76 78 78 78 81 85 85 87 89 91 92 92 94 95 96 96 96 97 98 98

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

` Regole della probabilita 4.1 Probabilit` della somma logica di due eventi incompatibili a 4.2 Eventi e insiemi . . . . . . . . . . . . . . . . . . . . . . . 4.3 probabilit` come misura . . . . . . . . . . . . . . . . . . a 4.4 Evento condizionato . . . . . . . . . . . . . . . . . . . . 4.5 Regole di base della probabilit` - assiomi . . . . . . . . . a 4.5.1 cDimostrazioni delle propriet` della probabilit` . . a a 4.6 Relazione fra probabilit` condizionata e congiunta . . . . . a 4.7 Condizionamento da eventi di probabilit` nulla . . . . . . a 4.8 Indipendenza stocastica (o in probabilit` ) . . . . . . . . . a 4.9 Altre propriet` della probabilit` condizionata . . . . . . . a a 4.9.1 Legge della moltiplicazione . . . . . . . . . . . . 4.9.2 Legge delle alternative . . . . . . . . . . . . . . . 4.10 Indipendenza logica e indipendenza stocastica . . . . . . . 4.11 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 4.12 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

Probabilit` delle cause e meccanismo di aggiornamento delle proa babilit` a 5.1 Inferenza probabilistica . . . . . . . . . . . . . . . . . . . . . 5.2 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Chiavi di lettura del teorema di Bayes . . . . . . . . . . . . . 5.4 Visione combinatoria del teorema di Bayes . . . . . . . . . . 5.5 Esempi tipici di applicazione . . . . . . . . . . . . . . . . . . 5.5.1 Classicazione di eventi e rapporto segnale rumore . . 5.5.2 Uso iterativo del teorema di Bayes . . . . . . . . . . . Statistica bayesiana: imparare dallesperienza . . . . . . . 5.6 5.7 Il caso del sospetto baro . . . . . . . . . . . . . . . . . . . 5.7.1 I fatti . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Riaggiornamento della probabilit` . . . . . . . . . . . a 5.7.3 Confronto fra inferenza diretta e inferenza iterativa . . 5.7.4 Dipendenza dalla probabilit` iniziale . . . . . . . . . . a 5.7.5 Pregiudizio, indizi e conclusioni . . . . . . . . . . . .

c G. DAgostini 2001

INDICE5.7.6 Probabilit` e decisione . . . . . . . . . . . . . . . . . a 5.8 cRecupero e superamento del metodo di falsicazione . . . . 5.9 Osservazioni indipendenti e prodotto delle verosimiglianze . 5.10 cFattore di Bayes e incremento logaritmico delle quote di scommessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11 Indifferenza iniziale e massima verosimiglianza . . . . . . 5.12 cProblema della vericabilit` ed estensione del concetto di a evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.13 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 5.14 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 99 100 100 101 101 102 104

v

II6

Variabili casuali - I

` Variabili casuali e distribuzioni di probabilit a di variabili discrete 111 6.1 Numeri aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.2 Distribuzione di probabilit` . . . . . . . . . . . . . . . . . . . 112 a 6.3 Distribuzione di probabilit` e distribuzioni statistiche . . . . 113 a 6.4 Esempi di costruzione di distribuzioni di variabili casuali . . . 115 6.5 Propriet` delle distribuzioni di probabilit` discrete . . . . . . . 118 a a 6.6 Distribuzioni elementari notevoli . . . . . . . . . . . . . . . . 119 6.6.1 Distribuzione uniforme discreta . . . . . . . . . . . . 119 6.6.2 cDistribuzione uniforme discreta - caso generale . . . 119 6.6.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 120 6.6.4 Combinazione di molti processi di Bernoulli indipendenti e di uguale probabilit` . . . . . . . . . . . . . . 121 a 6.7 Distribuzione geometrica . . . . . . . . . . . . . . . . . . . . 122 6.8 Sintesi di una distribuzione di probabilit` : previsione e incera tezza di previsione . . . . . . . . . . . . . . . . . . . . . . . 123 6.9 Previsione (o valore atteso) come baricentro della distribuzione 126 6.9.1 Osservazioni su terminologia e notazioni . . . . . . . 127 6.9.2 Valore atteso di una funzione di una variabile casuale . 128 6.10 Valore atteso di distribuzioni elementari . . . . . . . . . . . . 128 6.10.1 Distribuzione uniforme discreta . . . . . . . . . . . . 129 6.10.2 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 129 6.10.3 Distribuzione geometrica . . . . . . . . . . . . . . . . 130 6.11 Incertezza standard di previsione . . . . . . . . . . . . . . . 130 Varianza e deviazione standard . . . . . . . . . . . . . 130 6.12 Propriet` formali di varianza e deviazione standard . . . . . . 132 a 6.13 c Momenti di una distribuzione e altri indicatori di forma . . . 133 6.14 c Entropia come misura dello stato di incertezza . . . . . . . 134 6.15 Deviazione standard delle distribuzioni elementari . . . . . . . 134 6.15.1 Distribuzione uniforme fra 1 e . . . . . . . . . . . . 135 6.15.2 c Distribuzione uniforme di valori fra e . . . . . 135 6.15.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 135 6.15.4 Distribuzione geometrica . . . . . . . . . . . . . . . . 136 6.16 Processo di Bernoulli e percezione di probabilit` prossime a a 0 o a 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

c G. DAgostini 2001

109

vi

INDICE6.17 c Previsione e incertezza di previsione di vincita in giochi dazzardo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 6.17.1 Gioco della roulette . . . . . . . . . . . . . . . . . . . 137 6.17.2 I sistemi per vincere al lotto . . . . . . . . . . . . . 139 6.18 Misure di centralit` e di dispersione di distribuzioni statistiche141 a 6.19 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.20 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 7 ` Distribuzioni di probabilita di variabili discrete - II 7.1 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . 7.2 Distribuzione binomiale da capo . . . . . . . . . . . . . 7.3 Propriet` della distribuzione binomiale e note sul suo uso . . . a 7.3.1 Valore atteso e deviazione standard . . . . . . . . . . 7.3.2 Usi tipici della distribuzione binomiale . . . . . . . . 7.4 Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . . 7.5 Processo di Poisson - prima parte . . . . . . . . . . . . . . 7.6 c Formule ricorsive per la distribuzione binomiale e di Poisson 7.7 Propriet` riproduttiva delle distribuzioni di probabilit` binoa a miale e di Poisson . . . . . . . . . . . . . . . . . . . . . . . . 7.8 c Altre distribuzioni di interesse . . . . . . . . . . . . . . . . Distribuzione di Pascal . . . . . . . . . . . . . . . . . Binomiale negativa . . . . . . . . . . . . . . . . . . . Distribuzione ipergeometrica . . . . . . . . . . . . . . 7.9 cCammino casuale e problema della rovina del giocatore . . . ? . . . . . . . . . . . . . . . . 7.10 Quanto credere in 7.10.1 Alcuni esempi numerici . . . . . . . . . . . . . . . . 7.10.2 Disuguaglianza di Markov . . . . . . . . . . . . . . . 7.10.3 Disuguaglianza di Cebicev . . . . . . . . . . . . . . . 7.11 Intervalli di probabilit` , o di credibilit` . . . . . . . . . . . . a a 7.12 cPrevisione, penalizzazione e valore sul quale scommettere . . 7.13 Previsione di frequenza relativa e legge dei grandi numeri . 7.14 Previsione di una distribuzione statistica . . . . . . . . . . 7.14.1 Introduzione al concetto di correlazione fra variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . 7.15 Un esempio storico di distribuzione di Poisson come introduzione al problema della verica delle leggi statistiche . . . . 7.15.1 Previsione del tipo di distribuzione . . . . . . . . . . . 7.15.2 Stima puntuale del parametro della distribuzione . . 7.15.3 Previsione quantitativa della distribuzione statistica, subordinata a , e confronto con le osservazioni . . Inferenza probabilistica su . . . . . . . . . . . . . . Previsione della distribuzione statistica subordinata allincerteza su . . . . . . . . . . . . . . . 7.16 Estensione dei teoremi sulla probabilit` alle funzioni di proa babilit` discrete . . . . . . . . . . . . . . . . . . . . . . . . . a 7.17 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 7.18 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

147 147 149 151 151 154 154 156 161 161 162 162 164 165 166 168 168 170 170 171 172 173 174 175 176 176 176 177 178 179 179 181 184

c G. DAgostini 2001

INDICE8 ` Distribuzioni di probabilita di variabili continue 8.1 Variabili casuali continue e densit` di probabilit` . . . . . . . a a 8.1.1 Probabilit` nulle con diversi gradi di ducia . . . . . . a 8.1.2 Dal grado di ducia alla probabilit` nita . . . . . . . a 8.1.3 Funzione densit` di probabilit` . . . . . . . . . . . . . a a 8.1.4 Propriet` della funzione densit` di probabilit` e della a a a funzione di ripartizione . . . . . . . . . . . . . . . . . 8.1.5 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . 8.2 Distribuzione uniforme continua . . . . . . . . . . . . . . . . 8.3 c Simulazione al computer di processi stocastici . . . . . . . . 8.3.1 Costruzioni di altre semplici variabili casuali . . . . . Generica distribuzione uniforme fra e . . . . . . . Processo di Bernoulli e distribuzione binomiale . . . . Distribuzione uniforme discreta . . . . . . . . . . . . Marcia a caso . . . . . . . . . . . . . . . . . . . . . . 8.3.2 Scelta pesata con . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.3 Scelta uniforme lungo 8.4 Distribuzioni triangolari . . . . . . . . . . . . . . . . . . . 8.5 Distribuzione esponenziale . . . . . . . . . . . . . . . . . . . 8.6 c Distribuzione esponenziale doppia . . . . . . . . . . . . . . 8.7 Distribuzione normale . . . . . . . . . . . . . . . . . . . . . 8.8 Distribuzione normale standardizzata . . . . . . . . . . . . . . 8.9 Uso delle tabelle dellintegrale della distribuzione normale standardizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 c Derivazione della gaussiana come limite di funzione binomiale o poissoniana . . . . . . . . . . . . . . . . . . . . . . . 8.11 Propriet` riproduttiva della distribuzione normale . . . . . . a 8.12 Processo di Poisson - Seconda parte . . . . . . . . . . . . . 8.12.1 Distribuzione del tempo di attesa del primo successo . 8.12.2 Relazione fra esponenziale e poissoniana . . . . . . . 8.12.3 Relazione fra esponenziale e geometrica . . . . . . . . 8.12.4 Tempo di attesa del -mo successo . . . . . . . . . . . 8.12.5 Intensit` di pi` processi di Poisson indipendenti . . . . a u 8.12.6 Vita media di decadimento . . . . . . . . . . . . . . . 8.13 c Funzione generatrice dei momenti . . . . . . . . . . . . . . Binomiale . . . . . . . . . . . . . . . . . . . . . . . . Poissoniana . . . . . . . . . . . . . . . . . . . . . . . Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . Altre propriet` e applicazioni . . . . . . . . . . . . . . a 8.14 Altre distribuzioni di interesse . . . . . . . . . . . . . . . . 8.14.1 Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.2 Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.3 Chi . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.4 di Student . . . . . . . . . . . . . . . . . . . . . . . 8.14.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.15 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 8.16 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 187 187 188 189 190 190 192 193 194 194 194 194 194 195 195 196 197 198 199 202 204 208 209 210 210 211 212 213 214 215 215 217 217 217 218 219 219 221 221 224 225 226 227

vii

c G. DAgostini 2001

# $"!&%

# $"! '

(

%

)

viii III Variabili casuali - II9

INDICE

229231 231 232 233 234 236 236 237 237 238 239 239 242 244 244 249 249 250 251 256 261 263 263 264 265 265 266 266 267 269 271 271 272 272 274 274 275 275 276 277 277 278

Variabili casuali multiple 9.1 Vettori aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 Variabili casuali doppie discrete . . . . . . . . . . . . 9.1.2 Variabili casuali doppie continue . . . . . . . . . . . . 9.2 Distribuzioni marginali . . . . . . . . . . . . . . . . . . . . . 9.3 Estensione dei teoremi sulla probabilit` alle distribuzioni di a probabilit` . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 9.3.1 Distribuzioni condizionate . . . . . . . . . . . . . . . 9.3.2 Variabili casuali indipendenti . . . . . . . . . . . . . . 9.3.3 Formula delle alternative e teorema di Bayes . . . . . 9.4 Previsione e incertezza di previsione . . . . . . . . . . . . . . 9.5 Covarianza e coefciente di correlazione . . . . . . . . . . 9.5.1 Variabili correlate e misura della correlazione . . . . . 9.5.2 Propriet` formali di covarianza e coefciente di correa lazione . . . . . . . . . . . . . . . . . . . . . . . . . Matrice di covarianza e matrice di correlazione . . . . . . . 9.6 9.7 Esempi di variabili doppie discrete . . . . . . . . . . . . . 9.8 Esempi di distribuzione bidimensionale continua . . . . . . 9.8.1 Distribuzione uniforme in un rettangolo . . . . . . . . 9.8.2 Distribuzione uniforme in un triangolo . . . . . . . . . 9.9 c Distribuzione multinomiale . . . . . . . . . . . . . . . . . . 9.10 c Distribuzione normale bivariata . . . . . . . . . . . . . . . 9.11 c Caso generale di distribuzione multivariata . . . . . . . . . rispetto alle variabili casuali . . . . . . Derivate di 9.12 Distribuzioni statistiche multivariate . . . . . . . . . . . . . 9.13 varie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10 Funzioni di variabili casuali e teoremi limite 10.1 Propagazione delle incertezze . . . . . . . . . . . . . . . . . . 10.2 Soluzione generale per variabili discrete . . . . . . . . . . . . 10.2.1 Regola generale . . . . . . . . . . . . . . . . . . . . . 10.2.2 c Convoluzione di due funzioni di probabilit` . . . . . a 10.2.3 Trasformazione di una variabile distribuita uniformemente . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 cSoluzione generale per variabili continue . . . . . . . . . . . 10.3.1 Cambiamento di variabile . . . . . . . . . . . . . . . Trasformazioni di una distribuzione uniforme . . . . . Applicazioni alle simulazioni di variabili casuali . . . Trasformazione lineare di una variabile distribuita normalmente . . . . . . . . . . . . . . . . . . 10.3.2 Caso di funzioni non monotone . . . . . . . . . . . . 10.3.3 Somma di due variabili . . . . . . . . . . . . . . . . . Somma di due variabili distribuite uniformemente . . . Somma di due variabili distribuite normalmente . . . . 10.4 cUso della funzione generatrice dei momenti . . . . . . . . . 10.4.1 , con e poissoniane . . . . . . . . . 10.4.2 , con e gaussiane . . . . . . .

6 A 4 4 6 9@69522 6 873 4

( 10

c G. DAgostini 2001

INDICE10.5 c Stime a bruta forza: metodi di Monte Carlo . . . . . . . . . 10.6 Riepilogo di alcune propriet` delle funzioni di variabili casuali a 10.7 Valore atteso e varianza di combinazioni lineari . . . . . . . . Valore atteso e varianza della distribuzione binomiale . Valore atteso e varianza della distribuzione di Erlang . Previsione di una media aritmetica di variabili aleatorie analoghe . . . . . . . . . . . . . . . . . 10.8 Correlazione fra diverse combinazioni lineari di variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Covarianza di due medie aritmetiche . . . . . . . . . . Correlazione fra una variabile e una combinazione lineare che la contiene . . . . . . . . . . . . 10.9 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . 10.9.1 Limite della media aritmetica . . . . . . . . . . . . . 10.9.2 Teorema di Bernoulli . . . . . . . . . . . . . . . . . . Lancio di una moneta . . . . . . . . . . . . . . . . . . Sul recupero dei numeri ritardatari . . . . . . . . . . . 10.10Teorema del limite centrale . . . . . . . . . . . . . . . . . . . 10.10.1 Distribuzione della media aritmetica . . . . . . . . . . 10.10.2 Convergenza in distribuzione della binomiale e della poissoniana . . . . . . . . . . . . . . . . . . . . . . . 10.11Estensione del teorema del limite centrale a variabili non indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.12c Simulazione di numeri aleatori distribuiti secondo una distribuzione normale . . . . . . . . . . . . . . . . . . . . . . . 10.13 Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . 10.14 Esempio di applicazione alle incertezze di misure . . . . . 10.15 Moto browniano, pallinometro ed errori di misura . . . . 10.16c Distribuzione di velocit` delle molecole di un gas perfetto . a 10.17Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 280 280 283 283 283 284 286 287 287 288 289 290 290 292 295 295 297 297 298 299 301 304 307

ix

IV

Applicazioni di statistica inferenziale. . . . . . . . . . . . . .

11 Impostazione del problema. Caso di verosimiglianza gaussiana 11.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Verosimiglianza normale con nota . . . . . . . . . . . . . 11.3 Effetto di una prior rilevante: combinazione di risultati . . . 11.4 c Derivazione di Gauss della gaussiana . . . . . . . . . . . 11.5 c Caso di forte vincolo dato dalla prior . . . . . . . . . . . . 11.6 Caso di ignota . . . . . . . . . . . . . . . . . . . . . . . . 11.6.1 Ragionamento intuitivo . . . . . . . . . . . . . . . . 11.6.2 Possibili dubbi sul modello normale . . . . . . . . . 11.6.3 c Inferenza simultanea su e . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . Incertezza su . . . . . . . . . . . . . . . . . . . . 11.6.4 Distribuzione di . . . . . . . . . . . . . . . . . 11.6.5 Conclusioni e raccomandazioni . . . . . . . . . . .

c G. DAgostini 2001

( RQPIH E GFDCB

309311 311 313 316 318 320 322 323 324 324 325 327 328 331 333

x

INDICE11.7 Distribuzione predittiva . . . . . . . . . . . . . . . . . . . . . 333 11.8 Combinazione scettica . . . . . . . . . . . . . . . . . . . . . 335 11.9 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 12 Verosimiglianza binomiale e poissoniana. Approssimazioni 12.1 Misure di conteggi, di proporzioni e di efcienze . . . . . . . 12.2 Inferenza su e (o ) in condizioni di normalit` . . . . . . . a 12.2.1 Caso poissoniano . . . . . . . . . . . . . . . . . . . . 12.2.2 Caso binomiale . . . . . . . . . . . . . . . . . . . . . 12.3 Caso generale di inferenza con verosimiglianza binomiale . 12.3.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.3.2 Casi critici . . . . . . . . . . . . . . . . . . . . . . . 12.3.3 Combinazione di misure indipendenti . . . . . . . . . 12.3.4 c Uso della prior coniugata Beta . . . . . . . . . . . . Caso generale di inferenza con verosimiglianza poissoniana 12.4 12.4.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.4.2 Caso di con prior uniforme . . . . . . . . . . . 12.4.3 Combinazione di risultati . . . . . . . . . . . . . . . . 12.4.4 c Uso della prior coniugata Gamma . . . . . . . . . . 12.4.5 Inferenza sullintensit` del processo di Poisson da osa servazioni effettuate con diversi tempi di osservazione 13 Sufcienza statistica, limite a normale e metodi frequentistici 14 Effetti sistematici e di rumore 14.1 Considerazioni generali . . . . . . . . . . . . . . . . . . . . . 14.2 Soluzioni esatte sotto ipotesi di normalit` . . . . . . . . . . . a 14.2.1 Incertezza sullo zero dello strumento . . . . . . . . . 14.2.2 Correzione per errori sistematici noti . . . . . . . . . 14.2.3 Correlazione fra i risultati introdotta dalla non perfetta conoscenza dello zero dello strumento . . . . . . . . . 14.3 Effetto del background nella misura dellintensit` di un proa cesso di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Propagazioni di incertezza, approssimazioni e linearizzazioni . 14.5 Matrice di covarianza di dati correlati . . . . . . . . . . . . . Offset uncertainty . . . . . . . . . . . . . . . . . . . . Normalization uncertainty . . . . . . . . . . . . . . . General case . . . . . . . . . . . . . . . . . . . . . . 15 Adattamento di curve ai dati sperimentali e stima dei parametri 15.1 Inferenza sui parametri di una legge . . . . . . . . . . . . . . 15.2 c Come tener conto anche di possibili incertezze sulle . . . 15.3 Formule dei minimi quadrati . . . . . . . . . . . . . . . . . . 15.3.1 nota e costante . . . . . . . . . . . . . . . . . . . 15.3.2 ignote e supposte costanti . . . . . . . . . . . . . 15.3.3 diverse e note a priori . . . . . . . . . . . . . . . 339 339 339 340 340 341 342 343 344 344 346 346 347 348 348 349 351 353 353 353 353 355 356 358 361 361 361 362 363 365 365 367 368 368 369 369

c G. DAgostini 2001

S U T!

XYW V YXW V V W

INDICE16 Test di ipotesi 16.1 Riepilogo dellapproccio probabilistico . . . . . . . . . . . . 16.2 Schema di test di ipotesi nellapproccio frequentista . . . . . . 16.3 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 371 371 371 371

xi

V

Soluzione dei problemi

373

c G. DAgostini 2001

xii

INDICE

c G. DAgostini 2001

Parte III

Variabili casuali - II

Capitolo 9

Variabili casuali multiple9.1 Vettori aleatoriNei capitoli precedenti abbiamo considerato un numero aleatorio alla volta, introducendo il formalismo generale per descrivere lo stato di incertezza rispetto. Come si pu` bene immaginare, nei casi reali ci si trova spesso a dover o considerare pi` grandezze dai valori incerti. Facciamo degli esempi. u

Scelgo uno studente a caso che abbia terminato tutti gli esami del corso. Che voti ha riportato in ciascuno degli esami? 18, 18, 18, . . . , 18 , 19, 18, 18, . . . , 18 , . . . , 30, 30, 30, . . . , 30 ? (Con . . . e indicata la ` lista dei possibili risultati, ordinata per ordine alfabetico degli esami.) Si lancia una pallina su un tavolo di cm cm? In quale punto del piano si fermer` ? 0.0, 0.0 , 0.0, 0.1 , 0.1, 0.1 , . . . 120.0, a 80.0 , (discretizzando al millimetro le coordinate, prese a partire da uno spigolo) La legge sica che lega la grandezza (misurata in unit` arbitrarie) al a tempo e del tipo ` . Se e valgono rispettivamente 3 e di 1 (unit` arbitrarie) e la misura e affetta da errori casuali, quali valori di a ` e di (misurati con strumenti reali) si osserveranno ai tempi e ? 3.7, 6.7 , 3.8, 6.7 , . . . 4.0, 7.0 , . . . 4.5, 7.5 ? Caso inverso del precedente: avendo osservato e ai tempi e , cosa si pu` dire sui valori veri dei coefcienti o e ? 3.1, 0.4 , . . . 3.3, 0.6 , . . . 3.4, 0.5 ?

H sv t uPs)

b c ( qwyx s a b

a b a b

a b

b

b a

a bb a a b daU geb dYcH a b f U a b

a b ca (b ) a )s A i H ` a b a b a w ( ) c( A 4) i A i rqp3h `

a

a

b

a b

b

` ` `

Consideriamo 100 lancio consecutivi di una moneta. Si pu` essere inteo ressati al numero di teste, al numero di croci, al numero pi` elevato di u teste consecutive che si e vericato e al numero di cambiamenti di esito ` (ogni volta che dopo un certo numero di teste e uscita croce e viceversa). ` Quali risultati sar` possibile ottenere? 0, 0, 0, 0 , 1, 0, 0, 0 , . . . 50, a 50, 1, 49 , . . . 100, 100, 100, 100 ? (Con . . . e indicata la lista or` dinata dei valori numerici di ciascuna delle variabili di interesse. Molte di queste combinazioni risultano impossibili.)

232

Variabili casuali multipleRicapitolando, in generale si e in stato di incertezza rispetto alla realizzazione ` di variabili casuali, o , come si dice, rispetto a un vettore aleatorio di componenti, anche chiamato -tupla (leggi entupla) di valori. Come al solito, lo stato di incertezza su ciascun possibile vettore aleatorio sar` quanticato da un grado di ducia. Vediamo separatamente il caso discrea to e quello continuo. Successivamente, molte delle propriet` saranno descritte a in modo generale per i due casi, eventualmente scegliendo variabili discrete o continue per gli esempi, a seconda di quella che meglio si presta al caso.

9.1.1 Variabili casuali doppie discreteIl concetto di distribuzione di probabilit` si estende in modo naturale alle vaa riabili multiple. Cominciamo anche in questo caso con le variabili discrete e, per semplicit` , con il caso bidimensionale. Lestensione al caso generale e a ` immediato. La funzione di probabilit` e 1 : a`

(9.1)

la quale e denita non negativa e compresa fra 0 e 1. Le possibili coppie ` di valori di e (o il vettore, o n-tupla, di dimensione 2), ciascuna con il suo grado di ducia , danno luogo alla distribuzione congiunta delle variabili. La condizione di normalizzazione richiede che la somma su tutte le coppie sia pari a 1. Questo pu` essere scritto in diversi modi. o Si pu` pensare a ciascuna coppia come un punto del piano ( , ) e o ordinata mediante lindice . La somma delle probabilit` sommare su a tutti gli punti deve dare 1:

Si pu` indicare la variabile o con lindice , la tutte le possibilit` degli indici: a

con

e sommare su

Facciamo un esempio che chiarisca luso del simbolo . Se la variabile pu` assumere 3 valori e la variabile 2 valori si ha che o

sta per 6 sulla essibilit` delluso di simboli. a

1

. Si ricordi inoltre quanto detto nel capitolo

c G. DAgostini 2001

x Rfr fqTr # ( QW"! e@#z"! 9e# ( ( "! }4 ~ 4 s ~ 4 @#z ( "! g# ( |R"! 9g{#zyg"! x# t "! t s s 4 s 4 s s k jk 6 ts w k H pu# t "! t s v# t 3u6 3h"& t s rkj ! k rkj k q 6 ` pH# "! s l o# 3v6 !3h"& s l "#m s l n i i dh kj i dh k j k k Fh kj k k V e d gfe3x

6

# ! # W363h"&R"!

# R"! 6

`

9.1 Vettori aleatori

233

intendendo semplicemente che la sommatoria corre su tutti i possibili valori di e di . Anche in questo caso si denisce una funzione di ripartizione, in perfetta analogia al caso unidimensionale:

Essa soddisfa le seguenti propriet` : a 1. 2. 3. 4.

La tabella 9.1 mostra un esempio di distribuzione doppia di variabili discrete.

9.1.2 Variabili casuali doppie continuePer introdurre le variabili continue partiamo dalla funzione di ripartizione:

In questo caso lelemento innitesimo di probabilit` e pari a: a`

Esso ha il signicato di

La funzione densit` di probabilit` , ottenuta dalla funzione di ripartizione come a a

rappresenta invece il grado di ducia del punto , come discusso al momento di introdurre le variabili continue. Le propriet` della densit` di probabia a lit` congiunta a sono analoghe al caso unidimensionale visto nel capitolo precedente. Ricordiamo soltanto che ha le dimensioni inverse di e che la condizione di normalizzazione diventa:

c G. DAgostini 2001

6

% % s# s "!tp# "!& # "! # k k k k k k "!&% # 3f v3"!"! # R & "!"!%% # 4 4 # ( s ( ! &s ! # ( ( "!&u s# s "!% % # "!&% z ! !9 W9 t !! 6! j k "#9WW"&p#W"!&%

e non decrescente, ossia ` ; tende a 0 per tende a 1 per

; ;

e continua a destra; `

.

7W7"! pR"!& ! # # % "7Wq#q!" W W # ! # ! w 69"&R"!&%

{# "!

k

# 4 6 #! 4 ! 79"tR$999"!r&

H !# p&W7q"! W W # R"! # R"! #R"! ! "!& (% 5"! # #

# pH xR"! s j

!

`

si pu` inne scrivere pi` semplicemente o u

se

e

234

Variabili casuali multiple

0.08 0.11 0.10 0.29

0.05 0.07 0.08 0.20

0.01 0.12 0.14 0.17

0.10 0.02 0.12 0.24

0.08 0.19 0.29 0.29

Tabella 9.1: Esempio di distribuzione congiunta e di marginalizzazione.

9.2 Distribuzioni marginaliDalla distribuzione di probabilit` congiunta e possibile ottenere la distribuzioa ` ne di probabilit` di una delle variabili, sommando (in senso lato, che per il a caso continuo equivale ad integrare) le probabilit` di tutte le possibilit` delle a a altre variabili per un certo valore della variabile di interesse. Nel caso discreto si ha, ad esempio rispetto alla :

Questa operazione e detta di marginalizzazione e la tabella 9.1 ne mostra un ` esempio (si noti come le distribuzioni di ciascuna delle variabili sono ottenute sommando a margine i valori della tabella della probabilit` congiunta). Nel a 2: caso di variabili continue si ha

e analogalmente per , integrando su . Le distribuzioni ottenute con questa operazioni sono chiamate distribuzioni marginali. Sia chiaro che, in principio, tale appellativo dovrebbe essere superuo, in quanto ogni distribuzionee sono in genere funzioni diverse, anche se entrambe indicate con Chiaramente lo stesso simbolo , cambiando solo la variabile nellargomento. A volte, per ricordare che si tratta di funzioni diverse, si e . In modo analogo dovremmo indicare con , e cos` via. Eviteremo questo modo pi` preciso (e pesante) in quanto non ci u sono ragioni per temere ambiguit` . Allo stesso modo gli estremi degli integrali saranno omessi a a sottintendere che essi si estendono su tutti i possibili valori di : d d2

c G. DAgostini 2001

"r

Qmqr 7r Qmqr r

s # ~ "&% ! W! ( ! g! # "!&%0.13 0.31 0.49 0.49 0.14 0.44 0.76 0.76 0.24 0.56 1.00 1.00

# "

W# t 6 !3h"& t j # 3h"& ! k

r r r ! # " # 7"! oe"! #

! ~W! ( ! g! s # R"! k

(~ s ~ ( s z

0.24 0.32 0.44

e"! # # G$"!&% mr "Gr D

0.24 0.56 1.00

(9.2)

9.2 Distribuzioni marginali

235

3 2 1

0.1

0.05

0 1 2 3 4

3 2 1 1

0.75

0.5 0.25 0 1 2 3 4

Figura 9.1: Visualizzazione qualitativa, mediante lego plot, della distribuzione di probabilit` di tabella 9.1: in alto a e in basso . Si faccia attenzione al fatto che la rappresentazione graca non corrisponde esattamente alla distribuzione di partenza: perche?

c G. DAgostini 2001

WD}

WD$

236

Variabili casuali multipledi una sola variabile pu` essere pensata come una marginale rispetto ad altre o innite variabili che non interessano. In sostanza, quando si parla esplicitamente di distribuzione marginale, signica semplicemente che si sta facendo riferimento ad una distribuzione congiunta di partenza. Si noti inoltre linterpretazione della marginale come, per cos` dire, proiezione della congiunta (non da prendere in modo rigoroso nel senso geometrico).

9.3 Estensione dei teoremi sulla probabilit` alle distria buzioni di probabilit` aQuesto argomento e gi` stato introdotto nel paragrafo 7.16, limitatamente alle ` a variabili distrete. Lestensione alle variabili continue e abbastanza immediata, ` essendo sufciente sostituire alle probabilit` gli elementi innitesimi di proa babilit` . Riprendiamo ora il discorso in maniera pi` generale, aggiungendo a u anche delle osservazioni sullinterpretazioni delle distribuzioni condizionate.

9.3.1 Distribuzioni condizionateIn analogia alla probabilit` condizionata esistono le distribuzioni di probabilit` a a condizionate, nel senso che pu` essere subordinata alla conoscenza che o sia uguale a , ovvero . Essa e indicata con `

ed e funzione soltanto di , mentre svolge, per cos` dire, il ruolo di parametro. ` Quindi esistono tante diverse quanti sono i possibili valori di , inniti nel caso che sia una variabile continua. Come detto nel paragrafo 7.16, lestensione al caso discreto e immediata. ` Vediamo come ci si comporta per il caso continuo. Ricordiamo la formula che lega probabilit` condizionata alla congiunta (vedi paragrafo 4.6): a

Nel caso di variabile casuale continua possiamo scrivere in perfetta analogia:d d d d (9.4)

con ha

da cui

con . Si ricorda che, come visto per la (9.3), neanche la (9.5) denisce la distribuzione condizionata. In particolare, pu` essere valutata o

# ! " "! ! "! # # U # 4 6 9f"& rD F yr31Dz 5rD } g r5 # # U # # m& # G3}md Tm & 9m&

d

. Passando alle funzioni densit` di probabilit` si a a d d d

d

c G. DAgostini 2001

6

# "!

# " # # R"! x"!

# "! ! #!" # $ 3u"!6 "! #

U # "

6

6

(9.3)

(9.5)

9.3 Estensione dei teoremi sulla probabilit` alle distribuzioni di probabilit` a asenza che sia nota (o abbia importanza) la funzione congiunta (vedi ` discussioni ai paragra 4.4 4.6). E comunque chiaro che, qualora invece la sia assegnata, essa contiene linformazione pi` completa sullo stato di u incertezza di e di , in quanto da essa e possibile ricavarsi le marginali e le ` condizionate, ad esempio:

237

Si noti come la formula (9.5) non dipenda dal fatto che le siano probabilit` o densit` di probabilit` , ovvero la formula e indipendentemente dal tipo a a a ` di variabili. Inoltre, per simmetria, si ha

Cos` pure, in modo analogo alla (4.22), si ha, nel caso di molte variabili:

9.3.2 Variabili casuali indipendenti

Se la distribuzione di una variabile, subordinata ad un certo valore di unaltra variabile, e uguale alla distribuzione marginale si dice che le due variabili sono ` (stocasticamente) indipendenti. Questa condizione equivale a richiedere

o analoga della

Nel caso di molte variabili, la condizione di indipendenza richiede le (9.7) per ciascuna delle coppie, o, equivalentemente e pi` succintamente: u

9.3.3 Formula delle alternative e teorema di BayesLa versione generale del teorema di Bayes discende dalle espressioni della probabilit` congiunta in funzione delle condizionate e delle marginali. Infatti a dalla (9.6) segue

analoga della (5.3). Ricordando che e la marginale rispetto a di ` si ottiene lanaloga della formula delle alternative (mostriamo il solo caso continuo, quello discreto e assolutamente simile) `

d

d

c G. DAgostini 2001

# R"! 6

# R"!

#

yyW!m "! " p r#yyyW"! # # #

# # ! $"! e!}" T! R"! " # #

# # # # # W$"! Pe!}" w " P"! w "!

# # # RyyWm " P$"! py#yyyR"!

# # W#m&P}m& Tm& # # W#" e"! p "! #e!}" x" # # # "! x$"!

# " e"! z$## " !" "! # #

! R # ## R"!"! "!

6

6

# R"!

(9.6)

(9.7) (9.8)

(9.9)

(9.10)

(9.11)

238

Variabili casuali multipleche, sostituita nella (9.10), d` luogo alla formula pi` consueta del teorema a u di Bayes per variabili continue, del quale faremo largo uso nellinferenza su valori di grandezze siche:

9.4 Previsione e incertezza di previsioneLa valutazione dei valori attese segue in modo naturale dal caso di una sola variabile. Questo pu` essere visto pi` chiaramente nel caso di variabili dio u screte: il valore atteso di una funzione di variabili casuali si calcola facendo la somma, estesa su tutto il campo di denizione, del prodotto della funzione, calcolata in ogni punto, per la probabilit` di quel punto. Come si vede, a questa denizione non dipende dal numero di variabili casuali (ovvero dalle dimensioni dello spazio che contiene il vettore aleatorio), quindi nel caso pi` u generale: E

Nel caso di variabili continue, la probabilit` di un punto viene sostituita dal a concetto di elemento innitesimo di probabilit` di trovare le variabili casuaa li nellintorno di quel punto e le sommatorie diventano integrali su tutte le variabili: E

(9.14) Dalla formula generale ci possiamo calcolare il valore atteso e la varianza di ciacuna delle variabili. Prendendo, ad esempio, la e considerando, per semplicit` , ma senza perdere in generalit` , due sole variabili continue, si tratta di a a calcolare E eE . Il fatto che queste due funzioni, di cui si e interessati al valore atteso, dipendano soltanto da una variabile semplica i ` calcoli, in quanto, in generale E

ottenendo lo stesso risultato che si sarebbe ottenuto utilizzando la funzione marginale della variabile di interesse. Abbiamo quindi ricondotto il problema del calcolo di media e di deviazione standard nel caso molte variabili (multivariato) a quello di una sola variabile (univariato). Questo risultato e con` fortante. Difatti abbiamo gi` detto che per ogni evento e possibile denire a ` un numero arbitrario di variabili casuali. Quando se ne considera una sola si ignorano tutte le altre: se il valore atteso di una variabile (scelta senza nessuna condizione restrittiva) dovesse dipendere da tutte le altre si porrebbero problemi di denizione.

yy y#yyyR"! P#yyyR"! yy eY#yyy{26"

W|#yyyW"! zY#yyyW"!yy j j j $#yyy{26"

# # ! e"! e"! ! R"! xe"! # # ! R"! ze"! t" # # #

# ! ee"!## "! z $$!## !"" "! d d

(9.12)

(9.13)

d d d

d d

@(}g"r t" #d #

d

d

(9.15)

c G. DAgostini 2001

9.5

Tabella 9.2: Distribuzioni congiunta del numero di teste e numero di croci nel lanciodi 5 monente ( , ) confrontata con quella del numero di teste e di croci relative a due diversi lanci di monete. In valori sono in percentuale.

Introducendo i concetti di previsione e di incertezza di previsione abbiamo detto che queste rappresentano le informazioni minime nelle quali riassumere lo stato di incertezza quanticato dalla distribuzione di probabilit` . Ulteriori a informazioni sulla forma sono date dai valori attesi, opportunamente scalati, di potenze pi` elevate degli scarti (skewness e curtosi, vedi paragrafo 6.13). u Purtroppo, nel riassumere una distribuzione di molte variabili in previsione e incertezza di previsione si perde la struttura multidimensionale della distribuzione. Questa perdita di informazione non e dovuta al solo passaggio dalle ` distribuzioni marginali ai valori attesi, ma e gi` implicita nel passaggio dalla ` a ` congiunta alle marginali. (E un po come la perdita di informazioni spaziali che si ha eseguendo due radiograe, su piani ortogonali, di un corpo.) Considerando, ad esempio, la distribuzione di tabella 9.1, si capisce come sia impossibile di risalire a a partire da e , mentre e univoco il passaggio ` inverso.

9.5.1 Variabili correlate e misura della correlazioneFacciamo un esempio numerico per capire meglio il problema. Immaginiamo di dover lanciare 5 monete e di interessarci alle variabili casuali e , numeri di teste e di croce. Consideriamo anche un altro lancio di 5 monete e chiamiamo e i rispettivi esiti. Possiamo costruire le distribuzioni doppie e . Sebbene tutte le marginali siano uguali e quindi tutte la variabili abbiano un valore atteso 2.5 e una deviazione standard di 1.1, le due distribuzioni sono completamente diverse (vedi tabella 9.2). Ad esempio (evento impossibile), mentre .

c G. DAgostini 2001

s s u

U # 7dUzpqy

# # " $"!

U # qd # ( A ( s ") ( s# A s ")

# "!

9.5

Covarianza e coefciente di correlazione

# ( AY{s")y7

0 1 2 3 4 5

0.1 0.5 1.0 1.0 0.5 0.1

0.5 2.4 4.9 4.9 2.4 0.5

1.0 4.9 9.8 9.8 4.9 1.0

1.0 4.9 9.8 9.8 4.9 1.0

0.5 2.4 4.9 4.9 2.4 0.5

0.1 0.5 1.0 1.0 0.5 0.1

@#sAYs")GF

0 1 2 3 4 5

0 0 0 0 0 0 3.1

1 0 0 0 0 15.6 0

2 0 0 0 31.3 0 0

)s

sA (A

Covarianza e coefciente di correlazione

239

3 0 0 31.3 0 0 0

4 0 15.6 0 0 0 0

5 3.1 0 0 0 0 0

240

Variabili casuali multipleLa differenza di rilievo fra le due distribuzioni dellesempio e che mentre ` nella prima ad ogni valore di pu` essere associato un solo valore di o , non modica lo stato di incertezza rispetto nella seconda la conoscenza di a : e sono dipendenti (o correlate); e sono indipendenti (o scorrelate). Questo fatto si riette sulle distribuzioni condizionate, le quali differiscono nei due casi. Ad esempio , mentre , e cos` via Dovendo quanticare il grado di correlazione con un solo numero si utilizza il valore atteso del prodotto degli scarti rispetto alle previsioni: E E E

Esso e chiamato covarianza ed e indicato con Cov ` ` Cov E E

:

E

(9.16)

Per capire come mai essa possa essere adeguata 3 allo scopo si pensi che se in corrispondenza di scarti positivi di (rispetto alla previsione) si attendono (sempre in senso probabilistico) scarti positivi anche per , ne segue che la previsione del prodotto degli scarti e un numero positivo; ` lo stesso e vero se, in corrispondenza di scarti negativi di , si attendono ` scarti negativi anche per ; se invece si prevedono scarti di segno opposto la covarianza e negativa; `

inne, la covarianza e nulla se si attendono scarti mediamente incoerenti. `

Ne segue che ci aspettiamo covarianza negativa fra e dellesempio di tabella 9.2, covarianza nulla fra e . Per quanto riguarda il valore assoluto della covarianza, esso non indica in maniera intuitiva quanto due variabili sono correlate, in quanto la covarianza non e una grandezza omogenea con le due variabili casuali e dipende anche ` dallunit` di misura scelta per le variabili. Si preferisce rendere adimensionale a la misura di correlazione, dividendo per le scale naturali degli scarti di ciascuna variabile, ovvero le due deviazioni standard. Si denisce allora il coefciente di correlazione, denito come

Come detto a proposito della previsione e della sua incertezza, in principio ci potrebbero essere modi alternativi per riassumere con un numero una caratteristica di una distribuzione. Volendo giusticare questa scelta per la misura di correlazione, possiamo fare le seguenti considerazioni:

La covarianza e formalmente una estensione della denizione operativa ` della varianza a due variabili e quindi la covarianza di una variabile con s stessa e uguale alla varianza: e ` Cov Var

Per un altro modo di capire come mai la covarianza denita come (9.16) tenda a comparire nella teoria della probabilit` si veda la (10.27) a proposito della somma di variabili casuali. a

3

# Wt"

Cov

Cov Var

Var

(9.17)

c G. DAgostini 2001

s 6

@s")

# m6 &6rt"# " #

##m6 um6|#" "r 6" # # #yr # # G#m6 6e#" mr s s # u" ( s 6

HvusAwys") # U ( s

# # &m66q" " 6" # r #

ss

H U # zUzpp s s

( AU ( ` ` ` `

9.5

Cov

con la convenzione che nelle applicazioni).

(questa notazione sar` molto utile a

Ne segue che il coefciente di correlazione di una variabile con s stessa e e uguale a 1 ( ` ): si dice che una variabile e correlata al ` 100 % con s stessa. e La covarianza, e quindi il coefciente di correlazione, si annulla se due variabili sono fra loro indipendenti, come abbiamo giusticato intuitivamente sopra e come vedremo formalmente fra breve.

Vedremo come la covarianza entra in modo naturale nel calcolo della varianza di una combinazione lineare di variabili casuali (paragrafo 9.5.2).

Se due variabili sono legate (in modo deterministico) da una relazione lineare, il grado di correlazione misurato da e massimo in modulo ` ( ) e il suo segno dipende dal fatto che una variabile cresca o diminuisca al crescere dellaltra, come intuitivamente comprensibile.

La gura 9.2 mostra alcuni esempi di variabili doppie discrete in cui la e proporzionali allintensit` dei punti. Si faccia attenzione come correlazioni ` a complicate possano dare .

c G. DAgostini 2001

# "!

# 6"

(d d d e58 Vd

H # r"

U p

H v

` ` ` `

Covarianza e coefciente di correlazione

241

Figura 9.2: Esempi di correlazione fra variabili casuali. Questa analogia suggerisce di indicare la covarianza con un simbolo compatto simile a quello di varianza: (9.18)

242

Variabili casuali multiple

9.5.2 Propriet` formali di covarianza e coefciente di correlazione aAvendo introdotto il concetto di covarianza, vediamo il modo con cui essa viene calcolata a partire dalla denizione. Cov

Il secondo passaggio, fra parentesi, mostra il modo di calcolare la covarianza dalla denizione operativa (avendo preso come esempio il caso di variabili continue). In realt` la (9.19) rappresenta il modo pi` semplice per calcolare la a u covarianza, in analogia alla formula che esprime la varianza come media dei quadrati meno il quadrato della media. Infatti, anche la (9.19) pu` essere letta o come media del prodotto meno il prodotto delle medie. Per quanto riguarda E , esso non e in genere risolvibile in termine di ` altre grandezze note e va calcolato dalla denizione operativa, che, per variabili continue, e ` E

Esiste un solo caso notevole in cui e possibile evitare di fare lintegrale doppio. ` Se ovvero e sono fra loro indipendenti, possiano riscrivere lintegrale doppio come prodotto di due integrali: E

Ne segue, allora, che Cov

se due variabili casuali sono indipendenti, la loro covarianza e ` nulla. Si faccia attenzione a questa affermazione. Essa si basa sulla denizione di indipendenza stocastica espressa dalla e non signica che non esista alcun legame fra i possibili valori delle due variabili. La covarianza nulla implica soltanto lassenza di una correlazione di tipo lineare, come si vedr` fra breve quando vedremo i casi che massimizzano . Due variabili a possono essere fortemente dipendenti pur avendo covarianza nulla. Un caso clamoroso e quello di punti nel piano ` distribuiti lungo una circonferenza.4 Se per semplicit` poniamo il centro del cerchio nellorigine e facile a `4 Per mostrare come le variabili e del caso del cerchio siano non indipendenti, nonostante la distribuzione congiunta dia covarianza nulla, si pensi alla pdf condizionata , ottenuta affettando il cerchio per un certo valore di . Chiaramente la forma di dipender` dal valore di scelto e, in ogni caso, sar` diversa dalla proiezione a a .

c G. DAgostini 2001

Qr F" r

# # # 6 m6 p" x" 6m #t" R#t" 6 m6 tY6 # 4 # # ! R!" ##m6 "#t" m!rhw # #m6 m61#" mr x6r" # # # E E E E E d d E E E E E E E E

(9.19)

Um6 t" m6 " 6r" # # # # # # # Wm6 " # !# ! #6 7" yQe"! 5 v"

# # # " z$"! vR"!

! # # 6 R"! y! " h # # # W" $"! w "! E E E E E

6

#6 r"

(9.20)

6 6

(9.21) :

E

F" r

9.5

vericare che sono nulli E ,E eE e quindi anche la covarianza (vedi gura 9.2). Calcoliamo ora covarianza e coefciente di correlazione fra due variabili linearmente dipendenti, ovvero legate da una relazione del tipo

Utilizzando i simboli compatti

Cov

E E E

da cui

Quindi, in caso di dipendenza lineare, il coefciente di correlazione vale a seconda che il coefciente angolare sia positivo o negativo. Si pu` dimostrao re che, in generale, (9.26) e il grado di correlazione lineare fra due variabili e misurato da `

.

Dimostrazione della (9.26): consideriamo la variabile casuale . La varianza di e, per denizione, non negativa per qualsiasi valore di : `

La dipendenza di vero anche quando

da e parabolico. Essendo ` , questo sar` a assume il valore minimo, in corrispondenza di

Sostituendo nella (9.27) si ottiene

c G. DAgostini 2001

da cui segue la (9.26).

6 4 p3

(9.27)

(9.28)

H

(d u #et "$e " d #d y# 3eu94 Gm$et "r d # d #ugm6$e "r V # d (d ( 4 d 9e #m6 g " p V # d 4 R8u6

u(V V d h k # ( p# g U# ( p ( U Vd c # 94 (V ( 4 (d (

H4 H } d d e ( ( (d u(

# " m6 t" 6 # #E e

H pw (V V e((d d

x&6" # (V g V

Covarianza e coefciente di correlazione

243

E

, abbiamo: (9.22) (9.23)

(9.24)

(9.25)

244

Variabili casuali multiple

Siamo giunti a sintetizzare lincertezza su una coppia di variabili con tre valori: due varianze e una covarianza, o, equivalentemente, due deviazioni standard e un coefciente di correlazione. Nel caso di variabili ( , , ... ) servono

informazioni indipendenti. Talvolta e preferibile utilizzare una rappresentazione compatta di queste ` grandezze mediante la cosidetta matrice di correlazione, una matrice quadrata i cui termini sono dati da

E

E

E

) danno le varianze, mentre gli altri Infatti, i termini diagonali (quando (quando ) danno le covarianze. In forma matriciale, abbiamo: Cov Cov Var Var Var

Var

La matrice e simmetrica, come e facile vericare, e quindi i termini indipen` ` denti sono esattamente come richiesto dalla (9.29). Alternativamente, a volte pu` essere conveniente presentare lincertezza o dei dati mediante la matrice di correlazione, i cui elementi sono dati da

ovvero

Come si vede, nel passaggio dalla matrice di covarianza alla matrice di correlazione si perdono le informazioni sulle deviazioni standard (gli elementi della diagonale sono tutti unitari). Quindi, qualora si preferisca questo modo di condensare la distribuzione, le deviazione standard devono essere fornite separatamente.

Per chiarire alcuni dei concetti appena illustrati e per introduzione altre problematiche che seguiranno, facciamo lesempio di costruzione di variabili doppie discrete a partire da eventi elementari. Immaginiamo di dover effettuare una serie di esperimenti che consistono nel lancio di tre monete e nellestrazione di una carta scelta a caso fra due. Per

9.7

Esempi di variabili doppie discrete

s h ( %% &$ '

H yy# h ( " # h YT" s ' # h yy( yy yy ( yys # s " yy ( H s # YH T" !"" % # h T" yy # YT" %&$ t t # t " k k k #c H 4 dIP#"& ( yey(h( yyyy # h " # ( h ys y " # (y( y ## hh Y f"" yyyy # ( YT " # s e " " s se (s q 9!" q u u## t " t "|## " "r t

c c P#H4"& P#f"& 3 H 4 k k

k

9.6

Matrice di covarianza e matrice di correlazione

(9.29)

(9.30)

(9.31)

(9.32)

c G. DAgostini 2001

9.7

ATTT ATTC ATCT ATCC ACTT ACTC ACCT ACCC RTTT RTTC RTCT RTCC RCTT RCTC RCCT RCCC

Tabella 9.3: Variabili casuali costruite sugli eventi elementari costituiti dai possibiliesiti di tre lanci di monete e dellestrazione di una carta da gioco: : numero di teste; : numero di croci; : numero di teste consecutive; : numero di assi.

ogni moneta si pu` vericare Testa o Croce, mentre supponiamo che i valori o delle due carte siano Asso ( ) e Re ( ). Per ogni evento possiamo costruire diverse variabili casuali, per esempio: : numero di teste; : numero di croci; : numero di teste consecutive; : numero di assi;

Inoltre possiamo costruire a partire da queste tutte le possibili combina, , zioni di variabili multiple. Ci limitiamo alle variabili doppie e . Riportiamo i risultati nella tabella 9.3 Da questa tabella ci possiamo calcolare tutte le distribuzioni di probabilit` a di interesse applicando le relazioni viste nei paragra precedenti. Cominciamo con le variabili

(0,0) (1,0) (2,0) (2,1) (3,2)

2/16 6/16 2/16 4/16 2/16

c G. DAgostini 2001

# # {2Gm6 {2"

# # # # {2) t) {2Gm6 {2r" 2 6 3 2 2 1 2 1 1 0 3 2 2 1 2 1 1 0 0 1 1 2 1 2 2 3 0 1 1 2 1 2 2 3 2 1 0 0 1 0 0 0 2 1 0 0 1 0 0 0 (3,2) (2,1) (2,0) (1,0) (2,1) (1,0) (1,0) (0,0) (3,2) (2,1) (2,0) (1,0) (2,1) (1,0) (1,0) (0,0) (0,2) (1,1) (1,0) (2,0) (1,1) (2,0) (2,0) (3,0) (0,2) (1,1) (1,0) (2,0) (1,1) (2,0) (2,0) (3,0) (1,3) (1,2) (1,2) (1,1) (1,2) (1,1) (1,1) (1,0) (0,3) (0,2) (0,2) (0,1) (0,2) (0,1) (0,1) (0,0) (1,2) (1,1) (1,0) (1,0) (1,1) (1,0) (1,0) (1,0) (0,2) (0,1) (0,0) (0,0) (0,1) (0,0) (0,0) (0,0)

1

# # R"! R"!

2

# {2r"

0

# # {2) )

k(

2 `

)

6 `

`

`

Esempi di variabili doppie discrete

245

246

Variabili casuali multipleDa questa possiamo ricavare le distribuzioni marginali di e . Per esempio, per ottenere bisogna , per ogni valore di , integrare su tutti i valori di :

0 1 2 3

0 1 2

Come si vede dalla tabella, la distribuzione marginale di una certa variabile calcolata dalla formula e esattamente quella che si otterrebbe esaminando la ta` bella ove sono riportati gli eventi elementari e ignorando tutte le altre variabili. Dalla distribuzione di probabilit` di a ci possiamo costruire anche le distribuzioni condizionali . Come detto, di queste distribuzioni ne esiste ` una per ogni valore di . E interessante, in questo semplice caso, confrontare il risultato che si ottiene contando il numero di casi favorevoli e il numero di casi possibili con quello che si otterrebbe applicando le formule delle variabili condizionali viste sopra:

0 1 2

2

1

3

1

Queste sono le altre distribuzioni di variabili doppie ottenibili dalla tabella degli eventi elementari5 :

Q

P

5

Si ricorda che la lettera minuscola di

e . `

f dPIH H I H54qIc fdw#54dHf qcII p5454q54qc I c4 HqI4 4 H I # qm

2

H u HGC s D7s C EI6 B( A ( l I6 7 A( l s H HGBC( D7s EI6 C A s l I6 7 As l s dPI HGC BCF ( H I dp EDHGs C C F H dIP 8ED7 ED6HGss C BCF (D A9 7 B@l 86 A B9@l s

{#R"! W 3 l $"! # j

2 # # {2" "!

P#H "! ! dPI yUqc H HI dp yUq4 I HI dPI yUqc H HI #U 7 "! !

#c p "! !

fdpfdfuPIuqH54H# gH54 qc 54qc I H 4 I H I I I fd w HqI dPIIHu5454qc4 # e"! !

# e"!

2

c G. DAgostini 2001

9.7

(0,2) (1,0) (1,1) (2,0) (3,0)

2/16 2/16 4/16 6/16 2/16

(0,0) (0,1) (0,2) (0,3) (1,0) (1,1) (1,2) (1,3)

1/16 3/16 3/16 1/16 1/16 3/16 3/16 1/16

0 1

Come ultimo esempio ci costruiamo la distribuzione condizionale di sotto la condizione .

0 1 2 3

1/8 3/8 3/8 1/8

Da questultima tabella si vede che che la distribuzione di sotto la condizione e uguale a quella marginale di , contrariamente a quanto ` accadeva quando la variabile condizionante era . Questo corrisponde al fatto che, mentre lo stato di conoscenza del numero di teste consecutive condiziona il grado di ducia del numero di teste, questo non e inuenzato dal sapere se ` si e vericato un Asso o un Re. ` Calcoliamo ora valori attesi di ciascuna variabile: E

E E

E

(9.33)

c G. DAgostini 2001

!

f cYH f YcH

f H f 94 Hf 94

fdPI ( s H fdp (s s s I fdp (s s ~ I fdPIH (s ~ s ss # U l l s 7pR "! !

C D ECC D ECC D ECC 7 IE6D C A9 7 B@ T I6 A9 B@ T

2

c 54H 4 54H }U H fH 94 f f y34 f f }U c H f 94 f y34 Hf }U c H fH c fc H f 94 y34 H }U

# 7SR

R

)

La distribuzione marginale di

e `

1/2 1/2

# # zSR zSR(0,0) (0,1) (0,2) (1,0) (1,1) (1,2) 5/16 2/16 1/16 5/16 2/16 1/16

# # e!zSR $!zSR U

# xG) # xm6 # x2 # v"

# # " ")

U

)

Esempi di variabili doppie discrete

247

248

Variabili casuali multiplePer quanto riguarda la deviazione standard, svolgiamo in dettaglio il calcolo di , lasciando gli altri conti come esercizio: E

Var

Per quanto riguarda le covarianze e coefcienti di correlazione abbiamo: 1.

:

E

Cov

2.

:

Cov

3.

: E

Cov

Il coefciente di correlazione fra il numero di teste consecutive e il numero di teste e positivo; fra il numero di teste consecutive e il numero di croci e ` ` negativo; fra il numero di teste consecutive e il numero di assi e nullo. Questo e ` ` in accordo con quanto ci si aspetta da una grandezza atta a quanticare il grado

a x{ # 2 ) U p c c o{2) # 54H 54H c 54H H H H 54H H # 2 H H 4 c 4 YH U o&)

z H Y U H U qz Hc Y U fz Y U fz Y Xf U f W YcH V Qc f f f c f( H f Qc H ( 94 ( 94 ( p4 H ( Ua H # c f b` f zfzf U v{2{2r"" # v f f H 4 f c YcH f yUH # 2 yUH H 4 c 94 }U ov"

a H U v G # c f f zfz f v{2{2m6m6 # f H f H YcH f c # 2 c c 4 4 U x9m6

# oG) o2 # om6 # xt" # v" # o (# "

# {2r"

# {2y)

# {2m6

# "

(9.34)

(9.35) (9.36)

E

(9.37) (9.38)

(9.39) (9.40)

c G. DAgostini 2001

9.8

` di correlazione. E infatti chiaro che, sotto lipotesi che un evento contenga un alto numero di teste, cresce la probabilit` di trovare due teste consecutive. a Leffetto opposto avrebbe lipotesi che si verichino una grande numero di croci. Lipotesi delluscita o meno di un asso non altera invece le probabilit` degli a esiti dei lanci delle monete, e viceversa.

Entrambi gli esempi che facciamo hanno una funzione densit` di probabilit` a a congiunta costante. Nel primo caso le variabili sono denite in un rettangolo con i lati paralleli agli assi, nel secondo sono denite nel triangolo ottenuto dividendo il rettangolo precedente lungo la diagonale. Questi esempi permettono di prendere familiarit` con alcuni aspetti delle distribuzioni multiple, pur a mantenendo al livello minimo le difcolt` di calcolo, a

9.8.1 Distribuzione uniforme in un rettangoloCome primo e semplice esempio di distribuzione multipla di variabili continue consideriamo due variabili e negli intervalli e e tali che la loro densit` di probabilit` congiunta a a sia costante nella porzione di piano denita da tali limiti. Per semplicare i conti, ma senza perdere in generalit` , facciamo coincidere gli estremi inferiori a e con lorigine degli assi, e chiamiamo e le lunghezze dei due segmenti (vedi gura 9.3). La condizione di normalizzazione permette di ricavare il valore della costante: d d

da cui segue

c G. DAgostini 2001

s s z ! # ( yz ( !Ys ! R"! s

e9 c9 z ! ' d d ! "! d # e9 c9

x 9 U U !

f

# z R"! H

6

9.8

Esempi di distribuzione bidimensionale continua

249

Figura 9.3: Distribuzione bidimensionale uniforme

Esempi di distribuzione bidimensionale continua

d d

(9.41)

(9.42)

250

Variabili casuali multiplePossiamo quindi calcolare le distribuzioni marginali delle due variabili:

Come ovvio, la densit` e uniforme in ciascuna delle due distribuzioni. Le a ` ;E ; ; medie e le varianze valgono quindi: E . Per il calcolo della covarianza serve il valore atteso del prodotto: E

da cui Cov

E

E

. In effetti, anche se si venisse a sapere che vale , e quindi o , questa informazione non cambia le nostre aspettative sui possibili valori di . Il calcolo della densit` di probabilit` di , condizionata dalloccorrenza di a a un valore di , e altres` semplice: ` (9.47)

Essa e identica alla densit` marginale e quindi ` a

9.8.2 Distribuzione uniforme in un triangolo

Se le variabili casuali possono assumere valori, sempre in modo uniforme, allinterno del triangolo di gura 9.3, la funzione densit` di probabilit` a a congiunta e data da `

` E possibile ottenere le distribuzioni marginali e condizionate senza fare alcun conto: e ottenuta integrando ` lungo e quindi e proporzionale al` laltezza del triangolo rettangolo , ove indica il punto lungo la diagonale in corrispondenza di . la distribuzione marginale di e quindi una triangolare asimmetrica (vedi paragrafo 8.4) avente ` , e ;

YcqYIqp d|IwGm6 d" H ( (d c # c I #d d d d E e sono indipendenti.

(9.48)

c G. DAgostini 2001

yUq HI

6 6e e #V ic # " d # H ss "! "! 3u6 ! 6 cI U # 36" d U c c u m6 t" " 6r" # # #6 #

q ! ! d zH e9 c9 ! R"! y! d v" # e9 c9 # 6

p }p R"! #

H T! R"! d " # c9 # # 9 # H "! e oe"! d

g h

d

(9.43) (9.44)

! 9T!9 x9UU

f

z # c "!

t U 1p

p }q

3

t

r ys! # $"! `

Ycq (I p (V H

(9.45)

(9.46)

9.9 c Distribuzione multinomialeper simmetria ; ssando .; e data da una triangolare avente `

251

la distribuzione di

e una uniforme fra 0 e `

analogamente, ssando e .

la distribuzione di

Come esercizio facciamo i conti:

d d

d

d

Si ricordi che le nelle funzioni densit` di probabilit` condizionate il condizioa a nante ha il ruolo di parametro. A differenza del caso precedente, le funzioni le condizionate e le marginali sono diverse: sapere che vale 0, o cambia lo stato di incertezza su . Ad esempio, la previsione ( incertezza standard) vale nei tre casi: (certezza!), e .

9.9 c Distribuzione multinomialeDopo aver introdotto i concetti di base delle distribuzioni multivariate e alcuni esempi elementari, mostriamo ora una una distribuzione di variabile discreta che descrive i possibili istogrammi che possono essere osservati effettuando un certo esperimento. Questo argomento era gi` stato introdotto nel paragrafo a 7.14. In tale occasione ci eravamo interessati soltanto della previsione della distribuzione statistica, ma era stato tralasciato il problema di calcolare la probabilit` di ciascuna delle possibili congurazioni. a Cominciamo con un esempio numerico. Immaginiamo di ripetere 20 volte un certo esperimento, in ciascuno crediamo che possa uscire, con uguale proil numero babilit` , un numero intero compreso fra 0 e 10. Indichiamo con a di occorrenze dellesito -mo. Riassumiamo le cose che gi` sappiamo fare: a ciascuna variabile ; e distribuita secondo una binomiale di `

prevediamo una distribuzione statistica con ciascun esito; (*** att ***) prevediamo che le frequenze relative siano

c G. DAgostini 2001

v 3 u t vu! U r, .

e uniforme fra `

! # e"! # e! 9&mU "! # tu " # # ! r9T x H " # ! y#T9mU tu ( c T! c wT! R"! # c # ( # ! 9mU x 9 # Q!c c y R"!

occorrenze per

Uc d5

c

FczdzmU |DHzgFczmU # U U # U d cI

k

FS S I RS 1S

6

o 6

k

y#dzmv h w! I k ` # ! !QyI ` U # " p t ` U 6 U HH H FqPIfS ` ` `

e

ve!" # x"! # # x" # x$"!

e

252

Variabili casuali multiple

Figura 9.4: Esempi di eventi multinomiali generati casualmente. Tutte le distribuzioni hanno il parametro pari a 20, , e . Negli istogrammi a destra e costante e pari ` , mentre in quelli a sinistra vale invece .

v

ed

h

v

|h kml kjigf7$ h

c G. DAgostini 2001

9.9 c Distribuzione multinomialeInteressiamoci ora delle possibili congurazioni di occorrenze che e possibile ` osservare. La gura 9.4 (parte a destra) ne mostra qualcuna (istogramma ottenuto da simulazione al calcolatore). Cominciamo con dei casi particolari e poi passeremo alla trattazione generale.

253

Passiamo ora al caso generale di possibili modalit` per lesito di ciascue na prova e sia la probabilit` che assegniamo a ciscuna modalit` . Naturala a mente deva valere la condizione

c G. DAgostini 2001

He s yUdH U e H e yUuT yUq H s H r DEs yH fqc s (W yU9TdH 4 fH edQYh UyH U yUH8sT dc Uy5p U H r ` UH e 9 ( yt&o4dH He U s ( s U c r s ( yUdH 9 TWyy f d}n `altri zero. Questi valori possono essere ottenuti da ci sono combinazioni che danno ; per ciascuna di esse ce ne sono cos` via; i otteniamo un totale di che danno combinazioni, ovvero:

Pu` capitare 20 volte di seguito lo stesso valore di , ad esempio o , e , con probabilit` a dando luogo a per ciascuna possibilit` . (La probabilit` che si verichi uno a a qualsiasi di questo tipo di eventi e ` .)

Pu` capitare che esca la met` delle volte un valore, laltra met` un altro o a a e nessuna volta gli altri 9. Concentriamoci su , e gli

possibili sequenze, ciascuna avente probabilit` a . Ne seque , e uguale a ` . che la probabilit` dellevento a (Per calcolare la probabilit` di osservare una qualsiasi equipartizione dei a 20 successi in due classi bisogna considerare il numero combinazioni di 11 esiti presi 2 a 2, pari a 55, ottenendo .) Consideriamo ora un caso in cui i risultati sono pi` equilibrati, ad u esempio i primi 9 esiti che si vericano 2 volte e gli ultimi due una sola volta: ; . Questo sembra essere, intuitivamente, un risultato molto pi` probabile dei due u precedenti. Calcoliamo il numero di sequenze (tutte di probabilit` a ):

Questa congurazione ha quindi una probabilit` di a , enormemente pi` alta delle altre, anche se di per s ancora molto piccola. u e Se poi consideriamo che ci sono 55 congurazioni distinte in cui 9 esiti possono uscire 2 volte e gli altri 1 volta, otteniamo una probabilit` di a circa lo 0.4 per mille di osservare una qualsiasi di queste congurazioni equilibrate.

e dH

U

H y

U e D yHHD F s Uytef3 r iw # vdcUw c Hyy vvww c xH54w |H vvww c vYfw H54H viww c vdYfUw c H H H c vc W W H U yy YfH U dc U U

H s r 9 T s c G yyvxR 9 s!u@( u ( sG t p ( 9 ( t U W &

H p S k k j

i

us t 9

((

k

S

s ( yUH

`

e

Dovendo effettuare prove nelle stesse condizioni possiamo osservare volte ciascun esito, con

Il numero delle sequenze che produce la stessa congurazione e dato dal coefciente multinomiale `

Semplicando otteniamo la (9.50). Moltiplicando la probabilit` (9.49) dela la sequenza per il numero di sequanze abbiamo nalmente la distribuzione multinomiale

dove con e stato indicato linsieme dei valori ` e con linsieme delle probabilit` a . Quando si riottiene la binomiale. Il calcolo del valore atteso e della varianza di ciascuna variabile e im` mediato, in quanto e sufciente pensare la distribuzione marginale di ogni ` variabile pari ad una distribuzione binomiale di parametro . Ne segue E Var (9.52) (9.53)

Per quanto riguarda covarianza e coefciente di correlazione, invece del conto esatto utilizziamo un metodo euristico (pi` importante del conto esatto u per limpostazione di questo corso). Riprendiamo la funzione di probabilit` della distribuzione binomiale a

ed esplicitiamo il fatto ci troviamo di fronte a due classi di eventi (favorevoli e sfavorevoli) scrivendo

S S W# TH o# " S k k o# k " k k S k k b S ( s S bw!Yc yye ( i !YpY!a zdyye mSySa s ! w s } Syy | ( S { s S w!yywyw ( !&wR! # dh ~ "!

( s ( ( ! g! s g! s s w ~ ! t s ! t R! gyy 8W!wwP##(~ t GgtG"t" w !ww# @#RtG"t" 5wg!w{#t" ! ! s t ! w

#S h $TH S

s |( S 8s{ S w ( &w!w g! # h ( !yg"! s

we!"P! # w # h "!

w

u

{ { 8 t8

Infatti, si hanno ce ne sono

combinazioni per la prima modalit` ; per ciascuna di esse a la seconda, e cos` via. Quindi il numero di combinazioni e `

w {!yyyw w ( !w s ! bwYyye ( !YY!a ! s 5} Syy |( S 8s{ S ! y ( ( Rr s! s

Le prove possono dar luogo a sequenze possibili, in genere non tutte equiprobabili (a meno che le siano tutte uguali). Ciascuna sequenza che produce la congurazione di variabili casuali , , ... ha probabilit` a (9.49)

(9.50)

(9.51)

(9.54)

c G. DAgostini 2001

k

254

Variabili casuali multiple

S w k 3 k hk j

h

u

| h t

z

!

9.9 c Distribuzione multinomialedove e stata operata la seguente trasformazione di simboli: `

255

Il fatto che adesso dipenda apparentemente da due variabili non e ` in contraddizione con il fatto che la formula originale delle binomiale fosse funzione di una sola variabile. Infatti e sono linermente (anti-)correlate . Quindi in quanto devono soddisfare la condizione dipende in realt` soltanto da una variabile e il coefciente di correlazione fra a , come e intuitivo pensare e come risulta ` le due variabili vale dalla (9.25) Anche nel caso generale della multinomiale le variabili sono fra loro . Ma il grado di correlazione correlate, in quanto vale la relazione , minore che nella binomiale. Infatti, mentre nel caso il e, per ` non vericarsi di un evento nella classe 1 implica il suo vericarsi nella classe 2, nel caso di molte classi si pu` al pi` affermare che esso si sia vericato in una o u delle restanti classi, ciascuna con probabilit` proporzionale a . Quindi a il grado di correlazione diminuisce in valore assoluto (si diluisce) al crescere del numero di classi e, per abbastanza grande, la multinomiale pu` essere o essere vista come la probabilit` congiunta di tante binomiali indipendenti. a vale -1. Ne segue che Abbiamo detto che nel caso binomiale Cov

in quanto . In effetti si pu` vericare che la (9.55) e valida o ` anche nel caso generale. Si ottiene quindi: Cov (9.56) (9.57) (9.58)

Come previsto qualitativamente, la correlazione e trascurabile se le probabilit` ` a delle due classi sono abbastanza piccole 6 . Limportanza della distribuzione multinomiale risiede nel fatto che essa descrive il numero di eventi di un istogramma o di un diagramma a barre, indipendentemente dalla distribuzione di probabilit` che segue la variabile casuale a associata alla grandezza di cui si costruisce listogramma o il diagramma a barre in questione. In Fig 9.4 sono riportati degli esempi di eventi casuali generati secondo due distribuzioni multinomiali di , in un caso (graci a destra) con tutte uguali e nellaltro con generato secondo una binomiale:E da notare che il caso in cui la formula non funziona ( ) e quello in cui un solo una ` sola modalit` e certa e le altre sono impossibili e quindi non ha pi` senso parlare di distribuzione a` u di probabilit` a6`

c G. DAgostini 2001

# ( !|"! s

S S # t TtH$S # S TH Y # t TH t # TkS H S S S t S y k x# t " S k k S k t S x# t k " k ( QSR k ( pGR sS s ( SRy ( gq# ( YT" G# ( YT" sS s s s # ( Y" s i S H xi k ci c ` ui 3 ! s l w k k k H s # ( Y" ! 4s s h ( wp( ! ! p!

X Uc dw k S

(S g s gS g ( ! s R!g

fH S S t ! !

# ( !Y"! s

(9.55)

k

S

. In questo caso il numero di eventi per ciascun e distri` buito secondo una binomiale di parametri ed , e quindi ha un valore . Quindi le realizzazioni della multinomiale dellesempio uttuano medio intorno ad un andamento medio che ha la stessa forma della distribuzione di , riscalato (normalizzato) di un fattore 20. Si confrontino questi graci con quello della distribuzione di Fig. 7.1.

9.10 c Distribuzione normale bivariataUna funzione di distribuzione di variabili multiple particolarmente importante per le applicazione e quella in cui tutte le distribuzioni marginali sono normali. ` Consideriamo per ora il caso di due sole variabili, rimandando nei prossimi paragra il caso generale. La situazione pi` semplice si verica se le due variabili casuali sono indiu pendenti. Nel tale caso la densit` congiunta e data semplicemente dal prodotto a ` delle densit` marginali. Chiamando a e le variabili e , , e i parametri delle gaussiane otteniamo

Il caso in cui le variabili sono correlate e decisamente pi` complicato. Ri` u nunciamo ad una trattazione rigorosa e cerchiamo di capire la forma della distribuzione ragionando sulla dipendenza della densit` condizionata a dai parametri delle gaussiane e dal coefciente di correlazione (nel seguito indichiamo semplicemente come ). Nel limite si deve riottenere la distribuzione marginale

Se e diverso da zero la ` e distribuita intorno ad un valo` re medio diverso da e avente una diversa varianza. In particolare, chiamando e i parametri della distribuzione condizionata: se se se

e e

, oppure se , oppure se

e e

leffetto di spostamento da deve dipendere, oltre che dal segno, anche dallentit` della correlazione; a esso deve dipendere dai rapporti fra le larghezze delle due gaussiae maggiore di , una piccola deviazione di ` ne: se, ad esempio, da produrr` una grande deviazione di a da . anche la deviazione standard della distribuzione condizionata deve dipendere da , nel senso che si deve riottenere per variabili scorrelate, mentre essa si deve annullare nel caso di correlazione lineare ( ). In questultimo caso infatti ogni valore di determina univocamente un valore di . Inoltre questo effetto di

c G. DAgostini 2001

# e!}" V

# "

i

( ( W #( t " 4 #( "! U 6

k

U ! ` ! U

!

i

Uc dt S

6

k

# $!1" V

` 9! U ` 9! U` Up i

c H

vd e8c oR"! H #

9 F 9

ss

H xy

U

` i

@Sdc k U # 9 s s F 9 k "! S ! s s s

Vs d

k

`

`

k

256

Variabili casuali multiple

S

.

; ;

9.10 c Distribuzione normale bivariatastrizzamento della distribuzione non deve dipendere dal segno di . La forma esatta della dipendenza funzionale e meno intuitiva, ` ma il risultato esatto e in accordo con le aspettative. ` Queste semplici considerazioni sono in accordo con i risultati esatti dati dalle seguenti relazioni:

257

Assumiamo inoltre che anche la distribuzione condizionata sia normale (fatta eccezione del caso degenere quando e ).

Mettendo insieme i vari ingredienti otteniamo:

Utilizzando la formula della densit` condizionata si giunge nalmente alla a distribuzione congiunta :

dove con si e indicata la forma quadratica che compare nellargomen` to dellesponenziale, che dopo le opportune semplicazioni, ha la seguente forma:

` E facile convincersi che, per denizione, e una quantit` non negativa, la ` a quale si annulla nel solo punto e , dove ha chiaramente un minimo. La probabilit` congiunta a descritta dalla (9.59) e nota come la nor` male bivariata, o binormale e la possiamo indicare con , . Si pu` vericare facilmente che, nel caso di correlazione nulla, si rioto tiene la densit` congiunta ottenuta precedentemente dal prodotto delle due a gaussiane. Terminiamo elencando alcune sue propriet` , alcune delle quali gi` incona a trate, e facendo riferimento alle Figg. 9.5 e 9.6.

c G. DAgostini 2001

# ( " # "! ! (0 ( ( (# t " 4 # t "| # tT"! c (# t T"! ( H H ( 0

(0 c( 0 vd ( H H e8c d (# ( tc"! vd g8H c # ( H ( dc d vd ( H H g8c ( eE# !" & 4 r # # # $"! $!}" oR"! # R"!

(9.59)

(9.60)

#( H ( dc d ( eE# "! && 4 r

U i p U ( H i # tT"! 4 i id

( yH e8c

H

# oe!}"

`

258

Variabili casuali multiple

Figura 9.5: Esempio di distribuzione normale bivariata.

c G. DAgostini 2001

9.10 c Distribuzione normale bivariata

259

Figura 9.6: Distribuzione normale bivariata: ellissi di equidensit` e parametri delle a

Rappresentata nello spazio, essa ha una tipica forma a campana, pi` u o meno schiacciata e pi` o meno inclinata, a seconda dei valori dei u parametri. Il valore massimo di e vale e situato in corrispondenza di `

Esso dipende, oltre che dallinverso delle deviazioni standard, anche dal coefente di correlazione.

La distribuzione marginale di ciascuna delle variabili e normale come si ` pu` vericare integrando7 la ( o 9.59). I valori attesi delle variabili standard e .

e

sono

e

e le loro deviazioni .

La covarianza fra le variabili vale Cov

I valori di e per i quali la densit` di probabilit` e costante sono quela a` li per i quali e costante ` . Si riconosce facilmente come tali punti, per

7

Per i calcoli si usi lintegrale indenito:

c G. DAgostini 2001

8

6" # 6

| |

( yH H e8c # " # R"!

distribuzioni marginali. I valori numerici di dellesempio.

$

e di

dipendono dai parametri

| I||

( 0

6

3u6

` ` ` ` ` `

e

(9.61)

260k 1 (1.65) 1 (2.71) 2 (1.96) 4.0 (3.84)

Variabili casuali multiple3 (2.57) 9 (6.63)

una dato valore di , deniscono unellisse nel piano , chiamata ellisse di equidensita; di particolare interesse sono due famiglie di ` ellissi: ellissi esattamente contenute entro rettangoli di lati centrati intorno a e (Fig 9.6); ellissi tali da avere un certo livello probabilit` a variabili cadano allinterno di esse (Fig 9.5.E).

che entrambe le

Le prime ellissi possono essere ricavate direttamente da considerazioni geometriche, mentre per le altre e necessario calcolare lintegrale ` ` . E interessante sapere che queste ultime in modo indipendente dagli altri parametri, menellissi dipendono da tre invece i valori di sono irrilevati in quanto dipendono da , e . Le tabelle 9.4 e 9.5 forniscono alcuni valori di interesse di . Langolo dellasse maggiore dellellisse rispetto allasse delle ascisse e ` dato dalla relazione:

La gura 9.5 mostra un esempio di distribuzione bivariata normale di parametri , , , e . La distribuzione congiunta e rappresentata sia come supercie nello spazio ( 9.5.a), che densit` ` a di punti proporzionali alla p.d.f. ( 9.5.d). Le funzioni di densit` di probabilit` a a marginali sono mostrate in 9.5.b e 9.5.c. Tre esempi di densit` condizionate a cono mostrati in 9.5.d e 9.5.f, per valori di pari rispettivamente a 1.25, 1.5 e 1.75. La Fig. 9.5.e mostra inne le curve di equidensit` tali che la probaa bilit` congiunta di trovare i valori di e di al loro interno sia pari al 68 e al a . Per confronto sono anche riportati gli intervalli di probabilit` al a delle distribuzioni marginali.

1.39

2.30

5.99

9.21

con probabilit` a

.

Tabella 9.5: Valori di

per calcolare le ellissi che racchiudono le variabili

c G. DAgostini 2001

zFc zFc ' '

(9.62)

( 0

4

f F

# 6r"

fz z Ud5 d5 d U U H H H

F

( ( c 8c

F

6

4

qF f

!

eB

# "! 1( 0 ! # g7W7"! I s

e

# R"!

(0 U d

ve

Tabella 9.4: Valori di rettangoli di ampiezza

(0

e

per calcolare le ellissi contenute esattamente entro i intorno ai valori medi.

e

k

`

F

e

9.11 c Caso generale di distribuzione multivariata

261

9.11 c Caso generale di distribuzione multivariata` E semplice dimostrare che pu` essere riscritto come il prodotto di un o vettore riga per un vettore colonna

Il vettore riga pu` essere ulteriormente scomposto come il prodotto di un o vettore riga per una matrice , ottenendo cos` la seguente decomposizione: (9.63)

Chiamando il vettore colonna della differenza fra le variabili casuali e il loro valore atteso, il vettore riga, in quanto trasposto di , e la matrice, acquista la seguente forma:

` E possibile riscrivere la matrice sua inversa8 , ottenendo

in una forma pi` semplice se si passa alla u

La matrice ha quindi un signicato pi` immediato di , in quanto i suoi u elementi sono le varianze e le covarianze delle variabili casuali (si ricordi che Cov ). Utilizzando la forma compatta di scrivere le varianze e covarianze per un numero arbitrario di variabili casuali (vedi par sec:covarianza) si riconosce che

Inoltre, si pu` dimostrare che lespressione di o

scritta nella forma (9.67)

pu` essere estesa ad un numero qualsiasi di variabili. Questo ci permette di o ottenere la formula generale della multinomiale, se si riesce a scrivere in un modo compatto il denominatore del termine di fronte allesponenziale. Per derivarne intuitivamente la forma si pensi possono fare le seguenti considerazioni.

| | { | |

8

Si ricorda che , dove .

c G. DAgostini 2001

v{ {| H|{ { |{ 1 {{ { || 1 H|| { {{ 1

, , e e il determinante della matrice, il quale vale nel nostro caso `

W e(

| &d &

s

(0

t

t s t s

s

& d&

k

U ( s ( H 8 H

|

s

con

W t ( H u t! U | s | s H t t! t ce c t W T! U | 4 A &d & 7 A &d & 7 | ( H H ( 0 ( 10

(9.64)

(9.65)

(9.66)

(0

t

t q t

t

(0 k (0 # 6r"

yt

t

262

Variabili casuali multipleIl fattore , differisce dalloriginario della gaussiana in quanto abbiamo due variabili; ne segue che la sua naturale estensione ad variabili e: ` Il denominatore contiene il prodotto delle deviazioni standard per questioni di dimensioni. Infatti lelemento di probabilit` innitesimo a d d deve essere adimensionale per il suo signicato di probabilit` e a quindi la densit` deve avere le dimensioni inverse di d d . Il termia ne e dovuto invece alleffetto di schiacciamento della forma a ` campana della distribuzione binormale, dovuto alla correllazione fra le variabili. Se il numero di variabili aumenta esso e destinato a compli` carsi. Per formulare in forma compatta estendibile ad un numero qualsiasi di variabili riscriviamola come

Si riconosce quindi come questo termine sia pari alla radice quadrata del determinante di , che indicheremo con . Poich si pu` dimostrare che questa formula e valida anche nel caso generale, e o ` abbiamo nalmente ottenuto lespressione della densit` di probabilit` di una a a distribuzione multinomiale di variabili comunque correlate fra di loro:

ovvero

dove, ripetiamo ancora una volta, rappresenta il vettore aleatorio La notazione e simile a quella della semplice gaussiana, con le dovute ` differenze: al posto di una sola media ; ne abbiamo

La densit` di probabilit` a molte dimensioni non e rappresentabile gracamena a ` te. Si ricordi comunque che la distribuzione marginale di ciascuna delle variabili ;

c H dIP# "G c H 4t dI#P#x""G y# t " k k ( a ` b h Pyyy s Y ` # " b h !yyy ( !YGY!a s ! # t "! s # t "! Hc id {| | R8cu ## "S "! # c vd st t H {| | #R8cv ## "S "!

, compattate in un vettore

la deviazione standard e sostituita da una matrice di varianze e covarian` ze , chiamata matrice di covarianza. Poich vale che Cov e Cov , la matrice e simmetrica e i parametri indipendenti so` no , ovvero le varianze e gli coefcienti di correlazione.

e una normale `

la distribuzione congiunta di due variabili qualsiasi e e una nor` male bivariata descritta dallequazione ( 9.59).

c G. DAgostini 2001

{"! #(9.68) (9.69) .

t

!

(# ( ( # ( H ( ( ( H

k

k

8

c

(C h R8c # k

# t t t " ( k k

( yH

8

c

# " k k `

!

` ` `

9.12

Si pu` vericare facilmente che, se i coefcienti di correlazione fra le variao bili sono tutti nulli e quindi nella matrice di covarianza sono diversi da zero soltanto i termini diagonali, la (9.69) si riduce al prodotto di normali univariate:

Derivate di

rispetto alle variabili casuali

Come ultimo punto su questo argomento osserviamo come le derivate seconde della forma quadratica che compare nellesponenziale, effettuate rispetto alle variabili casuale, siano legate agli elementi dellinversa della matrice di covarianza:

Nel caso unidimensianale questa propriet` si riduce alla banale constatazione a che

Il concetto di distribuzione multivariata si estende anche al caso delle distribuzioni statistiche, prestando attenzione a tenere ben divisi i concetti, che per comodit` ripetiamo: nella distribuzione di probabilit` si associa un grado di a a ducia ad ogni vettore che descrive un possibile esito; nel caso di distribuzione statistica si associa ad esso un peso statistico dato dalla frequenza relativa con cui i vettori di esiti si sono vericati. Nel caso discreto le due distribuzioni sono quindi formalmente equivalente: variabili casuali: variabili statistiche:

Nel caso di distribuzioni statistiche non ha molto senso parlare di variabili continue, in quanto i numeri che si registrano hanno sempre una risoluzione nita. Ne segue che gli analoghi degli elementi innitesimi di probabilit` sono a i pesi statistici di una celletta di dimensione nita: variabili casuali: variabili statistiche:

Anche nel caso di distribuzioni statistiche si pu` fare uso di covarianza e o deviazione standard per riassumere la correlazione fra variabili statistiche, tenendo conto delle solite note sulle diversit` di interpretazione delle grandezze a

c G. DAgostini 2001

qbkt "P{kt "!a # 6 # # k b k ! R"! qWk RY!a

! qb Ya # "!k qb k k Y!a k k k k

9.12

Distribuzioni statistiche multivariate

d d

tu k s

(0 c id | R8c # ( k ! #( t " k j H k k H ## "S "! k k t

t ## "S !" B t ! ! t ! ! c ( k u ( k (0 H

k

( # H #R "S"! B

(! (

Distribuzioni statistiche multivariate

263

(9.70)

(9.71)

(9.72)

264

Variabili casuali multiple

2d x x 2d

2a

x d a x a . sin 0 Figura 9.7: Ago di Buffon

che nel caso di pesi tutti uguali abbiamo Cov

9.13 varie

# # W "$$! "! H "! # k k kj # # Wz "$e! "! "! # k k kj

k

di nome analogo. Se abbiamo , abbiamo Cov

k

coppie di valori, ciascuna di peso statistico (9.73)

(9.74)

c G. DAgostini 2001

Capitolo 10

Funzioni di variabili casuali e teoremi limite10.1 Propagazione delle incertezzeLa condizione di incertezza su alcune grandezze si riette in genere su ogni altra grandezza che sia funzione di esse. Ad esempio, immaginiamo di essere interessati allarea ( ) e al perimetro ( ) di un rettangolo (idealizzazione del piano di un tavolo), di cui sono stati misurati i due lati ( e ). Linevitabile incertezza sul valore di e di (a cui andrebbe aggiunta quella