Probabilita_parte1

download Probabilita_parte1

of 140

Transcript of Probabilita_parte1

  • 8/12/2019 Probabilita_parte1

    1/140

    Giacinto GelliProbabilit e informazioneManuale per il corso di Teoria dei Fenomeni Aleatori

    NAPOLI2002

  • 8/12/2019 Probabilita_parte1

    2/140

    c Giacinto Gelli [email protected] consente la riproduzione anche parziale del testo agli studenti del corso. Non con-sentito modificare il testo, diffonderlo, pubblicarlo anche con mezzi telematici senza il consensoscritto dellautore.

    Prima versione (1.0): settembre 2001.Seconda versione (2.0): febbraio 2002.Terza versione (3.0): ottobre 2002.Quarta versione (3.1): marzo 2003.Quinta versione (3.2): settembre 2003.

  • 8/12/2019 Probabilita_parte1

    3/140

    Dedicato ad Annalisa, Andrea, ed Alice.

  • 8/12/2019 Probabilita_parte1

    4/140

  • 8/12/2019 Probabilita_parte1

    5/140

    Prefazione

    Poich non dal lavoro che nasce la civilt:

    essa nasce dal tempo libero e dal giuoco.

    Alexandre Koyr, I filosofi e la macchina

    Questo libro costituisce un tentativo di fornire unintroduzione snella, ma rigorosa, ai concet-ti fondamentali di probabilit ed informazioneper gli allievi dei corsi di laurea dellIngegneriadellInformazione.

    Il libro organizzato in 10 capitoli ed alcune appendici; nei capitoli 1 e 2 si espongono le basi dellateoria della probabilit; i capitoli 3, 4 e 5 sono dedicati allo studio della teoria di una variabilealeatoria; i capitoli 6 e 7 si occupano della teoria di due variabili aleatorie; il capitolo 8 generalizzamolti dei concetti esposti nei capitoli precedenti al caso di n > 2 variabili aleatorie e discute

    brevemente i teoremi limite (legge dei grandi numeri e teorema limite fondamentale); nel capitolo9 sono introdotte le distribuzioni condizionali; infine, il capitolo 10 dedicato allintroduzionedei concetti fondamentali della teoria dellinformazione (entropia, codifica di sorgente, primoteorema di Shannon, codici di Huffmann). Gli argomenti marcati con il simbolo possono esseresaltati ad una prima lettura, senza pregiudicare la comprensione del resto. Il libro corredatoda numerosi esempi svolti e da oltre 200 esercizi proposti, suddivisi per capitolo; gli esercizicontrassegnati con il simbolo sono di maggiore difficolt.

    Per la comprensione del testo, sono richieste conoscenze di base di calcolo combinatorio, di ana-lisi reale (teoria delle funzioni di una e pi variabili, integrazione delle funzioni di una e pivariabili, derivazione delle funzioni di una e pi variabili, successioni e serie) e di algebra li-neare e geometria (vettori, matrici, determinanti). necessaria anche una conoscenza operativadellimpulso di Dirac (le propriet fondamentali sono richiamate nellappendice D).

    Il libro disponibile su Internet in formato pdf alla seguente URL:

    http://www.die.unina.it/GruppoTLC/gelli/didattica/CorsoFAlaurea/materiale

    ed stato composto dallautore utilizzando LATEX2e. Commenti, segnalazioni di errori e suggeri-

    menti possono essere indirizzati a [email protected].

  • 8/12/2019 Probabilita_parte1

    6/140

    ii

    Si ringraziano gli studenti della Facolt di Ingegneria dellUniversit di Napoli per il loro in-coraggiamento, la loro inesauribile curiosit, e particolarmente per le osservazioni che hannoconsentito di correggere molti degli errori presenti nelle precedenti versioni.

    Giacinto Gelli, ottobre 2002

  • 8/12/2019 Probabilita_parte1

    7/140

    iii

    Principali notazioni

    A, B, C insiemi

    A,B,C classi (collezioni di insiemi) insieme vuotoA appartiene ad A A non appartiene ad AA B A un sottoinsieme diBA B A un sottoinsieme proprio di BA B,A +B unione diAeBA B,A B intersezione diAeBA B differenza traAeBA complemento diAA B prodotto cartesiano diAeB uguale per definizioneN

    insieme dei numeri naturali {1 , 2 , . . . ,}N0 = N {0} insieme dei numeri naturali, zero incluso {0,1 ,2 , . . .}Z insieme dei numeri interi relativi {. . . , 2, 1,0 ,1 ,2 , . . .}R insieme dei numeri realiR = R {,} insieme ampliato dei numeri reali[a, b] intervalloa x b[a, b[ intervalloa x < b]a, b] intervalloa

  • 8/12/2019 Probabilita_parte1

    8/140

    iv

  • 8/12/2019 Probabilita_parte1

    9/140

    Indice

    1 Probabilit elementare 11.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Richiami di teoria degli insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Probabilit: definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Probabilit assiomatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    1.4.1 Campi e-campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.4.2 Assiomi di Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.4.3 Propriet elementari della probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    1.4.4 Spazi di probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.4.5 Propriet di continuit della probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    1.5 Altri approcci alla teoria della probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.5.1 Approccio frequentista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.5.2 Approccio classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.5.3 Vantaggi (e svantaggi) dellapproccio assiomatico . . . . . . . . . . . . . . . . . . . . . 15

    1.6 Esempi di costruzione di spazi di probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.6.1 Spazi di probabilit discreti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.6.2 Spazi di probabilit continui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    1.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    2 Probabilit condizionale e indipendenza 272.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    2.2 Probabilit condizionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.2.1 Interpretazioni della probabilit condizionale . . . . . . . . . . . . . . . . . . . . . . . 292.2.2 Legge della probabilit composta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.2.3 Regola della catena . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.2.4 Teorema della probabilit totale e teorema di Bayes . . . . . . . . . . . . . . . . . . . . 32

    2.3 Indipendenza tra eventi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.3.1 Indipendenza di tre o pi eventi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.3.2 Indipendenza condizionale tra eventi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    2.4 Esperimenti combinati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.4.1 Esperimenti indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

    2.5 Elementi di un sistema di comunicazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.5.1 Sorgente di informazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.5.2 Canale di comunicazione e canale binario simmetrico (BSC) . . . . . . . . . . . . . . . 422.5.3 Sorgenti e canali senza memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

    2.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

  • 8/12/2019 Probabilita_parte1

    10/140

    vi INDICE

    3 Variabili aleatorie 51

    3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.1.1 Definizione formale di variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    3.2 Funzione di distribuzione cumulativa (CDF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543.2.1 Propriet della CDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563.2.2 Variabili aleatorie discrete, continue, miste . . . . . . . . . . . . . . . . . . . . . . . . . 583.2.3 Percentile e mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

    3.3 Funzione densit di probabilit (pdf) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 613.3.1 Propriet della pdf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

    3.4 Funzione distribuzione di probabilit (DF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643.4.1 Propriet della DF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    3.5 Variabili aleatorie notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663.5.1 Variabile aleatoria di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.5.2 Variabile aleatoria binomiale e problema delle prove ripetute . . . . . . . . . . . . . . 673.5.3 Variabile aleatoria binomiale negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

    3.5.4 Variabile aleatoria geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 713.5.5 Variabile aleatoria di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723.5.6 Variabile aleatoria uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723.5.7 Variabile aleatoria gaussiana o normale . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.5.8 Variabile aleatoria esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 753.5.9 Variabile aleatoria di Laplace (esponenziale bilatera) . . . . . . . . . . . . . . . . . . . 763.5.10 Variabile aleatoria di Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.5.11 Variabile aleatoria di tipo mixture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.12 Relazioni tra variabile aleatoria binomiale e gaussiana: i teoremi di de Moivre-Laplace 78

    3.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

    4 Trasformazioni di una variabile aleatoria 85

    4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 854.1.1 Condizioni da imporre alla funzioneg(x) . . . . . . . . . . . . . . . . . . . . . . . . 86

    4.2 Caratterizzazione statistica diY= g(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.2.1 Calcolo della CDF diY= g(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.2.2 Calcolo della DF diY= g(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 924.2.3 Calcolo della pdf diY= g(X) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

    4.3 Problema inverso: determinazione dig(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 964.3.1 Generazione di una variabile aleatoria con CDF assegnata . . . . . . . . . . . . . . . . 984.3.2 Generazione automatica di numeri casuali . . . . . . . . . . . . . . . . . . . . . . . . . 1024.3.3 Algoritmo middle-square (Von Neumann) . . . . . . . . . . . . . . . . . . . . . . . . 1024.3.4 Algoritmo lineare congruente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1034.3.5 Test statistici sui generatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

    4.4 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

    5 Caratterizzazione sintetica di una variabile aleatoria 109

    5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1095.2 Media di una variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

    5.2.1 Teorema fondamentale della media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1135.2.2 Propriet della media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

    5.3 Varianza e valor quadratico medio di una variabile aleatoria . . . . . . . . . . . . . . . . . . . 1145.3.1 Propriet della varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

    5.4 Momenti di una variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1185.4.1 Relazione tra momenti e momenti centrali . . . . . . . . . . . . . . . . . . . . . . . . . 119

    5.5 Disuguaglianze notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

    5.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

  • 8/12/2019 Probabilita_parte1

    11/140

    INDICE vii

    6 Coppie di variabili aleatorie 1276.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1276.2 Funzione di distribuzione cumulativa (CDF) congiunta . . . . . . . . . . . . . . . . . . . . . . 128

    6.2.1 Propriet della CDF congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1296.3 Funzione densit di probabilit (pdf) congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . 1306.3.1 Propriet della pdf congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

    6.4 Funzione di distribuzione di probabilit (DF) congiunta . . . . . . . . . . . . . . . . . . . . . . 1336.5 Statistiche congiunte e marginali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1346.6 Coppie di variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

    6.6.1 Propriet delle variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . 1386.7 Trasformazioni di coppie di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

    6.7.1 Trasformazione21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1396.7.2 Trasformazione22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1416.7.3 Metodo della variabile ausiliaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

    6.8 Variabili aleatorie complesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1456.9 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

    7 Caratterizzazione sintetica di una coppia di variabili aleatorie 1517.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1517.2 Teorema fondamentale della media per una coppia di variabili aleatorie . . . . . . . . . . . . 1527.3 Momenti congiunti di una coppia di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . 1537.4 Misure di correlazione di una coppia di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . 154

    7.4.1 Correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1547.4.2 Spazio vettoriale di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1547.4.3 Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1567.4.4 Coefficiente di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1577.4.5 Incorrelazione tra due variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

    7.5 Stima lineare a minimo errore quadratico medio . . . . . . . . . . . . . . . . . . . . . . . . . 1597.5.1 Principio di ortogonalit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

    7.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

    8 Vettori di variabili aleatorie 1658.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1658.2 Caratterizzazione statistica dinvariabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . 166

    8.2.1 Funzione di distribuzione cumulativa (CDF) . . . . . . . . . . . . . . . . . . . . . . . . 1668.2.2 Funzione densit di probabilit (pdf) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1668.2.3 Funzione di distribuzione di probabilit (DF) . . . . . . . . . . . . . . . . . . . . . . . . 1678.2.4 Propriet delle distribuzioni congiunte dinvariabili aleatorie . . . . . . . . . . . . . . 167

    8.3 Trasformazioni dinvariabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1688.4 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1708.5 Momenti dinvariabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

    8.5.1 Vettore delle medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1738.5.2 Matrice di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1738.5.3 Matrice di covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

    8.5.4 Incorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1768.6 Teoremi limite e convergenza di una sequenza di variabili aleatorie . . . . . . . . . . . . . . 1798.6.1 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1808.6.2 Teorema limite fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

    8.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

    9 Distribuzioni e medie condizionali 1899.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1899.2 Distribuzioni condizionali per una variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . 189

    9.2.1 Funzione di distribuzione cumulativa (CDF) condizionale . . . . . . . . . . . . . . . . 1909.2.2 Funzione densit di probabilit (pdf) condizionale . . . . . . . . . . . . . . . . . . . . . 1919.2.3 Funzione distribuzione di probabilit (DF) condizionale . . . . . . . . . . . . . . . . . 1919.2.4 Teorema della probabilit totale per CDF, pdf, DF . . . . . . . . . . . . . . . . . . . . . 1939.2.5 Probabilit a posteriori di un evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1959.2.6 Probabilit a posteriori datoX= x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

  • 8/12/2019 Probabilita_parte1

    12/140

    viii INDICE

    9.2.7 Teorema della probabilit totale (versione continua) . . . . . . . . . . . . . . . . . . . 1989.2.8 Teorema di Bayes per le pdf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

    9.3 Distribuzioni condizionali per coppie di variabili aleatorie . . . . . . . . . . . . . . . . . . . . 199

    9.3.1 Distribuzioni condizionali datoX= x edY= y . . . . . . . . . . . . . . . . . . . . . . 2019.4 Distribuzioni condizionali per vettori di variabili aleatorie . . . . . . . . . . . . . . . . . . . . 2039.4.1 Indipendenza condizionale e regola della catena per le pdf . . . . . . . . . . . . . . . . 204

    9.5 Media condizionale e momenti condizionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2059.5.1 Teorema della media condizionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2069.5.2 Generalizzazione al caso di coppie di variabili aleatorie . . . . . . . . . . . . . . . . . 207

    9.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

    10 Elementi di teoria dellinformazione 21510.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21510.2 Misura dellinformazione ed entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217

    10.2.1 Autoinformazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21810.2.2 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21910.2.3 Propriet dellentropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220

    10.2.4 Entropia congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22110.3 Sorgenti di informazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

    10.3.1 Entropia di sorgente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22310.3.2 Tasso dinformazione di una sorgente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22410.3.3 Sorgenti discrete senza memoria (DMS) . . . . . . . . . . . . . . . . . . . . . . . . . . . 22510.3.4 Codifica di sorgente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

    10.4 Codici per la compattazione dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22710.4.1 Codici a lunghezza fissa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22710.4.2 Codici a lunghezza variabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22710.4.3 Codici univocamente decifrabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22810.4.4 Codici a prefisso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22810.4.5 Condizioni per lunivoca decifrabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230

    10.5 Efficienza dei codici per la compattazione dati . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

    10.5.1 Codici di Shannon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23210.5.2 Codifica a blocchi e primo teorema di Shannon . . . . . . . . . . . . . . . . . . . . . . . 23410.5.3 Efficienza dei codici a lunghezza fissa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23610.5.4 Codici di Huffmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236

    10.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240

    A Fattoriale e coefficiente binomiale 243A.1 Fattoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.2 Coefficiente binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.3 Espansioni binomiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

    B Elementi di calcolo combinatorio 245B.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245B.2 Schema fondamentale del conteggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246

    B.3 Applicazione al calcolo delle probabilit nel gioco del poker . . . . . . . . . . . . . . . . . . . 249

    C La funzioneG(x) 255C.1 La funzioneG(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

    D Limpulso di Dirac 259D.1 Impulso di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259

    E Richiami di algebra lineare 263E.1 Definizioni ed operazioni fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

    E.1.1 Matrici e vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263E.1.2 Somma di due matrici e prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . . 264E.1.3 Prodotto di due matrici (righe per colonne) . . . . . . . . . . . . . . . . . . . . . . . . . 264E.1.4 Trasposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264

    E.2 Operazioni e propriet delle matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

  • 8/12/2019 Probabilita_parte1

    13/140

    INDICE ix

    E.2.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265E.2.2 Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265E.2.3 Matrici diagonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266

    E.2.4 Matrici simmetriche e forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . 266F Identit matematiche notevoli 269

    F.1 Sommatorie e serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269F.1.1 Sommatorie di potenze di interi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269F.1.2 Somma dei primintermini di una serie geometrica . . . . . . . . . . . . . . . . . . . . 269F.1.3 Serie geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

    F.2 Formula di Leibnitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

    Bibliografia 271

  • 8/12/2019 Probabilita_parte1

    14/140

    x INDICE

  • 8/12/2019 Probabilita_parte1

    15/140

    Capitolo1

    Probabilit elementare

    In questo capitolo si introducono i concetti basilari della teoria della probabilit. Dopo averfornito le definizioni preliminari di esperimento, spazio campione, ed evento, si mostra comecostruire in modo rigoroso una legge di probabilit utilizzando lapproccio assiomatico di Kol-mogorov e si presentano le propriet elementari della probabilit. Si accenna poi ad alcuni ap-

    procci alternativi allo studio della probabilit (classico e frequentista), discutendo i vantaggi e glisvantaggi dellapproccio assiomatico e motivando la scelta di questultimo. I concetti introdot-ti vengono infine applicati per costruire leggi di probabilit su spazi campione di tipo discretooppure continuo.

    1.1 Introduzione

    La teoria della probabilit uno strumento matematico utile per lo studio dei cosiddetti fenomenialeatori, che sono fenomeni complessi o di difficile modellizzazione, il cui esito non prevedibilea priori con certezza, ma che tuttavia presentano una qualche forma di regolarit; per questo mo-tivo, il comportamento di tali fenomeni pu essere descritto solo attraverso opportune grandezzeglobali o medie.

    Per esempio, il lancio di una moneta su un tavolo un fenomeno fisico che pu essere certa-mente descritto in termini delle equazioni matematiche tipiche della cinematica e della dinamica;tuttavia estremamente difficile, se non praticamente impossibile, pur supponendo di conoscereesattamente la forma, la massa, la velocit iniziale della moneta, le caratteristiche del tavolo, eogni altro parametro del problema, prevedere quale faccia della moneta si manifester in un sin-golo lancio. Nonostante ci, la nostra intuizione ci dice che se lanciamo la moneta (supposta nontruccata) un numero sufficientemente elevato di volte, la percentuale di volte che si presenter lafacciatestao la facciacrocesar prossima al 50%. Quindi, pur non essendo possibile prevedere il

    risultato di unsingololancio, riconosciamo che il fenomeno aleatorio presenta una qualche forma

  • 8/12/2019 Probabilita_parte1

    16/140

    2 Probabilit elementare

    diregolaritse si considera un numeroelevatodi lanci o di ripetizioni dellesperimento. La teoriadella probabilit si occupa proprio di individuare, studiare e modellare tali regolarit.1

    Un altro esempio di fenomeno aleatorio un fluido gassoso, composto da un numero ele-vato di particelle in moto casuale. praticamente impossibile descrivere il comportamento delgas descrivendo il comportamento di ogni particella che lo compone; tuttavia laggregato delleparticelle tende ad esibire propriet regolari: ad esempio, lapressionedel gas stesso una quanti-t perfettamente definita e misurabile. In questo caso, la regolarit del fenomeno si manifesta inquanto esso, a livello macroscopico, composto da un numero elevato di particelle microscopiche,ciascuna delle quali presenta un comportamento aleatorio. La disciplina che studia il comporta-mento dei gas con un approccio basato sulla teoria della probabilit prende il nome di meccanicastatistica.

    Altri fenomeni aleatori che possono essere convenientemente modellati attraverso la teoriadella probabilit sono, ad esempio, larrivo di utenti ad uno sportello di una banca, nel quale

    impossibile prevedere con esattezza listante di arrivo di ciascun utente, ma il comportamentoglobale dellinsieme degli utenti (ad esempio, la lunghezza media della coda allo sportello) puessere modellato con esattezza. In un ambito completamente differente, gli arrivi possonoessere le telefonate che giungono ad una centrale telefonica, e la teoria della probabilit puservire a dimensionare opportunamente il numero di linee di tale centrale. Lapplicazione dellateoria della probabilit a tali problemi ha determinato la nascita della disciplina denominata teoriadelle code, ampiamente utilizzata nellanalisi e nel progetto delle reti di telecomunicazioni.

    In ambito economico e finanziario, la teoria della probabilit stata utilizzata con successoper modellare aggregati composti da un gran numero di soggetti economici, quali ad esempioi mercati nei quali avvengono le transazioni di borsa. Se infatti impossibile prevedere con

    esattezza il comportamento del singolo investitore, tuttavia il comportamento globale di un grannumero di investitori tende ad esibire regolarit che rendono possibile una descrizione basata suimodelli della teoria della probabilit.

    Un altro campo nel quale la teoria della probabilit trova unimportante applicazione le-laborazione e la trasmissione dellinformazione; bisogna infatti osservare che, per sua natura, ilconcetto di informazione intrinsecamente legato a quello di impredicibilit. Ad esempio, laf-fermazione stanotte far buio non convoglia nessuna informazione, semplicemente perch una affermazione certa, perfettamente predicibile. Viceversa, una affermazione poco probabile,quale domani il pianeta Terra sar invaso dai marziani convoglia una grande quantit di in-formazione, perch poco probabile, e quindi non predicibile. La disciplina che studia i problemiassociati allinformazione con approccio probabilistico prende il nome di teoria dellinformazione;

    alcuni aspetti basilari di tale disciplina saranno introdotti e discussi nel capitolo 10.Abbiamo fornito alcuni esempi, certamente non esaustivi, di applicazione della teoria della

    probabilit, che dovrebbero evidenziare lampia portata e la rilevanza di tale disciplina. Siamoadesso pronti a porre le basi di tale teoria, che ha un forte contenuto matematico, ma che cer-cheremo di trattare in modo semplice, e con continuo ricorso ad esempi. In particolare, primadi addentrarci nel vivo dello studio della teoria della probabilit, richiamiamo brevemente nelparagrafo successivo gli elementi fondamentali dellateoria degli insiemi. Il lettore in possesso di

    1Lesempio del lancio di una moneta non scelto a caso: la nascita stessa della teoria della probabilit attribuita damolti storici alla necessit di calcolare le percentuali di vittoria o di sconfitta per i pi comuni giochi dazzardo (lancio didadi, roulette, poker, etc.). Un episodio storicamente documentato, cui spesso si fa risalire la nascita della moderna teoriadella probabilit, la corrispondenza (1654) tra il matematico B. Pascal ed il giocatore cavalier de Mer su una particolarescommessa relativa al gioco dei dadi (nota come il paradosso di de Mer, vedi esercizio 2.13).

  • 8/12/2019 Probabilita_parte1

    17/140

    1.2 Richiami di teoria degli insiemi 3

    A

    B

    Fig. 1.1.LinsiemeB sottoinsieme dellinsiemeA(B A).

    A

    A

    Fig. 1.2. Il complemento A = A di uninsiemeA(in grigio).

    sufficiente familiarit con tali concetti pu scorrere rapidamente il paragrafo 1.2 per familiarizza-re con la notazione utilizzata, oppure saltare direttamente al paragrafo 1.3, dove si introducono iprimi elementi di teoria della probabilit.

    1.2 Richiami di teoria degli insiemi

    Uninsieme A una collezione di oggetti, chiamati elementidellinsieme. Un insieme pu essere

    definito per enumerazione, vale a dire specificando in dettaglio i suoi elementi, per esempioA ={1,2, . . . ,n} o A ={bianco, rosso, verde}, oppure descrivendo quali propriet devonopossedere tali elementi, ad esempio2 A ={ R tali che 0}. Per indicare che unelemento di A, si usa la notazione A. Linsieme vuoto linsieme che non contieneelementi. Due insiemi AeBsi dicono coincidenti, e si scrive A = B , se essi contengono gli stessielementi.

    Per agevolare la comprensione delle relazioni che coinvolgono gli insiemi, utile ricorreread un particolare tipo di rappresentazione grafica, denominatadiagramma di Venn, nel quale gliinsiemi sono rappresentati come porzioni del piano, come ad esempio in Fig. 1.1 oppure in Fig.1.2.

    Un sottoinsieme Bdi A un insieme i cui elementi sono anche elementi di A(Fig. 1.1). Perindicare cheB un sottoinsieme di A(ovvero incluso in A) si usa la notazione BA; se esistealmeno un elemento di Ache non appartiene aB,B si dice sottoinsieme propriodi A, e si indicaB A(relazione di inclusione stretta). Si assume che linsieme vuoto sia sottoinsieme di unqualunque insieme. Nella logica formale, la relazione di inclusione corrisponde allimplicazionelogica. Notiamo che risultaA = B se e solo se A B eB A.

    Dato un insieme , si diceclasseuna collezione C di sottoinsiemi di . In particolare, la classedituttii sottoinsiemi di (ivi incluso e linsieme vuoto ) prende il nome di collezione delleparti di , e si denota con P().

    2Qui e nel seguito denotiamo con Rlinsieme dei numeri reali, con Nlinsieme dei numeri naturali (interi positiviescluso lo zero), con Z linsieme dei numeri relativi (interi positivi e negativi, zero incluso). In generale, il significato delleprincipali notazioni utilizzate richiamato allinizio del libro.

  • 8/12/2019 Probabilita_parte1

    18/140

    4 Probabilit elementare

    A B

    A B

    Fig. 1.3. Lunione A B di due insiemi (ingrigio).

    A B

    A B

    Fig. 1.4. Lintersezione A Bdi due insiemi (ingrigio)

    La differenzaA Btra due insiemi linsieme che contiene gli elementi di Ache non appar-tengono aB.

    SiaAun sottoinsieme di . Ilcomplemento Adi A(rispetto ad ) linsieme contenente tuttigli elementi di che non appartengono ad A(Fig. 1.2), ovvero A = A. Nella logica formale,il complemento corrisponde alloperazione di NOT.

    Lunioneo somma di due insiemi A,B linsieme che contiene tutti gli elementi di A , di B, odi entrambi (Fig. 1.3). Lunione di due insiemi si denota con A Boppure A+B, e gode dellapropriet commutativa:

    A B= B A .

    Loperazione di unione, inoltre, si pu estendere a pi di due insiemi in maniera naturale, inquanto essa gode della propriet associativa:

    (A B) C= A (B C) ,

    il che giustifica la scrittura A B Coppure A+B+Csenza parentesi. Nella logica formale,lunione corrisponde alloperazione di OR (non esclusivo).

    Lintersezioneo prodotto di due insiemi A,B linsieme che contiene tutti gli elementi comuniad Ae B(Fig. 1.4). Lintersezione di due insiemi si denota con A Boppure AB, e gode dellapropriet commutativa:

    A B= B A .Loperazione di intersezione, inoltre, si pu estendere a pi di due insiemi in maniera naturale,in quanto essa gode della propriet associativa:

    (A B) C= A (B C) ,

    il che giustifica la scrittura A B Coppure A B Csenza parentesi. Inoltre lintersezione godedella propriet distributiva rispetto allunione:

    A (B C) = (A B) (A C) ,

    che ha uninterpretazione pi immediata se scritta con il simbolismo algebrico:

    A(B+C) = A B+A C .

  • 8/12/2019 Probabilita_parte1

    19/140

  • 8/12/2019 Probabilita_parte1

    20/140

    6 Probabilit elementare

    1.3 Probabilit: definizioni preliminari

    Alla base della teoria della probabilit sono i concetti primitivi di esperimento,spazio campione,

    edevento.

    Definizione (esperimento). Un esperimento (aleatorio) una procedura sperimentale conun ben definito insieme di possibili risultati, il cui esito non prevedibile a priori.

    Esempio1.1. Un possibile esperimento il lancio di una moneta, con risultati convenzionalmente deno-minati testa (T) e croce (C); oppure il lancio di un dado, con possibili risultati una faccia marcata conun numero intero tra uno e sei; oppure ancora lestrazione di un numero al gioco del lotto, con possibilirisultati un numero intero tra 1 e 90.

    Definizione (spazio campione). Lo spazio campione (finito o infinito) associato ad un

    esperimento linsieme di tutti i possibili risultati dellesperimento.

    Esempio1.2. Nel lancio di una moneta lo spazio campione = {T, C}; nel lancio di un dado, lospazio campione = {1,2,3,4,5,6}; nellestrazione di un numero al gioco del lotto, lo spazio campione = {1,2 , . . . ,89 ,90}.

    Definizione (evento). Dato uno spazio campione , si dice evento un sottoinsieme Adi .

    Esempio1.3. Nel lancio di una moneta un possibile evento A ={

    T}

    (evento elementare, costituito daun solo elemento); nel lancio di un dado, un possibile evento A = {pari}= {2,4,6}; nellestrazione di unnumero al gioco del lotto, un possibile evento A = {minore di 10} = {1 , 2 , 3 , . . . , 9}.

    Si definisceprovauna singola ripetizione di un esperimento. Supponiamo allora di effettuare unaprova e di ottenere il risultato : diremo allora che, nella prova considerata, si verificatoleventoA, seA. Allo stesso modo, diremo che:

    nonsi verificato levento A, se A o, equivalentemente, seA;

    si sono verificati gli eventi A e B, se A B;

    si verificato levento A oppure B, se A B(gli eventi Ae Bpotrebbero verificarsianche entrambi, ovvero lOR non esclusivo).

    Ad esempio, poich sempre, levento (eventocerto) si verifica ad ogni prova, mentre le-vento (eventoimpossibile) non si verifica in nessuna prova. Tra i possibili eventi, i pi semplicisono quelli del tipoA = {}, costituiti cio da un singolo elemento di ; tali eventi atomici (inquanto non ulteriormente decomponibili in eventi pi semplici) si dicono eventi elementari. No-tiamo la distinzione trarisultato ed evento elementare {} (evidenziato dalluso delle parentesigraffe): il risultato il generico elemento dello spazio campione (non un evento), mentrelevento elementare {} linsieme costituito da un solo elemento ( un evento).

    Esempio1.4. Nel lancio di un dado, consideriamo gli eventi A ={

    pari}

    , B ={

    maggiore o uguale a 3}

    ,C= {minore di 2}. Se il risultato dellesperimento il numero 4, diremo allora che:

  • 8/12/2019 Probabilita_parte1

    21/140

    1.3 Probabilit: definizioni preliminari 7

    si verificato leventoA, ovvero uscito un numero pari;

    si verificato leventoB, ovvero uscito un numero maggiore o uguale a 3;

    non si verificato levento C, ovvero non uscito un numero minore di 2.

    Analogamente, diremo che si sono verificati gli eventiA e B , e si sono verificati gli eventi A oppure C.

    Possiamo adesso introdurre i concetti dispazio degli eventied una prima definizione diprobabilit.Perspazio degli eventiintendiamo la classe S di tutti gli eventi di interesse (poich gli eventi sonosottoinsiemi di , si tratta di una classe, cio di una collezione di insiemi). Laprobabilit unafunzionePdefinita4 sullo spazio degli eventi S e a valori in[0, 1]:

    P: A S P(A) [0, 1] .

    In altri termini, una legge di probabilit consiste nellassegnare ad ogni evento Aun numerocompreso tra 0 ed 1 che in qualche modo misurail grado di incertezza associato al verificarsi

    dellevento stesso.A questo punto sorge un problema fondamentale: dato un qualsiasi esperimento, abbastan-

    za semplice identificare in maniera non ambigua lo spazio campione , gli eventi A, lo spaziodei possibili eventi S. Ad esempio, sembra naturale scegliere come spazio degli eventi S la classeP()di tutti i sottoinsiemi di (vedremo poi che questa scelta non sempre possibile). Ma come possibile specificare la legge di probabilit? Vediamo un semplice esempio.

    Esempio1.5. Consideriamo il lancio di una moneta, il cui spazio campione denotiamo con ={T, C}.Come spazio degli eventi, consideriamo la collezione P()delle parti di , ovvero la classe di tutti i sot-toinsiemi di , incluso e . In generale, la collezione delle parti, per un insieme conNelementi, contiene2N sottoinsiemi;5 nel caso in esame, poniamoS = P() =

    {{T

    },

    {C

    },

    {T, C

    },

    {

    }}. Possiamo assegnare la

    probabilit atuttigli eventi di Snel seguente modo:

    P({T}) = P({C}) =1/2, per simmetria;P({T, C}) =1, evento certo;P({}) =0, evento impossibile.

    In questo caso, allora, abbiamo assegnato un valore numerico di probabilit ad un qualunque evento dellospazio degli eventi, e quindi abbiamo costruito una legge di probabilit.

    Nel semplice esempio precedente una plausibile legge di probabilit si ottenuta sulla base diconsiderazioni intuitive e per motivi di simmetria. Tuttavia, per trattare casi pi complicati necessario ricorrere ad un approccio sistematico. In particolare, necessario introdurre degliassiomio dei postulati6 a cui deve soddisfare una legge di probabilit; questa strada quella

    seguita dallapproccio assiomatico, introdotto nel 1933 dal matematico russo A. N. Kolmogorov(19031987),7 ed quella ritenuta pi soddisfacente dal punto di vista matematico. Tuttavia,

    4Notiamo che la probabilit una funzione che opera, anzich su numeri, su insiemi (eventi): una tale funzione denominatafunzione di insieme.

    5Tale risultato si pu facilmente motivare, se pensiamo che individuare un particolare sottoinsieme di un insieme conNelementi equivale a costruire una stringa diNbit, nella quale ai simboli 0 si associa la mancanza nel sottoinsiemedellelemento di corrispondente, mentre ai simboli 1 si associa la sua presenza. Poich possibilecostruire 2N distintestringhe diNbit, tale sar il numero dei distinti sottoinsiemi di .

    6Ricordiamo che, in una teoria formale, un assioma o un postulato unasserzione che non devessere dimostrata. Adesempio, lassioma fondamentale della geometria euclidea il cosiddetto assioma delle rette parallele: in un piano, per unpunto non appartenente ad una retta, passa una ed una sola retta parallela alla retta data.

    7Il contributo di Kolmogorov apparve per la prima volta con il titolo Grundebegriffe der Wahrscheinlichkeitrech-nung (Fondamenti del calcolo delle probabilit) nella rivista tedesca Ergebnisse Der Mathematiknel 1933; una traduzio-ne in inglese (curata da N. Morrison) di non difficile reperibilit Kolmogorov, A. N. Foundations of the theory ofprobability, Chelsea Publishing Co., New York, 1956 (ristampata da American Mathematical Society, 2000).

  • 8/12/2019 Probabilita_parte1

    22/140

    8 Probabilit elementare

    lapproccio assiomatico soffre di una limitazione fondamentale: esso un approccio incompleto(nel senso che non consente di determinare univocamente ivaloridelle probabilit da attribuireagli eventi), come discuteremo pi approfonditamente nel seguito.

    Esempio1.6. Lapproccio assiomatico ci consentir di costruire leggi di probabilit su esperimenti picomplessi, quali quelli ad esempio che hanno un numero infinitodi possibili risultati. Si pensi, ad esempio,allesperimento che consiste nel contare il numero di automobili che passano ad un casello autostradale inun determinato intervallo di tempo; sebbene in pratica tale numero sar limitato superiormente, in man-canza di informazioni su tale limite superiore possiamo assumere come spazio campione ={0 , 1 , 2 , . . .},ovvero linsieme N0dei numeri interi non negativi, avente cardinalit infinita numerabile. Un altro esem-pio lesperimento consistente nel misurare la durata (il tempo di vita) di un dispositivo (si pensi, adesempio, ad una lampadina appena montata). In questo caso potremmo assumere come spazio campione un opportuno intervallo[0, a]di numeri reali positivi, anche se, non conoscendo il valore dia(il massimotempo di vita) risulta pi semplice assumere = [0,[; in questo caso abbiamo a che fare con uno spaziocampione di cardinalitinfinita continua. La costruzione di leggi di probabilit su spazi campione aventi

    cardinalit infinita (in particolare, continua) non pu essere affrontata soltanto con considerazioni intuitive,ma richiede una formulazione pi rigorosa dei principi della probabilit.

    1.4 Probabilit assiomatica

    Per costruire una legge di probabilit secondo lapproccio assiomatico dobbiamo richiedere qual-che propriet particolare allo spazio S degli eventi di interesse. In particolare, dobbiamo richie-dere che S possieda la struttura dicampoo, pi precisamente di -campo.

    1.4.1 Campi e-campi

    Iniziamo col definire il concetto dicampo:Definizione (campo). Una classe S non vuotadi eventi si dice campose soddisfa le seguentipropriet:

    1. A S A S (chiusura rispetto al complemento);2. A, B S A B S (chiusura rispetto allunione).

    Sulla base delle propriet 12, facile dimostrare che, se S un campo, si ha anche:

    1. , S.

    Prova. Infatti, poich S non vuoto, contiene almeno un elemento A A S(per la propriet 1) A A= S(per la propriet 2) = S(per la propriet 1).

    2. A, B S A B S (chiusura rispetto allintersezione).

    Prova. SeA, B S A, B S(per la propriet 1) A B S(per la propriet 2) A B S(perla propriet 1). Ma A B= A Bper le leggi di de Morgan.

    Lapplicazione ripetuta delle propriet 2 e 2mostra che ogni insieme che possa essere espressocome unione e/o intersezione di un numero finitodi elementi di Sappartiene anchesso ad S.Tale propriet non rimane valida, tuttavia, se si considera un numeroinfinitodi insiemi, che uncaso di interesse nella teoria della probabilit. allora necessario estendere il concetto di campo

    al caso di infiniti insiemi, definendo il cosiddetto -campo:

  • 8/12/2019 Probabilita_parte1

    23/140

    1.4 Probabilit assiomatica 9

    Definizione (-campo). Un -campo S di eventi un campo che soddisfa, oltre allepropriet 1 e 2, anche la seguente:

    3.{An}n=1 S n=1An S (chiusura rispetto allunione numerabile).

    Applicando le leggi di de Morgan e la chiusura rispetto al complemento, facile verificare cheanche

    n=1Anappartiene a S (propriet dichiusura rispetto allintersezione numerabile).

    Poich e devono necessariamente appartenere ad S, ne segue che S ={,} il pipiccolo-campo che possibile costruire: esso prende il nome di -campo banale. Daltra parte,la classe P()delle parti, poich contienetuttii sottoinsiemi di , conterr senzaltro il comple-mento, lunione e lintersezione numerabile di qualunque insieme; dunque P() ilpi grande-campo che possibile costruire.

    Osserviamo in conclusione che la distinzione tra campo e -campo significativa se il numero

    di eventi possibili infinito, il che pu accadere solo se lo spazio campione ha infiniti elementi.Se lo spazio campione ha un numero Nfinito di elementi, la classe delle parti P()contieneun numero finito (2N) di sottoinsiemi, e quindi un campo ed anche un -campo. Vedremo chein questo caso effettivamente possibile scegliere come -campo S = P() e costruire senzaproblemi valide leggi di probabilit su (cfr. 1.6.1). La scelta S = P() lecita ( 1.6.1) anchenel caso in cui risulti di cardinalit infinita numerabile. Viceversa, vedremo nel 1.6.2 chela scelta S = P()non lecita nel caso in cui ha cardinalit infinita continua, in quanto tale-campo (che, ricordiamo, il pi grande -campo) in genere troppo grandeper definire unavalida legge di probabilit su di esso.

    1.4.2 Assiomi di Kolmogorov

    Dopo lintroduzione delle definizioni preliminari, siamo in grado di fornire una definizionerigorosa della probabilit:

    Definizione (probabilit). Assegnato uno spazio campione ed un -campo Sdi eventidi , si definisce probabilituna funzioneP definita in S, a valori reali non negativi, tale dasoddisfare i seguenti tre assiomi (assiomi di Kolmogorov):

    I. P(A) 0 per ogniA S (assioma di non negativit);II. P() =1(assioma di normalizzazione);

    III. Se {An}n=1 una successione di eventi mutuamente esclusivi (Ai Aj = , i= j) diS, alloraP(n=1An) = n=1P(An)(assioma di numerabile additivit).

    Lintera teoria della probabilit discende dai precedenti assiomi in maniera deduttiva.8 Abbiamogi osservato che assegnare i valori di probabilit agli eventi equivale amisurareil livello di incer-tezza associato agli stessi. In effetti, bisogna osservare che una funzione definita su un insieme ,che soddisfa assiomi analoghi a quelli di Kolmogorov, viene proprio definita dai matematici unamisura(casi elementari di misura sono la lunghezza, larea, ed il volume); pertanto, il contributopi significativo di Kolmogorov stato in sostanza quello di riconoscere che, per definire una

    8Unateoria si dice deduttiva se ricava i casi particolari a partire da principi generali; viceversa, si dice induttiva se ricavai principi generali a partire da casi particolari. Il principio di induzione stato spesso severamente messo in discussioneda scienziati e filosofi; per una interessante discussione critica sui due approcci si veda K. Popper, Logica della ricercascientifica, Einaudi, 1970.

  • 8/12/2019 Probabilita_parte1

    24/140

    10 Probabilit elementare

    corretta teoria della probabilit, questultima va inquadrata come un caso particolare dellateoriadella misura. Notiamo, in particolare, che lassioma di normalizzazione impone che la misura di sia unitaria, e per questo motivo si parla anche della probabilit come di una misuranorma-lizzata. Va osservato che nel seguito, per mantenere la trattazione ad un livello elementare, nonfaremo uso di tale analogia in maniera estesa; tuttavia, sfrutteremo lanalogia tra probabilit emisura per giustificare intuitivamente alcune propriet della probabilit, quali quelle presentatenel paragrafo seguente.

    1.4.3 Propriet elementari della probabilit

    A partire dagli assiomi di Kolmogorov, applicando semplici concetti di teoria degli insiemi, possibile ricavare le propriet elementari della probabilit riportate in questo paragrafo. Per

    ciascuna di queste propriet, fornita una dimostrazione formale rigorosa; tuttavia, una giustifi-cazione pi intuitiva si pu dare sfruttando lanalogia tra probabilit e misura e ragionando suidiagrammi di Venn; in tal caso, possiamo identificare la probabilit di un insiemeAcon larea del-la superficie che occupa sul diagramma di Venn. In particolare, per lassioma di normalizzazione,lanalogia richiede che lo spazio campione abbia area unitaria. Per brevit, tutti gli insiemidi cui si calcolano le probabilit nelle propriet che seguono sono sempre assunti appartenenti al-campo S.

    1. P() =0.

    Prova. Scegliendo A1 = e An = , n >1 (tali Anrisultano chiaramente mutuamente esclusivi),risulta n=1An = + = . Per lassioma III allora si ha:

    P() = P(n=1An) =

    n=1

    P(An) = P() +

    n=2

    P()

    da cui risulta necessariamenteP() =0.

    2. A B= P(A B) =P(A) +P(B)(finita additivit).

    Prova. Segue dallassioma III e dalla propriet 1, scegliendoA1 = A ,A2 = B,An = , n > 2.

    3. P(A) =1 P(A).

    Prova. Poich A A= eA A= , per la propriet 2 e per lassioma II si ha:

    P(A A) = P(A) +P(A) = P() =1 P(A) =1 P(A) .

    4. P(A B) =P(A) +P(B) P(A B).

  • 8/12/2019 Probabilita_parte1

    25/140

    1.4 Probabilit assiomatica 11

    ; ;

    ; ;

    ; ;

    A B

    AB AB

    Fig. 1.5. Diagramma di Venn delle relazioni A B= A ABeB = A B A B.

    A

    BAB

    Fig. 1.6.Diagramma di Venn della relazioneA= B A B(valida se B A).

    Prova. Utilizzando i diagrammi di Venn (Fig. 1.5) facile verificare che:

    A B= A AB

    con Ae ABmutuamente esclusivi. Allo stesso modo (Fig. 1.5), si ha:

    B= B= (A+A) B= A B A B

    con A Be A Bmutuamente esclusivi. Applicando la propriet 2 si ha:

    P(A

    B) = P(A) +P(AB) ,

    P(B) = P(AB) +P(AB) .

    EliminandoP(AB)tra le due equazioni si ottiene il risultato.

    Poich P(A B) 0, risulta P(A B) P(A) +P(B) (disuguaglianza di Boole). Si hauguaglianza se e solo se P(A B) = 0, ovvero se gli eventi A e B sono mutuamenteesclusivi.

    5. B A P(B) P(A).

    Prova. Utilizzando i diagrammi di Venn (Fig. 1.6) facile verificare che, seB

    A , si ha:

    A= B A B

    conBe A Bmutuamente esclusivi. Per la propriet 2 si ha:

    P(A) = P(B A B) = P(B) +P(AB) P(B) P(A)

    perchP(A B) 0.

    6. P(B) 1.

    Prova. Segue direttamente dalla propriet precedente e dallassioma II, scegliendoA = .

  • 8/12/2019 Probabilita_parte1

    26/140

    12 Probabilit elementare

    1.4.4 Spazi di probabilit

    In sostanza, per definire una legge di probabilit, occorre specificare: 1) uno spazio campione ;

    2) un -campo Sdi eventi di ; 3) una funzione Pdefinita su Se a valori in [0, 1]che soddisfigli assiomi I-III di Kolmogorov (vedi 1.4.2). La terna(,S, P)prende il nome dispazio di pro-babilit. Si noti che, nellapproccio assiomatico, lintera teoria della probabilit viene costruita inmanieradeduttivaa partire dagli assiomi di Kolmogorov. Questo significa che a partire dai prin-cipi generali (gli assiomi) e dalle probabilit di eventi semplici, si ricavano le probabilit di eventicomplessi applicando le propriet formali del calcolo delle probabilit, tra cui quelle ricavate nel 1.4.3.

    Esempio1.7. Riprendiamo lesempio del lancio di una moneta. Abbiamo definito lo spazio campione ={T, C} ed il-campo S ={{T}, {C}, {T, C}, {}}. Per definire una legge di probabilit bisogna alloraassegnare le probabilit agli eventi. A tale scopo sufficiente assegnare le probabilit ai cosiddettieventielementari {T} e {C}. Una scelta ragionevole :

    P({T}) = P({C}) =1/2 ,

    tuttavia se assegniamo le probabilit come:

    P({T}) =1/3 , P({C}) =2/3 ;

    facile vedere che anche tale assegnazione soddisfa gli assiomi di Kolmogorov. Allora qual la legge diprobabilit corretta?

    Lesempio precedente mette in luce la principale limitazione dellapproccio assiomatico di Kol-mogorov, ovvero il fatto che esso un sistema di assiomi incompleto, non consente cio di deter-

    minare univocamentequalidebbano essere le probabilit degli eventi. Come si fa allora a capirequale sia la legge di probabilit corretta? In pratica una volta definita una legge di probabilitche soddisfa allapproccio assiomatico, si utilizza tale legge per effettuare previsionisullesperi-mento (ad esempio, per calcolare probabilit di eventi pi complessi a partire da probabilit dieventi semplici). Se le previsioni sono accurate (validazione sperimentale) le probabilit ipotizza-te sono corrette, altrimenti necessario modificare la legge (i valori) di probabilit. Il processo sipu iterare fino ad avere un accordo soddisfacente tra valori teorici e valori sperimentali. La di-sciplina che si occupa di validare sperimentalmente le previsioni probabilistiche e/o di ricavarei valori di probabilit a partire dai dati sperimentali va sotto il nome di statistica.

    1.4.5 Propriet di continuit della probabilit

    Introduciamo in questa sezione9 una propriet che, sebbene non frequentemente utilizzata nelcalcolo delle probabilit, estremamente importante per alcune derivazioni teoriche. Ricordiamoche la probabilit una funzione P avente per insieme di definizione il -campo S degli eventi.Mostriamo ora che tale funzione P continua, nel senso che se{An}n=1 una successione dieventi di S, tali che limnAn = A, allora:

    limn

    P(An) = P(limn

    An) = P(A) . (1.3)

    Tale continuit sembra simile a quella comunemente introdotta per le funzioni reali di una va-riabile reale, ma va interpretata con cautela: poich infatti Snon un insieme numerico, non

    9Le sezioni contrassegnate dal simbolo possono essere saltate ad una prima lettura.

  • 8/12/2019 Probabilita_parte1

    27/140

    1.5 Altri approcci alla teoria della probabilit 13

    chiaro che in che senso vada intesa la convergenza della successione di insiemi AnallinsiemeA. Una trattazione rigorosa richiederebbe lintroduzione e luso di concetti matematici avanza-ti, quali la teoria degli spazi metrici e/o degli spazi topologici. Qui considereremo un caso pisemplice, nel quale definiremo il concetto di limite solo per particolari successioni di insiemi: inparticolare, diremo che An una successione decrescente(rispetto alla relazione di inclusione) seAn An+1, n N; viceversa, diremo che An una successionecrescente(rispetto alla relazionedi inclusione) se An An+1, n N. Porremo allora le seguenti definizioni di limite:

    limn

    An

    n=1

    An, se {An}n=1 decrescente; (1.4)

    limn

    An

    n=1

    An, se {An}n=1 crescente. (1.5)

    Sulla base di queste definizioni, possibile enunciare il seguente teorema:

    Teorema 1.1 (continuit della probabilit). Sia(,S, P)uno spazio di probabilit.

    i) Se {An}n=1 una successione descrescente di eventi, posto A = limAn

    n=1An, siha:

    limn

    P(An) =P(limn

    An) =P(A) . (1.6)

    ii) Se {An}n=1 una successione crescente di eventi, posto A = limAn

    n=1An, si ha:

    limn

    P(An) =P(limn

    An) =P(A) . (1.7)

    Prova. La dimostrazione non complicata, ma viene omessa per brevit, rimandando il lettore interessato a[7]. Limitiamoci ad osservare che poich S un -campo, alloraA S, essendo ottenuto come intersezioneo unione numerabile di eventi di S; pertanto ha senso calcolareP(A)in entrambi i casi.

    Notiamo che possibile costruire sequenze {An}n=1decrescenti tali che

    n=1An = . In tal caso,lapplicazione del risultato i) del teorema precedente consente di affermare che, per sequenzesiffatte, risulta

    limn

    P(An) = P() =0 . (1.8)

    Si pu mostrare (si veda [2] oppure [4]) che la (1.8) logicamente equivalente allassioma III diKolmogorov (numerabile additivit), e quindi potrebbe sostituirlo in una diversa assiomatizza-zione della teoria della probabilit. Per tale motivo, la relazione (1.8) viene talvolta chiamataassioma di continuit.10

    1.5 Altri approcci alla teoria della probabilit

    Lapproccio assiomatico quello pi recentemente (1933) proposto per la teoria della probabilit.Storicamente, nel corso degli anni, oltre allapproccio assiomatico si sono sviluppati almeno altridue importanti approcci: lapprocciofrequentistae lapproccioclassico.11

    10Daltra parte, si pu anche mostrare che ciascuno dei risultati (i) e (ii) del teorema 1.1 logicamente equivalenteallassioma di numerabile additivit.

    11Nellambito delle scienze fisiche ed economiche abbastanza diffuso anche lapproccio soggettivista, dovuto prin-cipalmente a Bruno de Finetti (si veda B. de Finetti, Theory of Probability, Wiley, New York, 1974), secondo il qualenon possibile assegnare alla probabilit un significato ed un valore oggettivo (come avviene nellapproccio classico

  • 8/12/2019 Probabilita_parte1

    28/140

  • 8/12/2019 Probabilita_parte1

    29/140

    1.5 Altri approcci alla teoria della probabilit 15

    Esempio1.8. Consideriamo il lancio di un dado, per il quale ={1,2,3,4,5,6}. Sia poi A ={pari} ={2,4,6}. Sulla base dellapproccio classico, risulta NA = card(A) = 3, N = card() = 6, per cui P(A) =card(A)card() =

    12 .

    Lapproccio classico anchesso, come quello assiomatico, di tipo deduttivo, cio si fonda su unadefinizione a priori di probabilit, data dalla (1.10). Inoltre facile verificare che le leggi di proba-

    bilit costruite a partire dalla definizione classica soddisfano gli assiomi di Kolmogorov. A primavista, allora, lapproccio classico pare pi soddisfacente dellapproccio assiomatico, in quanto me-diante esso possibile assegnare dei precisi valori alle probabilit, sulla base della (1.10). Tuttavia,i limiti insiti nelluso di tale approccio appaiono chiari se ragioniamo pi approfonditamente sul-lesempio precedente. Infatti, il valore di probabilit dellesempio precedente corretto a pattoche si assuma che il dado non sia truccato. E se viceversa assumessi il dado truccato? Secondolapproccio classico, otterrei esattamente lo stesso valore di probabilit, il che ovviamente non

    il risultato corretto, ed evidenzia la pi seria limitazione di tale approccio. Potrei modificare ladefinizione classica richiedendo che i risultati da considerare nella (1.10) siano equiprobabili, main questo modo userei il concetto di equiprobabilit per definire il concetto di probabilit,cio ricadrei in un circolo vizioso o tautologico. Infine, non chiaro come estendere la (1.10) alcaso di un esperimento coninfinitirisultati.

    1.5.3 Vantaggi (e svantaggi) dellapproccio assiomatico

    Tra i tre approcci considerati (assiomatico, frequentista, classico), lapproccio assiomatico sen-zaltro il pi astratto, basandosi su concetti della teoria degli insiemi e sullintroduzione di unaserie di assiomi cui deve soddisfare la definizione di probabilit. Nonostante il suo carattere pocointuitivo, esso riconosciuto come lunico approccio che consente di definire matematicamente lateoria della probabilit in maniera soddisfacente ed elegante, evitando una serie di incongruenzeed inconsistenze tipiche dellapproccio frequentista e di quello classico. In particolare, linterateoria viene ad assumere un carattere puramente deduttivo, discende cio in maniera logica e ri-gorosa dagli assiomi della probabilit cos come, ad esempio, la geometria euclidea discende dalpostulato sul numero di rette parallele ad una retta data passanti per un punto. Per questo moti-vo, quello assiomatico stato riconosciuto dai matematici come lapproccio pi soddisfacente allateoria della probabilit, e sar quello considerato nella trattazione che segue.12 Tuttavia anche gliapprocci frequentista e classico presentano alcuni vantaggi. In sintesi, possibile affermare che:

    lapproccio frequentista il pi vicino al nostro concetto intuitivo di probabilit, e spesso daiuto per interpretare intuitivamente i risultati ottenuti;

    lapproccio classico pu servire ad assegnare i valori di probabilit in molti casi pratici (es.giochi, scommesse, etc.), in cui i risultati possibili si possono ritenere equiprobabili;

    lapproccio assiomatico il pi soddisfacente dal punto di vista formale (matematico), manon consente di fissare univocamente i valori numerici delle probabilit da assegnare aglieventi (incompletezza).

    12Va osservato, peraltro, che i tre approcci considerati (ed anche quello soggettivista) differiscono soltanto nel modoin cui si definisce la probabilit e nella sua interpretazione, mentre le regole formali del calcolo delle probabilit restanoesattamente le stesse.

  • 8/12/2019 Probabilita_parte1

    30/140

    16 Probabilit elementare

    1.6 Esempi di costruzione di spazi di probabilit

    Per concludere questo primo capitolo, consideriamo alcuni esempi di spazi di probabilit; per

    semplicit di trattazione, considereremo prima il caso pi semplice di spazi di probabilit discreti(ovvero con un numero finito o infinito numerabile di possibili risultati), e successivamente quel-lo pi astratto di spazi di probabilit continui(ovvero con un numero infinito non numerabile dirisultati).

    1.6.1 Spazi di probabilit discreti

    Sia = {1,2, . . . ,n, . . .} un insieme discreto, vale a dire di cardinalit finita o infinitanumerabile. In tal caso, possibile scegliere come -campo la collezione delle parti di :

    S= P() = {tutti i sottoinsiemi di , e inclusi} .

    Osserviamo che, poich finito o numerabile, qualunque evento Aappartenente ad S si puesprimere comeunione al pi numerabiledieventi elementari {i}, cio

    A=

    iIA{i} .

    dove IA N linsieme degli indici che identificano gli elementi appartenenti ad A. Poichgli eventi elementari {i} sono mutuamente esclusivi, allora si ha, per lassioma III (numerabileadditivit):

    P(A) = iIA

    P({i}) .

    Pertanto, per assegnare la probabilit di un qualunque evento A, sufficiente assegnare le pro-babilit degli eventi elementari p i P({i}), i , garantendo che, per lassioma II (norma-lizzazione), si abbia

    P() =

    i=1

    P({i}) =

    i=1

    pi =1 . (1.11)

    Consideriamo il caso di un insieme di cardinalit finita (card() = N): se possibile assumeregli eventi elementariequiprobabili(per motivi di simmetria o applicando il cosiddetto principio diragione insufficiente13) risulta necessariamente, per la (1.11),

    pi = 1N

    = 1

    card()

    ed inoltre si ha, evidentemente,

    P(A) = iIA

    1N

    =card(A)card()

    . (1.12)

    Tale risultato esattamente equivalente alla definizione (1.10) di probabilit secondo lapproccioclassico, che quindi pu riguardarsi come lapplicazione dellapproccio assiomatico a spazi cam-pione finiti con eventi elementari equiprobabili, un caso tipico della teoria dei giochi e dellescommesse. Osserviamo inoltre esplicitamente che determinare la probabilit di un evento Ase-condo la (1.12) equivale acontaregli elementi di Ae quelli di . Evidentemente, se card() =

    13Tale principio, noto anche come rasoio di Occam, dal nome del filosofo inglese William of Ockham (1280-1349)che lo formul, stabilisce che, se si deve scegliere tra diverse ipotesi riguardanti un fenomeno, bisogna sceglierela pisemplice.

  • 8/12/2019 Probabilita_parte1

    31/140

    1.6 Esempi di costruzione di spazi di probabilit 17

    non possibile assumere gli eventi equiprobabili, in quanto avrei P() = dalla (1.11) in talcaso!

    In definitiva, la (1.12) mostra che in molti casi il calcolo delle probabilit di eventi si riducead un problema puramente combinatorio, consistente cio nel contaregli elementi di un insieme,problema semplice in linea di principio, ma la cui applicazione a casi reali pu giungere a notevolilivelli di complessit. I principali risultati del calcolo combinatorio sono riportati in AppendiceB; in particolare, le formule di conteggio pi frequentemente utilizzate sono raccolte in Tab. B.1.

    Esempio1.9. Consideriamo il lancio di una moneta. In tal caso lo spazio campione ={T, C}, e come-campo S possibile scegliere la classe P()di tutti i possibili sottoinsiemi di (in numero pari a 22 =4).Per assegnare la legge di probabilit, basta assegnare la probabilit degli eventi elementari {T} e {C}. Persimmetria, poniamo:

    P({T}) = P({C}) =1/2e le probabilit di tutti gli altri eventi in Ssi ricavano da queste.

    Esempio 1.10. Consideriamo il lancio di un dado. Lo spazio campione = {1,2,3,4,5,6}, e co-me -campo S possibile scegliere la classe P() di tutti i possibili sottoinsiemi di (in numero paria 26 = 64). Per assegnare la legge di probabilit, basta assegnare la probabilit degli eventi elementari{1}, {2}, {3}, {4}, {5}, {6}. Per simmetria, poniamo:

    P({1}) = P({2}) = = P({6}) =1/6e le probabilit di tutti gli altri eventi in Ssi ricavano da queste.

    Esempio1.11. Consideriamo il lancio di due monete uguali, o di una moneta due volte. In tal caso, lospazio campione ={TT, TC, CT, CC}, e come -campo S possibile scegliere la classe P()di tutti i

    possibili sottoinsiemi di

    (in numero pari a 2

    4 =16). Osserviamo che levento

    A= {esce testa al primo lancio}non un evento elementare. Infatti:

    A= {TT, TC} = {TT} {TC} .Per assegnare la legge di probabilit, basta associare un valore di probabilit a ciascuno degli eventi elemen-tari {TT}, {TC}, {CT}, {CC}. Per simmetria, poniamo:

    P({TT}) = P({TC}) = P({CT}) = P({CC}) =1/4e le probabilit di tutti gli altri eventi in S si ricavano da queste. Ad esempio, per levento A definitoprecedentemente, si ha:

    P(A) = P({TT}) +P({TC}) =1/4 + 1/4 =1/2perch {TT} {TC} = (gli eventi elementari sono sempre mutuamente esclusivi) e per lassioma III diKolmogorov.

    In sintesi, se uno spazio discreto (finito o infinito numerabile) possibile scegliere come -campo la classeP() delle parti di, ed assegnare la legge di probabilit definendo le probabilitpidegli eventi elementari {i}; in particolare, se finito con Nelementi, possibile assumerei risultati equiprobabili e quindip i = 1/N; tale scelta non legittima se infinito.

    Esempio 1.12. Sebbene nella maggior parte dei problemi riguardanti spazi discreti si consideri S =P(), non bisogna pensare che questa sia lunica scelta possibile. Ad esempio, con riferimento a ={1,2,3,4,5,6}, se un giocatore intende scommettere solo su A = {pari} o A = {dispari}, allora unascelta pi opportuna sar S ={,A,A,}; si pu verificare che questo un -campo, anzi il pi pic-colo -campo contenente A, e prende il nome di -campo generatoda A. In questo caso si ottiene una

    semplificazione notevole nella descrizione probabilistica dellesperimento.

  • 8/12/2019 Probabilita_parte1

    32/140

    18 Probabilit elementare

    x

    y

    Fig. 1.7. Lancetta ruotante degli esempi 1.13 e1.14.

    1.6.2 Spazi di probabilit continui

    Lo spazio campione si dicecontinuose ha una cardinalit infinita non numerabile, ovvero seha infiniti elementi, che per non si possono mettere in relazione biunivoca con linsieme N deinumeri naturali. Esempi di spazi campione continui sono = R, = (a, b) R, = R2, = R3.

    Esempio1.13(lancetta ruotante). Un semplice esempio di esperimento aleatorio i cui risultati si possanoconsiderare, con un piccolo sforzo di astrazione, appartenenti ad uno spazio campione continuo raffigu-rato in Fig. 1.7. Una lancetta sottile (idealmente filiforme) messa in rotazione su un piano orizzontalee si ferma in una posizione arbitraria. Tale posizione pu essere individuata univocamente introducendoun sistema di riferimento cartesiano con origine nellestremit fissa della lancetta e misurando la posizionedella lancetta con langoloformato da questultima con lasse delle ascisse. Pertanto, lo spazio campioneassociato ad un tale esperimento sar = [0, 2[. Eventi di interesse potranno essere allora sottoinsiemi di, del tipo:

    A1 = [0,/2] = {la lancetta si ferma nel primo quadrante}A2 = [, 2[= {la lancetta si ferma nel terzo o nel quarto quadrante}A3 = {/4} = {la lancetta si ferma con un angolo di 45o rispetto allasse delle ascisse}

    Dovremo poi assegnare una legge di probabilit che consenta di definire la probabilit di tali eventi e ditutti gli eventi di interesse. Per fare ci, tuttavia, dovremo prima individuare la classe di tutti gli eventi diinteresse, ovvero il-campo S.

    Se continuo,14 non possibile scegliere come-campo S la classe P()delle parti di , ciola classe di tutti i possibili sottoinsiemi di . Abbiamo gi osservato che P() senzaltro un-campo, anzi il -campo pi grande che possibile concepire, ma si pu dimostrare che impossibile costruire una valida legge di probabilit (che soddisfi gli assiomi di Kolmogorov) sudi esso. Lapproccio corretto invece scegliere S come ilpi piccolo-campo che contiene tutti gli

    14Osserviamo che per definire rigorosamente leggi di probabilit su spazi continui sono necessari concetti di teoria deglispazi con misurae nel caso di

    R

    k i concetti della misura secondo Lebesguein Rk. Per una trattazione rigorosa di taliconcetti si veda [7].

  • 8/12/2019 Probabilita_parte1

    33/140

    1.6 Esempi di costruzione di spazi di probabilit 19

    insiemiapertidi .15 Gli insiemi che appartengono a tale-campo si dicono gliinsiemi di Borel(oborelliani) di .

    In pratica considereremo solo spazi continui che sono sottoinsiemi dello spazio euclideo Rk;in particolare, se R, denoteremo conxil generico elementodi ; se R2, denoteremocon(x,y)il generico elementodi , e cos via.

    Se R, allora, possibile definire Scome il pi piccolo -campo che contiene tutti gliintervalli aperti ] a, b[di . Si pu facilmente verificare che complementando, unendo ed inter-secando uninfinit numerabiledi intervalli di questo tipo, si ottengono tutti i tipi di intervalli[a, b], [a, b[, ]a, b], ]a, b[, cos come i punti isolati{a}, e tutti i loro complementi, unioni e interse-zioni (tutti questi insiemi costituiscono la classe degli insiemi di Borel in R). Tuttavia possibile(anche se non immediato) costruire sottoinsiemi di che non stanno in S, e quindi S non con-tiene tutti i sottoinsiemi di , ovvero S P(). Senza essere eccessivamente formali, tuttavia,potremo assumere che tutti i sottoinsiemi di R che si utilizzano nella pratica appartengano a S,

    siano cio insiemi di Borel.Una volta determinato il -campo, ci rendiamo conto che non possibile procedere come

    abbiamo fatto nel caso discreto, ovvero assegnando le probabilit degli eventi elementari{x}.In questo caso, infatti, utilizzando lassioma di numerabile additivit, riusciremmo a definire laprobabilitsolodi sottoinsiemi numerabili di ; invece, non potremmo mai definire in questomodo la probabilit di eventi del tipo (a, b).

    Dobbiamo allora procedere in maniera alternativa. Una possibile strada quella di conside-rare una funzione reale f(x) 0 tale che

    f(x) dx = 1 (1.13)

    e porre, per ogni A S,P(A) =P({xA})

    A

    f(x) dx , (1.14)

    dove si assume che lintegrale esista finito per ogni A S. Si pu facilmente osservare che la(1.14) definisce una funzione da Sa Rche rispetta gli assiomi di Kolmogorov, ed quindi unavalida legge di probabilit. Infatti,P(A) 0 perch f(x) 0 (assioma I);P() =

    f(x) dx = 1

    per la (1.13) (assioma II); infine, se Ae B sono insiemi disgiunti, si ha P(A B) = P(A) +P(B)per ladditivit dellintegrale (assioma III nella forma finita).16

    Esempio1.14. Ad esempio, per la lancetta rotante dellesempio 1.13, potremo scegliere una funzione f(x)cos definita:

    f(x) =

    12, sex [0, 2];0, altrimenti.

    Come si vede, tale funzione non negativa e soddisfa alla condizione di normalizzazione (1.13): tale leggedi probabilit si diceuniformenellintervallo[0, 2[. A questo punto, la probabilit che la lancetta si fermi inqualunque intervallo angolare A = [1, 2] [0, 2[= :

    P(A) = 12

    21

    dx = 2 1

    2 .

    15Nello spazio R, un insiemeAsi dice aperto se per un qualunque xA esiste un intervallo aperto Ax =]a, b[talechexA x A . In uno spazio astratto qualsiasi, per definire un insieme aperto occorre definire una topologiasu .

    16A voler essere precisi, bisogna dire che non tutte le leggi di probabilit su R possono essere espresse nella forma

    (1.14), a meno di non ricorrere a funzioni f(x)particolari (distribuzioni).

  • 8/12/2019 Probabilita_parte1

    34/140

    20 Probabilit elementare

    Utilizzando tale formulazione, semplice calcolare la probabilit degli eventi A1, A2e A3definiti nelle-sempio 1.13. Si ha:

    P(A1) =/2

    2 =14

    P(A2) =

    2 =

    12

    P(A3) = 02

    =0

    I primi due risultati sono in accordo con la nostra intuizione, mentre lultimo risultato appare sorprendente:la probabilit che la lancetta si fermi in una precisa posizione angolare zero!

    Come osservato nellesempio precedente, definire la legge di probabilit mediante la (1.14) hadelle conseguenze apparentemente sorprendenti per la probabilit degli eventi elementari. Infat-ti, nellipotesi in cui f(x) limitata, si trova P({x}) =0, e quinditutti gli eventi elementari hannoprobabilit nulla.Prova. La dimostrazione rigorosa sfrutta la propriet di continuit della probabilit (cfr. 1.4.5). Percalcolare la probabilit dellevento A = {x}, possiamo costruire una successione decrescente di eventiAn ={x u x + 1/n} tale che, evidentemente, n=1An = A. Per la continuit della probabilit, si ha allora:

    P({x}) = P(A) =limn

    P(An) =limn

    An

    f(u) du

    =lim

    n

    x+1/nx

    f(u) du

    .

    Ma se f(x) una funzione limitata (|f(x)| M , x R), si ha: x+1/n

    xf(u) du

    x+1/n

    x|f(u)| du M

    n ,

    per cui

    limn

    x+1/nx

    f(u) du

    = 0

    da cui lasserto.

    Il risultato che gli eventi elementari {x} abbiano probabilit nulla, sebbene possa apparire a pri-ma vista sorprendente, non in contrasto con lassioma di normalizzazione ( P() =1), n conquello di numerabile additivit. Infatti, nel caso continuo risulta =

    x{x}, ovvero

    esprimibile come lunione degli eventi elementari disgiunti, ma tale unione non numerabile, equindi non applicabile il terzo assioma (che restituirebbe un paradossale P() =0). In questocaso, allora, pu evidentemente risultareP() =1 anche se gli eventi elementari hanno probabi-

    lit zero. Daltra parte, lapparente paradosso nasce dal fatto che specificare levento elementare{x} significa idealmente assegnare un numero reale x con tuttele cifre significative; nella prati-ca questo impossibile, e ci limitiamo a fornire la rappresentazione di x solo fino alla K-esimacifra significativa, per cui quello che consideriamo un numero reale approssimato in realtlinsieme (continuo) dei numeri reali la cui rappresentazione fino allaK-esima cifra significativacoincide con quella assegnata. Ad esempio, lapprossimazione x = 3.14 dirappresenta in real-t qualunque numero reale compreso tra 3.140000 . . . e 3.149999 . . ., ovvero lintervallo di valori[3.14,3.15[. Pertanto, nella pratica non possibile considerare veri e propri eventi elementari, masolo intervalli di R, la cui probabilit, calcolata sulla base della (1.14), generalmente diversa dazero.

    Per completare il nostro ragionamento, resta da approfondire linterpretazione da dare alla

    funzione f(x). Se f(x) continua, consideriamo leventoA = {x u x + x} ed applichiamo

  • 8/12/2019 Probabilita_parte1

    35/140

    1.6 Esempi di costruzione di spazi di probabilit 21

    il teorema della media del calcolo integrale:

    P(A) = x+x

    xf(u) du = f(x+ x)x

    f(x)x

    con [0, 1], da cui, dividendo per xe passando al limite per x 0, si ha:

    f(x) = limx0

    P(A)

    x = lim

    x0P({x u x + x})

    x ,

    e quindi la funzione f(x)si pu interpretare come una densit di probabilit. Notiamo che taledensit di probabilit in genere diversa da zero, anche se la probabilit dellevento elementare{x} nulla.

    Nelle precedenti considerazioni, un punto non completamente chiaro come scegliere la fun-zione f(x). Anche qui emerge lincompletezza dellapproccio assiomatico, ovvero ogni funzione

    f(x) 0 che soddisfi la (1.13) definisce una valida legge di probabilit. Ma, se vogliamo invocareil principio di ragione insufficiente, qual la scelta pi semplice da fare? A prima vista, sem-

    brerebbe che, in mancanza di altre informazioni, la scelta di una funzione f(x)costanteovvero diuna legge di probabilituniforme(vedi esempio 1.14) sia la pi naturale. Tuttavia, tale scelta non lecita se non limitato, perch una funzione costante e positiva avrebbe integrale infinitosu un insieme non limitato, e quindi non potrebbe soddisfare la condizione di normalizzazione(1.13). La scelta di una funzione costante viceversa perfettamente legittima se limitato,ad esempio se = [x1, x2], come gi osservato nellesempio 1.14 ed ulteriormente discusso nelseguente esempio.

    Esempio1.15. Si consideri lesperimento consistente nellarrivo a caso di una telefonata ad una centraletelefonica nellintervallo[t1, t2]. In tal caso, il risultato dellesperimento un numero reale x [t1, t2], cherappresenta listante di arrivo della telefonata, per cui lo spazio campione = [t1, t2]. Come -campo,tenendo conto dellosservazione fatta nel precedente esempio, scegliamo il pi piccolo -campo che con-tiene tutti gli intervalli aperti ]a, b[ [ t1, t2]. Come legge di probabilit, in mancanza di altre informazioni,scegliamo una funzione f(x)cos definita:

    f(x) =

    , sex [t1, t2];0, altrimenti.

    Tale f(x)si diceuniformein [t1, t2]. Imponiamo ora che la condizione di normalizzazione (1.13) sia soddi-sfatta:

    t2

    t1

    f(x) dx = 1

    = 1

    t2 t1.

    In base a questa scelta della funzione f(x), la probabilit che giunga una telefonata in un intervallo A =[a, b] :

    P(A) = 1

    t2 t1

    ba

    dx = b at2 t1

    .

    Osserviamo che, poichb a lamisuradellintervallo[a, b], et2 t1 la misura dellintervallo = [t1, t2],la probabilitP(A)si pu interpretare come unamisura normalizzata:

    P(A) =misura(A)misura()

    .

    Tale interpretazione della probabilit mostra chiaramente i legami della teoria della probabilit con la teo-ria della misura, e prende anche il nome di interpretazione geometricadella probabilit o semplicemente

    probabilit geometrica.

  • 8/12/2019 Probabilita_parte1

    36/140

    22 Probabilit elementare

    T

    T

    x

    y

    C

    Fig. 1.8. Problema dellincontro: C =

    {x

    y} rappresenta levento Tizio arriva prima diCaio.

    T

    T

    x

    y

    t1

    t2

    T1

    T2D1

    D2

    D

    y= x + t1

    y= x t2

    Fig. 1.9. Problema dellincontro: D =

    {x

    t2 y x+ t1} rappresenta levento Tizioe Caio si incontrano.

    I concetti introdotti per il caso R possono essere estesi, senza grosse difficolt concettuali, alcaso pi generale in cui Rk. Il caso k=2 discusso nel seguente esempio, con riferimentoad un problema concreto.

    Esempio1.16(problema dellincontro). Un esempio di spazio di probabilit continuo su un sottoinsieme diR2 il cosiddettoproblema dellincontro, una cui possibile formulazione la seguente: due amici, Tizio e Caio,si recano, per caso e indipendentemente luno dallaltro, nello stesso bar nellintervallo [0, T], e ciascuno sitrattiene per t1e t2secondi, rispettivamente.

    Tale esperimento pu essere descritto in termini probabilistici come segue. Il risultato dellesperimen-to una coppia ordinata di numeri ( x,y), con x [0, T] e y [0, T], dove x ed yrappresentano rispet-tivamente gli istanti di arrivo del primo e del secondo amico. Lo spazio campione allora il quadrato = [0, T] [0, T] R2. Come -campo, potremo scegliere il pi piccolo -campo che contiene tutti i ret-tangoli aperti A=] a, b[]c, d[. Come legge di probabilit, infine, in analogia allesempio 1.15, utilizzeremo lamisura normalizzata, corrispondente a scegliere una densit di probabilit uniforme nel quadrato; se cio A un evento, ovvero un sottoinsieme del quadrato appartenente ad S, e se misura(A)rappresenta la suamisura (unarea, in questo caso), allora porremo:

    P(A) =misura(A)misura()

    ,

    dove misura() =misura(quadrato) = T2. Ad esempio, la probabilit che(x,y) A = [a, b] [c, d] datada:

    P(A) = (b a)(d c)T2 .

    Una volta individuato un corretto modello probabilistico, possiamo affrontare il calcolo della probabilitdi un qualsiasi evento, e data la definizione della probabilit come misura normalizzata, il calcolo si pueffettuare utilizzando semplici considerazioni geometriche.

    Ad esempio, siaCil seguente evento: Tizio arriva prima di Caio. In termini numerici, risulta eviden-tementeC = {x y}, per cui leventoC il triangolo rappresentato in Fig. 1.8. Si ha allora:

    P(C) = misura(C)misura()

    = T2/2

    T2 =

    12

    .

    Calcoliamo adesso la probabilit delleventoD definito come segue: Tizio e Caio si incontrano. Evi-dentemente, ci si verifica se:

    arriva prima Tizio, e risultay

    x+ t1; corrisponde al dominio D1 ={