Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)...

56
Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1

Transcript of Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)...

Page 1: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

1

Introduzione al calcolo delle probabilitagrave

a cura di Maurizio Brizzi (Universitagrave di Bologna)

BIOSTAT 2013Asti 1deg luglio 2013

2

1) Eventi elementari e composti

bull Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato egrave noto solo dopo lrsquoeffettuazione dellrsquoesperimento stesso La prova puograve essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente)

bull Il risultato di un esperimento aleatorio si dice evento Prima di eseguire lrsquo esperimento un evento E puograve essere certo possibile o impossibile Una volta eseguito lrsquoesperimento lrsquoevento E puograve risultare vero o falso

bull I singoli risultati di un esperimento sono detti eventi elementari aggregando tra loro gli eventi elementari si possono costruire eventi composti

bull Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi

3

Esempi di esperimento aleatorio

bull Si conta il numero di battiti cardiaci di un paziente durante un minuto Eventi elementari 65 battiti 80 battiti 87 battiti 125 battiti ecc Eventi composti

- bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco ldquonormalerdquo (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc deg Si conta il numero di petali di una margheritadeg Si misura la statura di un adolescentedeg Si estrae una carta da un mazzo francese di 52

4

2) Operazioni logiche sugli eventi

Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio

lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa

Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica

se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero

Intersezione di due eventi

Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri

Differenza di due eventi

Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso

5

Esempio di operazioni logiche

bull Esperimento si misura la temperatura corporea di un paziente anziano

bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo

bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo

bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra

38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra

37degC e 38degCrdquo Come avviene per la differenza aritmetica la

differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A

6

3) Relazioni tra eventi

bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)

bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)

bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due

bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 2: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

2

1) Eventi elementari e composti

bull Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato egrave noto solo dopo lrsquoeffettuazione dellrsquoesperimento stesso La prova puograve essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente)

bull Il risultato di un esperimento aleatorio si dice evento Prima di eseguire lrsquo esperimento un evento E puograve essere certo possibile o impossibile Una volta eseguito lrsquoesperimento lrsquoevento E puograve risultare vero o falso

bull I singoli risultati di un esperimento sono detti eventi elementari aggregando tra loro gli eventi elementari si possono costruire eventi composti

bull Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi

3

Esempi di esperimento aleatorio

bull Si conta il numero di battiti cardiaci di un paziente durante un minuto Eventi elementari 65 battiti 80 battiti 87 battiti 125 battiti ecc Eventi composti

- bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco ldquonormalerdquo (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc deg Si conta il numero di petali di una margheritadeg Si misura la statura di un adolescentedeg Si estrae una carta da un mazzo francese di 52

4

2) Operazioni logiche sugli eventi

Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio

lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa

Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica

se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero

Intersezione di due eventi

Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri

Differenza di due eventi

Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso

5

Esempio di operazioni logiche

bull Esperimento si misura la temperatura corporea di un paziente anziano

bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo

bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo

bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra

38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra

37degC e 38degCrdquo Come avviene per la differenza aritmetica la

differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A

6

3) Relazioni tra eventi

bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)

bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)

bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due

bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 3: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

3

Esempi di esperimento aleatorio

bull Si conta il numero di battiti cardiaci di un paziente durante un minuto Eventi elementari 65 battiti 80 battiti 87 battiti 125 battiti ecc Eventi composti

- bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco ldquonormalerdquo (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc deg Si conta il numero di petali di una margheritadeg Si misura la statura di un adolescentedeg Si estrae una carta da un mazzo francese di 52

4

2) Operazioni logiche sugli eventi

Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio

lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa

Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica

se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero

Intersezione di due eventi

Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri

Differenza di due eventi

Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso

5

Esempio di operazioni logiche

bull Esperimento si misura la temperatura corporea di un paziente anziano

bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo

bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo

bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra

38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra

37degC e 38degCrdquo Come avviene per la differenza aritmetica la

differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A

6

3) Relazioni tra eventi

bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)

bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)

bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due

bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 4: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

4

2) Operazioni logiche sugli eventi

Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio

lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa

Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica

se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero

Intersezione di due eventi

Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri

Differenza di due eventi

Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso

5

Esempio di operazioni logiche

bull Esperimento si misura la temperatura corporea di un paziente anziano

bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo

bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo

bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra

38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra

37degC e 38degCrdquo Come avviene per la differenza aritmetica la

differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A

6

3) Relazioni tra eventi

bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)

bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)

bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due

bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 5: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

5

Esempio di operazioni logiche

bull Esperimento si misura la temperatura corporea di un paziente anziano

bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo

bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo

bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra

38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra

37degC e 38degCrdquo Come avviene per la differenza aritmetica la

differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A

6

3) Relazioni tra eventi

bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)

bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)

bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due

bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 6: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

6

3) Relazioni tra eventi

bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)

bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)

bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due

bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 7: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

7

4) Proprietagrave delle operazioni logiche

bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 8: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

8

5) Spazio degli eventi

bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W

bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di

eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di

eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si

esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito

si puograve fare uso del calcolo combinatorio

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 9: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

9

6) Calcolo combinatorio permutazioni e disposizioni

PermutazioniIn quanti modi si possono permutare (ordinare) n elementi

distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo

ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione

Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n

Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n

elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)

Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo

le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 10: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

10

Esempi di permutazioni e disposizioni

bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120

bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640

bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)

38=38 = 6561

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 11: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

11

7) Calcolo combinatorio combinazioni

Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un

insieme di n elementi in quanti modi diversi posso farlo

Il numero di scelte corrisponde al cosiddetto coefficiente binomiale

Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento

nel gruppo le scelte possibili diventano

)kn(kn

k

n

)n(k)kn(

k

kn

111

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 12: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

12

(segue Combinazioni)

Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa

Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono

nnnn

k21

6306303711131415456

15

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 13: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

13

Esempi di combinazioni

bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha

bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo

bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine

12624

987645

95

959

C

21024

1098764

104

1047

C R

144144024120

1615141312111098457

16

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 14: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

14

8) Definizioni di probabilitagrave

bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 15: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

15

9) Assiomi del calcolo delle probabilitagrave

bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)

bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0

bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1

bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)

bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 16: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

16

10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov

bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p

bull Un evento impossibile ha probabilitagrave nulla P(f)=0

bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB

bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 17: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

17

11) Probabilitagrave condizionata

bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi

bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato

bull Vale pertanto la seguente ldquoregola del prodottordquo

)A(P)BA(P

)A|B(P

)A|B(P)A(P)BA(P

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 18: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

18

12) Eventi indipendenti

bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata

bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)

bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene

bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due

)B(P)A(P)A|B(P)A(P)BA(P

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 19: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

19

Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo

bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse

bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via

bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento

bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 20: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

20

13) Passaggio dallrsquoevento contrario

bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1

bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario

bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402

A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598

bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 21: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

21

(segue)

bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo

bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete

bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 22: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

22

14) Il problema del compleanno

bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno

bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente

bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856

bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144

bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 23: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

23

Il problema del compleanno (segue)

bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone

bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57

bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 24: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

24

15) Il teorema di Bayes premesse

bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate

bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo

bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 25: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

25

Il teorema di Bayes formulazione

bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene

bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale

bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i

bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze

)EH(P)EH(P

)EH(P

)E(P

)EH(P)E|H(P

k

jj

j

1

k

iii

jj

j

)H|E(P)H(P

)H|E(P)H(P)E|H(P

1

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 26: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

26

Teorema di Bayes applicazione

bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto

bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico

311

2500015000110001250001

315

250001500011000150001

3125

250001500011000110001

)C(P

)B(P

)A(P

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 27: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

27

(segue applicazione)

)E|C(P

)E|B(P

)E|A(P

21915970

9501610

33015970

303220

5509501610303220108060

108060

In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 28: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

28

16) Variabili aleatorie discrete

bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria

bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta

bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 29: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

29

17) Funzione di ripartizione

bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)

bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave

- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)

- egrave continua a destra per cui vale il limite lim x FX(x)= FX()

- valgono i seguenti due limiti

lim x -infin FX(x)= 0 lim x +infin FX(x)= 1

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 30: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

30

18) Mediana e centili

bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X

bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della

distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della

distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione

(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 31: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

31

Esempi di determinazione di mediana e centili

bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4

bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente

a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2

bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38

bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 32: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

32

19) Valore atteso di una va discreta

bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi

bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare

Sx

)xX(Px)X(E

b)X(aE)baX(E

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 33: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

33

20) Momenti di una va discreta

bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso

bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso

Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35

E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735

Sx

kk

k )xX(Px)X(E)X(m

Sx

)xX(Px)X(E)X(m 222

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 34: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

34

21) Varianza di una va discreta

bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita

V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2

bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X

bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 35: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

35

Esempio di calcolo

bull Sia X una va discreta con la seguente funzione di probabilitagrave

P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a

E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43

bull Il momento secondo egrave invece il seguente

E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103

bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =

149

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 36: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

36

22) Variabile aleatoria di Bernoulli

bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p

bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1

bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 37: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

37

23) Variabile aleatoria binomiale

bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1

bull Funzione di probabilitagrave

bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave

diviene

bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4

xnx )p(px

n)xX(P

1

n

x

n)xX(P

2

1

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 38: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

38

24) Variabile aleatoria di Poisson

bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa

bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente

bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente

bull Il valore atteso e la varianza di X sono entrambi uguali a l

xx

e)xX(P

x

210

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 39: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

39

Esempio di applicazione di Poisson

bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente

bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)

hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 40: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

40

25) Variabili aleatorie continue

bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo

bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1

bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave

b

a

dy)y(f)bYa(P

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 41: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

41

26) Descrizione di una va continua

bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale

bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100

bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale

bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale

0

00

y

Y dy)y(f)yY(P)y(F

0y

dy)y(fy)Y(E

0

22y

dy)y(fy)Y(E

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 42: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

42

27) Variabile aleatoria uniforme (o rettangolare)

bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave

bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212

altrove 0

1bYa

ab)y(fY

by

byaabay

ay

)y(FY

1

0

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 43: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

43

28) Variabile aleatoria esponenziale

bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y

bull La funzione di densitagrave di Y egrave la seguente

bull A sua volta la funzione di ripartizione di Y egrave la seguente

bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2

0

0 0

yy

y

e)y(fY

0

0

1

0

yy

y

e)y(fY

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 44: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

44

29) Variabile aleatoria gaussiana

bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s

bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente

bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave

ancora una va gaussiana di media a + b m e di scarto |b| s

- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana

2

21

21

y

e)y(fY

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 45: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

45

30) Variabile aleatoria normale standardizzata

bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale

bull La funzione di densitagrave di una normale standardizzata egrave la seguente

bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ

221

21 z

e)z(fZ

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 46: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

46

31) Variabile aleatoria log-normale

bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale

bull La mediana di questa distribuzione egrave Me(W)=e m

il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)

bull Per esempio se = 2 = 1m s si ha Me(W)= e2

E(W)=e52 V(W)= e5 (e-1)

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 47: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

47

32) Variabile aleatoria chi quadrato

bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile

W = Z12 + Z2

2 +hellip + Zk2

che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile

per cui si deve fare ricorso alle tavole della distribuzione chi quadrato

bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 48: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

48

33) Variabile aleatoria t di Student

bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria

si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite

mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha

kWZ

Tk

k

2 0

kk

)T(V)T(E kk

Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 49: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

49

34) Variabile aleatoria F di Snedecor-Fisher

bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug

bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)

bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra

bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto

hW

gUF

h

g

hg

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 50: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

50

Funzione di densitagrave della variabile log-normale

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 51: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

51

Funzione di densitagrave delle variabili c2 t F

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 52: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

52

35) Paradosso di San Pietroburgo

bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco

bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 53: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

53

36) Paradosso di Monty Hall

bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo

bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente

bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 54: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

54

Paradosso di Monty Hall (segue)

bull Il presentatore propone al concorrente di cambiare porta

bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente

bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50

bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 55: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

55

Paradosso di Monty Hall (segue)

bull hellip supponiamo che non ci siano solo tre porte ma ben 100

bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste
Page 56: Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

56

37) Paradosso delle tre buste

bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari

bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari

bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23

  • Introduzione al calcolo delle probabilitagrave a cura di Maurizio
  • 1) Eventi elementari e composti
  • Esempi di esperimento aleatorio
  • 2) Operazioni logiche sugli eventi
  • Esempio di operazioni logiche
  • 3) Relazioni tra eventi
  • 4) Proprietagrave delle operazioni logiche
  • 5) Spazio degli eventi
  • 6) Calcolo combinatorio permutazioni e disposizioni
  • Esempi di permutazioni e disposizioni
  • 7) Calcolo combinatorio combinazioni
  • (segue Combinazioni)
  • Esempi di combinazioni
  • 8) Definizioni di probabilitagrave
  • 9) Assiomi del calcolo delle probabilitagrave
  • 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
  • 11) Probabilitagrave condizionata
  • 12) Eventi indipendenti
  • Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
  • 13) Passaggio dallrsquoevento contrario
  • (segue)
  • 14) Il problema del compleanno
  • Il problema del compleanno (segue)
  • 15) Il teorema di Bayes premesse
  • Il teorema di Bayes formulazione
  • Teorema di Bayes applicazione
  • (segue applicazione)
  • 16) Variabili aleatorie discrete
  • 17) Funzione di ripartizione
  • 18) Mediana e centili
  • Esempi di determinazione di mediana e centili
  • 19) Valore atteso di una va discreta
  • 20) Momenti di una va discreta
  • 21) Varianza di una va discreta
  • Esempio di calcolo
  • 22) Variabile aleatoria di Bernoulli
  • 23) Variabile aleatoria binomiale
  • 24) Variabile aleatoria di Poisson
  • Esempio di applicazione di Poisson
  • 25) Variabili aleatorie continue
  • 26) Descrizione di una va continua
  • 27) Variabile aleatoria uniforme (o rettangolare)
  • 28) Variabile aleatoria esponenziale
  • 29) Variabile aleatoria gaussiana
  • 30) Variabile aleatoria normale standardizzata
  • 31) Variabile aleatoria log-normale
  • 32) Variabile aleatoria chi quadrato
  • 33) Variabile aleatoria t di Student
  • 34) Variabile aleatoria F di Snedecor-Fisher
  • Funzione di densitagrave della variabile log-normale
  • Funzione di densitagrave delle variabili c2 t F
  • 35) Paradosso di San Pietroburgo
  • 36) Paradosso di Monty Hall
  • Paradosso di Monty Hall (segue)
  • Paradosso di Monty Hall (segue)
  • 37) Paradosso delle tre buste