Certificazione delle competenze. Digital Certification Program. Paolo Brizzi
Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)...
-
Upload
teofila-salvatore -
Category
Documents
-
view
220 -
download
5
Transcript of Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)...
1
Introduzione al calcolo delle probabilitagrave
a cura di Maurizio Brizzi (Universitagrave di Bologna)
BIOSTAT 2013Asti 1deg luglio 2013
2
1) Eventi elementari e composti
bull Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato egrave noto solo dopo lrsquoeffettuazione dellrsquoesperimento stesso La prova puograve essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente)
bull Il risultato di un esperimento aleatorio si dice evento Prima di eseguire lrsquo esperimento un evento E puograve essere certo possibile o impossibile Una volta eseguito lrsquoesperimento lrsquoevento E puograve risultare vero o falso
bull I singoli risultati di un esperimento sono detti eventi elementari aggregando tra loro gli eventi elementari si possono costruire eventi composti
bull Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi
3
Esempi di esperimento aleatorio
bull Si conta il numero di battiti cardiaci di un paziente durante un minuto Eventi elementari 65 battiti 80 battiti 87 battiti 125 battiti ecc Eventi composti
- bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco ldquonormalerdquo (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc deg Si conta il numero di petali di una margheritadeg Si misura la statura di un adolescentedeg Si estrae una carta da un mazzo francese di 52
4
2) Operazioni logiche sugli eventi
Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio
lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa
Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica
se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero
Intersezione di due eventi
Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri
Differenza di due eventi
Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso
5
Esempio di operazioni logiche
bull Esperimento si misura la temperatura corporea di un paziente anziano
bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo
bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo
bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra
38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra
37degC e 38degCrdquo Come avviene per la differenza aritmetica la
differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A
6
3) Relazioni tra eventi
bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)
bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)
bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due
bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
2
1) Eventi elementari e composti
bull Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato egrave noto solo dopo lrsquoeffettuazione dellrsquoesperimento stesso La prova puograve essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente)
bull Il risultato di un esperimento aleatorio si dice evento Prima di eseguire lrsquo esperimento un evento E puograve essere certo possibile o impossibile Una volta eseguito lrsquoesperimento lrsquoevento E puograve risultare vero o falso
bull I singoli risultati di un esperimento sono detti eventi elementari aggregando tra loro gli eventi elementari si possono costruire eventi composti
bull Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi
3
Esempi di esperimento aleatorio
bull Si conta il numero di battiti cardiaci di un paziente durante un minuto Eventi elementari 65 battiti 80 battiti 87 battiti 125 battiti ecc Eventi composti
- bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco ldquonormalerdquo (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc deg Si conta il numero di petali di una margheritadeg Si misura la statura di un adolescentedeg Si estrae una carta da un mazzo francese di 52
4
2) Operazioni logiche sugli eventi
Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio
lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa
Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica
se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero
Intersezione di due eventi
Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri
Differenza di due eventi
Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso
5
Esempio di operazioni logiche
bull Esperimento si misura la temperatura corporea di un paziente anziano
bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo
bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo
bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra
38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra
37degC e 38degCrdquo Come avviene per la differenza aritmetica la
differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A
6
3) Relazioni tra eventi
bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)
bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)
bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due
bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
3
Esempi di esperimento aleatorio
bull Si conta il numero di battiti cardiaci di un paziente durante un minuto Eventi elementari 65 battiti 80 battiti 87 battiti 125 battiti ecc Eventi composti
- bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco ldquonormalerdquo (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc deg Si conta il numero di petali di una margheritadeg Si misura la statura di un adolescentedeg Si estrae una carta da un mazzo francese di 52
4
2) Operazioni logiche sugli eventi
Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio
lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa
Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica
se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero
Intersezione di due eventi
Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri
Differenza di due eventi
Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso
5
Esempio di operazioni logiche
bull Esperimento si misura la temperatura corporea di un paziente anziano
bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo
bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo
bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra
38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra
37degC e 38degCrdquo Come avviene per la differenza aritmetica la
differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A
6
3) Relazioni tra eventi
bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)
bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)
bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due
bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
4
2) Operazioni logiche sugli eventi
Evento contrario Se E egrave un evento associato a un determinato esperimento aleatorio
lrsquoevento contrario ndash E egrave lrsquoevento che risulta vero quando E risulta falso e viceversa
Unione di due eventi Se A e B sono due eventi lrsquounione A U B egrave lrsquoevento che si verifica
se al termine dellrsquoesperimento almeno uno degli eventi A e B risulta vero
Intersezione di due eventi
Se A e B sono due eventi lrsquointersezione A cap B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento entrambi gli eventi A e B risultano veri
Differenza di due eventi
Se A e B sono due eventi la differenza A - B egrave lrsquoevento che si verifica se al termine dellrsquoesperimento lrsquoevento ldquominuendordquo A risulta vero e lrsquoevento ldquosottraendordquo B risulta falso
5
Esempio di operazioni logiche
bull Esperimento si misura la temperatura corporea di un paziente anziano
bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo
bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo
bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra
38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra
37degC e 38degCrdquo Come avviene per la differenza aritmetica la
differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A
6
3) Relazioni tra eventi
bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)
bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)
bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due
bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
5
Esempio di operazioni logiche
bull Esperimento si misura la temperatura corporea di un paziente anziano
bull Evento A ldquola temperatura egrave superiore a 38degCrdquo Evento B ldquola temperatura egrave compresa tra 37degC e 39degCrdquo
bull Evento contrario ndashA ldquola temperatura non supera i 38degCrdquo
bull Unione A U B ldquola temperatura supera i 37degCrdquobull Intersezione A cap B ldquola temperatura egrave compresa tra
38degC e 39degCrdquobull Differenza A - B ldquola temperatura supera i 39degCrdquobull Differenza B - A ldquola temperatura egrave compresa tra
37degC e 38degCrdquo Come avviene per la differenza aritmetica la
differenza tra due eventi NON egrave simmetrica per cui lrsquoevento A-B egrave diverso da B-A
6
3) Relazioni tra eventi
bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)
bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)
bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due
bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
6
3) Relazioni tra eventi
bull Un evento che risulta sempre vero indipendentemente dal risultato dellrsquoesperimento si dice evento certo (simbolo W)
bull Un evento che risulta sempre falso indipendentemente dal risultato dellrsquoesperimento si dice evento impossibile (simbolo f)
bull Due eventi A B la cui intersezione A cap B egrave un evento impossibile per cui essi non possono mai verificarsi contemporaneamente si dicono eventi incompatibili Dati tre o piugrave eventi tali per cui ogni loro coppia egrave formata da eventi incompatibili si dicono incompatibili a due a due
bull Due eventi A B la cui unione A U B egrave un evento certo per cui almeno uno di essi deve per forza verificarsi si dicono eventi esaustivi Se gli eventi sono piugrave di due si dicono esaustivi se la loro unione egrave un evento certo
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
7
4) Proprietagrave delle operazioni logiche
bull Proprietagrave associativa (A U B) U C = A U (B U C) (A cap B) cap C = A cap (B cap C)bull Proprietagrave commutativa A U B = B U A A cap B = B cap Abull Proprietagrave distributiva A U (B cap C) = (A U B) cap (A U C) A cap (B U C) = (A cap B) U ( A cap C)bull Relazione con un evento certo A U W = W A cap W = Abull Relazione con un evento impossibile A U f = A A cap f = f
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
8
5) Spazio degli eventi
bull Lo spazio degli eventi egrave lrsquoinsieme di tutti gli eventi elementari associati a un esperimento aleatorio Esso si indica con la lettera W
bull Lo spazio degli eventi puograve essere - finito ossia formato da un numero limitato di eventi - infinito numerabile formato da un numero illimitato di
eventi che possono essere ordinati in modo naturale - infinito continuo formato da unrsquoinfinitagrave continua di
eventibull Lo spazio degli eventi egrave infinito continuo ogni volta che si
esegue una misurazionebull Per determinare il numero di eventi di uno spazio finito
si puograve fare uso del calcolo combinatorio
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
9
6) Calcolo combinatorio permutazioni e disposizioni
PermutazioniIn quanti modi si possono permutare (ordinare) n elementi
distinguibiliAl primo posto della sequenza ci sono n possibili scelte al secondo
ce ne sono n-1 al terzo n-2 e cosigrave via fino allrsquoultimo posto dove si colloca lrsquoultimo elemento rimasto a disposizione
Pertanto le permutazioni di n elementi sono n(n-1)(n-2)hellip3∙2∙1 = n
Disposizioni sempliciSe voglio costruire gruppi ordinati prendendo solo k degli n
elementi a disposizione le scelte possibili sono n(n-1)(n-2)hellip(n-k+1)=n(n-k)
Disposizioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento nel gruppo
le scelte possibili diventano n ∙ n ∙ n hellip ∙ n = nk
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
10
Esempi di permutazioni e disposizioni
bull Un paziente decide di fare cinque esami clinici di controllo ECG EEG Ematocrito Ecografia addominale Esame dermatologico Puograve fare gli esami nellrsquoordine che preferisce non essendoci nessuna urgenza In quanti ordini diversi puograve eseguire gli esami P5= 5 = 120
bull Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici Avendo in tutto 11 testi da studiare quante scelte possibili ha D116=11∙10∙9∙8∙7∙6 = 332640
bull Un medico ha la possibilitagrave di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia In quanti modi puograve scegliere il farmaco da dare a ciascuno D(R)
38=38 = 6561
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
11
7) Calcolo combinatorio combinazioni
Combinazioni sempliciSe voglio estrarre un sottoinsieme di k elementi da un
insieme di n elementi in quanti modi diversi posso farlo
Il numero di scelte corrisponde al cosiddetto coefficiente binomiale
Combinazioni con ripetizioneSe ammetto la possibilitagrave di ripetere lo stesso elemento
nel gruppo le scelte possibili diventano
)kn(kn
k
n
)n(k)kn(
k
kn
111
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
12
(segue Combinazioni)
Combinazioni multipleSe voglio suddividere n elementi in k gruppi di cui il primo gruppo contiene n1 elementi il secondo ne contiene n2 e cosigrave via il numero di scelte possibili diventa
Esempio Se si vogliono suddividere 15 impiegati in tre uffici rispettivamente di 6 5 4 impiegati ciascuno le scelte possibili sono
nnnn
k21
6306303711131415456
15
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
13
Esempi di combinazioni
bull Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere Se decide di portare con seacute 5 libri quante scelte possibili ha
bull Un signore galante vuole regalare un mazzo di 4 fiori a una donna e puograve scegliere tra 7 qualitagrave differenti Quante scelte possibili vi sono di formare il mazzo
bull Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli rispettivamente di 7 5 e 4 anni Se decidesse di regalare a ciascuno una bustina per ogni anno di etagrave in quanti modo diversi potrebbe distribuire le bustine
12624
987645
95
959
C
21024
1098764
104
1047
C R
144144024120
1615141312111098457
16
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
14
8) Definizioni di probabilitagrave
bull Definizione classica (Laplace) P(E)=Ndeg di casi favorevoli Ndeg di casi possibili (egrave applicabile solo quando si eseguono prove ripetute nelle medesime condizioni e quando i cosiddetti ldquocasi possibilirdquo sono tutti ldquoalla parirdquo)bull Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellrsquoevento E al tendere allrsquoinfinito del numero delle prove (egrave applicabile a tutti i fenomeni in cui si puograve raccogliere una cospicua base di dati)bull Definizione soggettivista (Ramsey de Finetti) P(E)=grado di fiducia che un ldquovalutatorerdquo in possesso di determinate informazioni possiede nel verificarsi di un evento E Il grado di fiducia puograve essere determinato attraverso il meccanismo della scommessa
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
15
9) Assiomi del calcolo delle probabilitagrave
bull I tre assiomi base della probabilitagrave furono enunciati dal russo Andrej N Kolmogorov (1903-1987)
bull Primo Assioma la probabilitagrave non ha segno per cui non esistono eventi con probabilitagrave inferiore allo zero P(E)ge0
bull Secondo Assioma la probabilitagrave dellrsquointero spazio degli eventi egrave pari a 1 P(Ω)=1
bull Terzo Assioma se due eventi sono incompatibili la probabilitagrave della loro unione egrave pari alla somma delle singole probabilitagrave degli eventi se AcapB= f allora P(AU B) = P(A)+P(B)
bull Il terzo assioma puograve venire esteso anche a unrsquoinfinitagrave numerabile di eventi purchegrave siano incompatibili a due a due
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
16
10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
bull Se lrsquoevento E ha probabilitagrave p (0ltplt1) lrsquoevento contrario ndashE ha probabilitagrave 1-p
bull Un evento impossibile ha probabilitagrave nulla P(f)=0
bull La probabilitagrave dellrsquoevento differenza A-B egrave pari alla probabilitagrave di A meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquounione A U B di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquointersezione AcapB
bull La probabilitagrave dellrsquointersezione AcapB di due eventi qualsiasi egrave pari alla somma delle probabilitagrave di A e di B meno la probabilitagrave dellrsquounione A U B
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
17
11) Probabilitagrave condizionata
bull Gli eventi in molti casi si influenzano reciprocamente Per esempio in ambito biomedico un tossicodipendente puograve contrarre piugrave facilmente alcune patologie a causa dello stress fisico conseguente allrsquoassunzione di sostanze tossiche Ersquo quindi spesso opportuno studiare oltre ai singoli eventi a alle loro probabilitagrave le relazioni tra eventi e in particolare come lrsquoavverarsi di un certo evento possa eventualmente modificare le probabilitagrave di verificarsi di altri eventi
bull La probabilitagrave condizionata P(B|A) egrave appunto la probabilitagrave che ha lrsquoevento B di verificarsi supponendo che lrsquoevento A si sia giagrave verificato
bull Vale pertanto la seguente ldquoregola del prodottordquo
)A(P)BA(P
)A|B(P
)A|B(P)A(P)BA(P
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
18
12) Eventi indipendenti
bull Il verificarsi dellrsquoevento A puograve aumentare la probabilitagrave dellrsquoevento B (allora vi egrave correlazione positiva tra i due eventi) Puograve diminuirla (correlazione negativa) o lasciarla invariata
bull Se P(B|A) = P(B) allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (piugrave sinteticamente indipendenti)
bull Se gli eventi A e B sono indipendenti la probabilitagrave della loro intersezione diviene
bull Tale risultato puograve essere esteso a un numero qualsiasi di eventi Si deve perograve distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due
)B(P)A(P)A|B(P)A(P)BA(P
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
19
Esempi di eventi ldquoincompatibili ldquoe ldquoindipendentirdquo
bull I due aggettivi ldquoincompatibilirdquo e ldquoindipendentirdquo identificano due situazioni completamente diverse che non vanno confuse
bull Due eventi incompatibili si escludono categoricamente lrsquoun lrsquoaltro testa o croce numero pari o dispari soglia critica diagnostica superata o non superata linfoma Hodgkin o non-Hodgkin e cosigrave via
bull Due eventi indipendenti possono senzrsquoaltro verificarsi entrambi il punto egrave che la probabilitagrave rimane la stessa appunto indipendentemente dal verificarsi dellrsquoaltro evento
bull Lanciando un dado e una moneta gli eventi ldquo4rdquo e ldquocrocerdquo sono evidentemente indipendenti altrettanto possono essere gli eventi ldquopaziente diabeticordquo e ldquopaziente di gruppo sanguigno Ardquo oppure ldquovoto nellrsquoesame di statisticardquo e ldquosegno zodiacale del candidatordquo
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
20
13) Passaggio dallrsquoevento contrario
bull Come giagrave evidenziato in precedenza la probabilitagrave dellrsquoevento contrario -E egrave uguale al complemento a 1 della P(E) A volte per calcolare la probabilitagrave di un evento egrave molto piugrave semplice calcolare prima la probabilitagrave dellrsquoevento contrario e sottrarla dal valore 1
bull Per esempio se lancio cinque volte il dado e voglio calcolare la probabilitagrave dellrsquoevento ldquoalmeno un dado presenta il 6rdquo egrave molto piugrave veloce calcolare la probabilitagrave dellrsquoevento contrario
bull P(-E) = P(nessun dado presenta il 6) = (56)5 = 31257776 = 402
A questo punto si puograve calcolare P(E) = 1 ndash 0402 = 0598 = 598
bull In generale ogni volta che si vuol calcolare la probabilitagrave di eventi del tipo ldquoalmeno un elemento egrave di un certo tipordquo o magari ldquoalmeno due elementihelliprdquo ecc si puograve fare il passaggio dallrsquoevento contrario
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
21
(segue)
bull Se lrsquoevento egrave del tipo laquoalmeno 2 eventi si verificanoraquo dal valore 1 vanno sottratti la probabilitagrave che non si verifichi nessun evento e la probabilitagrave che se ne verifichi uno solo
bull Esempio qual egrave la probabilitagrave di ottenere almeno due teste lanciando sei monete
bull P(0 teste) = (12)6 = 164bull P(1 testa) = 6 (12)6 = 664bull P(almeno due teste) = 1 ndash 164 ndash 664 = 5764
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
22
14) Il problema del compleanno
bull Un esempio di applicazione del metodo dellrsquoevento contrario egrave il classico ldquoproblema del compleannordquo che consiste nel calcolare la probabilitagrave che in un insieme di k persone almeno due festeggino il compleanno nello stesso giorno dellrsquoanno
bull Supponiamo che sia k = 35 La probabilitagrave che tutti i 35 compleanni siano diversi supposta lrsquoindipendenza di tutti i compleanni egrave la seguente
bull P(tutti diversi) = 364365∙ 363365∙ 362365∙∙ 331365 = 01856
bull Pertanto la probabilitagrave di avere almeno due compleanni coincidenti egrave la seguente P(E) = 1 ndash P(-E) = 1 ndash 01856 = 08144 = 8144
bull Tale probabilitagrave egrave decisamente piugrave alta di quello che lrsquointuito porta a pensare e aumentando il numero di persone la probabilitagrave si avvicina rapidamente a uno Con k=50 si ha infatti P(E) = 9704
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
23
Il problema del compleanno (segue)
bull Per avere una probabilitagrave di doppio compleanno superiore al 50 egrave sufficiente considerare un gruppo di sole 23 persone
bull Per avere una probabilitagrave del 90 occorre radunare 41 persone Per avere una probabilitagrave del 95 ce ne vogliono 47 mentre per superare il 99 ne sono necessarie 57
bull Se la scelta fosse addirittura tra 1000 opzioni anzicheacute 365 (esempio ultime tre cifre della carta di identitagrave) i risultati sarebbero ancora piugrave sorprendenti bastano infatti 38 individui per superare il 50 di probabilitagrave ce ne vogliono 68 per superare il 90 e appena 77 per superare il 95
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
24
15) Il teorema di Bayes premesse
bull Thomas Bayes era un pastore presbiteriano scozzese (1702-1761) che formulograve per primo un teorema di cui egli stesso non fece in tempo a cogliere lrsquoimportanza e la rilevanza che avrebbe avuto sulla probabilitagrave moderna al punto di essere il punto di riferimento di una importante scuola di pensiero ldquobayesianardquo Il teorema consiste nellrsquoaggiornare le probabilitagrave (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate
bull Vediamo il teorema nella sua formulazione basilare Siano H1 H2 hellip Hk ipotesi esaustive e incompatibili a due a due per cui una sola puograve essere vera e tutte le altre sono false A ciascuna di queste ipotesi va assegnata una probabilitagrave iniziale che funge da ldquosistema di pesirdquo
bull Siano P(H1) P(H2) hellip P(Hk) le probabilitagrave iniziali delle ipotesi a confronto e sia E lrsquoevento ndash o insieme di eventi ndash che egrave stato osservato Quello che interessa sono le probabilitagrave ldquoaggiornaterdquo P(HjE) j= 12 hellip k
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
25
Il teorema di Bayes formulazione
bull Sia Hj una generica ipotesi tra quelle a confronto Applicando la definizione di probabilitagrave condizionata si ottiene
bull Applicando ora la regola del prodotto e mettendo in evidenza le probabilitagrave iniziali si trova la formula finale
bull Le probabilitagrave inverse P(E|Hi) prendono il nome di verosimiglianze e rivestono un ruolo fondamentale nel teorema di Bayes In particolare se in assenza di informazioni piugrave precise si pone P(Hi)=1k per ogni i
bull Le probabilitagrave finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze
)EH(P)EH(P
)EH(P
)E(P
)EH(P)E|H(P
k
jj
j
1
k
iii
jj
j
)H|E(P)H(P
)H|E(P)H(P)E|H(P
1
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
26
Teorema di Bayes applicazione
bull Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie A B e C Lrsquoincidenza della patologia A egrave di 1 su 1000 persone quella della patologia B egrave di 1 su 5000 quella della patologia C egrave di 1 su 25000 Le probabilitagrave iniziali sono pertanto
bull Per aumentare la precisione della diagnosi il medico ordina di effettuare un esame clinico Questo esame risulta positivo tra i pazienti affetti dalla malattia A nel 10 dei casi tra i pazienti affetti da B nel 30 dei casi e tra i pazienti affetti da C nel 95 dei casi Il paziente risulta positivo allrsquoesame Come cambia la distribuzione di probabilitagrave dopo questo risultato clinico
311
2500015000110001250001
315
250001500011000150001
3125
250001500011000110001
)C(P
)B(P
)A(P
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
27
(segue applicazione)
)E|C(P
)E|B(P
)E|A(P
21915970
9501610
33015970
303220
5509501610303220108060
108060
In questo caso lrsquoesame clinico anzicheacute chiarire la situazione ha addirittura aumentato lrsquoincertezza per cui egrave sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual egrave la patologia di cui soffre il suo paziente
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
28
16) Variabili aleatorie discrete
bull Una variabile aleatoria (reale) egrave unrsquoapplicazione che assegna a ogni evento un numero reale Per esempio se nellrsquoesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa sto definendo una variabile aleatoria
bull Se lrsquoesperimento aleatorio di riferimento egrave un esperimento di conteggio lo spazio degli eventi egrave finito o numerabile e la variabile che descrive lrsquoesperimento egrave una variabile aleatoria discreta
bull Lrsquoinsieme dei valori che puograve assumere una va discreta egrave detto il supporto della variabile stessa Ognuno di questi valori ha una probabilitagrave lrsquoinsieme dei valori del supporto e delle loro probabilitagrave costituisce la distribuzione della variabile aleatoria La funzione che fornisce le probabilitagrave dei valori del supporto egrave detta funzione di probabilitagrave
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
29
17) Funzione di ripartizione
bull Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilitagrave La funzione di ripartizione per un generico valore reale x0 fornisce la probabilitagrave che X non superi tale valore Indicando tale funzione con FX(x0) si ha quindi FX(x0) = P(Xlex0)
bull La funzione di ripartizione definita per ogni x0 reale ha le seguenti proprietagrave
- egrave non decrescente per cui se a lt b si ha FX(a) le FX(b)
- egrave continua a destra per cui vale il limite lim x FX(x)= FX()
- valgono i seguenti due limiti
lim x -infin FX(x)= 0 lim x +infin FX(x)= 1
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
30
18) Mediana e centili
bull Data la variabile aleatoria discreta X si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X
bull Se esiste un valore x tale che P(Xltx)lt12 e P(Xlex)gt12 il valore x si dice mediana della
distribuzionebull Se invece esistono due valori x e x tali che P(Xltx)lt12 P(Xlex)=P(Xltx)=12 (Xlex)gt12 si fissa la semisomma (x+x)2 come mediana della
distribuzionebull Se al posto di considerare la metagrave esatta della distribuzione
(mediana) si vuole stabilire quale valore si trova in correspondenza di k100 della distribuzione si procede come fatto con la mediana inserendo perograve il valore k100 al posto di 12 Il valore ottenuto si dice kndashesimo centile della variabile X
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
31
Esempi di determinazione di mediana e centili
bull Sia X una variabile aleatoria discreta con la seguente funzione di probabilitagrave P(X=x) = x10 x = 1 2 3 4
bull La mediana si trova osservando che P(Xle2)= 110 + 210 = 310 (lt frac12) P(Xle3)= 610 (gtfrac12)bull Pertanto il valore X=3 egrave il valore medianobull Se invece si cerca il 25deg centile ossia il punto corrispondente
a frac14 della distribuzione si puograve osservare che P(Xle1)=110 P(Xle2)= 310 Essendo il primo valore minore di frac14 e il secondo maggiore si puograve affermare che il 25deg centile egrave il punto X=2
bull Sia X il numero di teste nel lancio di 4 monete regolari Si puograve calcolare la probabilitagrave P(X=0)=116 P(X=1)=14 P(X=2)=38
bull Cumulando le probabilitagrave ottenute si verifica che Me(X) = 2
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
32
19) Valore atteso di una va discreta
bull La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa e sommando i risultati Il valore atteso di una va X indicato solitamente con E(X) egrave lrsquoequivalente teorico della media aritmetica e si ottiene considerando tutti i valori del supporto e sostituendo alle frequenze relative le rispettive probabilitagrave Si ha quindi
bull Il valore atteso egrave sempre compreso tra il valore piugrave piccolo del supporto e quello piugrave grande inoltre vale la proprietagrave lineare
Sx
)xX(Px)X(E
b)X(aE)baX(E
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
33
20) Momenti di una va discreta
bull Il momento di ordine k della va X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso
bull In particolare il momento di ordine 1 coincide con il valore atteso mentre secondo della va X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso
Esempio se consideriamo il lancio di un dado regolare otteniamo E(X)= 1∙16+2∙16+3∙16+hellip+6∙16 = 216 = 35
E(X2)= 1∙16+4∙16+9∙16+hellip+36∙16 = 916 = 152 E(X3)= 1∙16+8∙16+27∙16+hellip+216∙16 = 4416 = 735
Sx
kk
k )xX(Px)X(E)X(m
Sx
)xX(Px)X(E)X(m 222
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
34
21) Varianza di una va discreta
bull La varianza di una va discreta egrave una misura di variabilitagrave analoga a quella che si definisce per le variabili statistiche cosigrave definita
V(X) = E[X-E(X)]2 = E(X2) ndash [E(X)]2
bull La varianza essendo una quantitagrave quadratica non puograve mai essere negativa ed egrave espressa nel quadrato dellrsquounitagrave di misura dei valori assunti da X
bull Valgono le seguenti proprietagrave - V(X+b) = V(X) - V(aX) = a2 V(X) in particolare V(-X) = V(X) - V(aX+b) = a2V(X)bull La radice quadrata della varianza di dice scarto di X - S(X) = radicV(X)bull Vale al proprietagrave S(aX+b) = |a|∙S(X)
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
35
Esempio di calcolo
bull Sia X una va discreta con la seguente funzione di probabilitagrave
P(X=x) = (5-x)15 x=0 1 2 3 4bull Il valore atteso egrave pari a
E(X) = 0 ∙515 + 1∙415 + 2∙315 + 3∙215 + 4∙115 = 2015 =43
bull Il momento secondo egrave invece il seguente
E(X2) = 1∙415 + 4∙315 + 9∙215 + 16∙115 = 5015 = 103
bull La varianza egrave infine pari a V(X) = E(X2) ndash [E(X)]2 = 103ndash(43)2= 309 ndash 169 =
149
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
36
22) Variabile aleatoria di Bernoulli
bull Sia X lrsquoesito di una prova in cui vi sono due possibili risultati rispettivamente indicati con i valori 0 e 1 Sia p la probabilitagrave del valore 1 X si dice variabile aleatoria di Bernoulli di parametro p
bull Dunque P(X=0)=1-p P(X=1)=p bull Funzione di ripartizione F(x) = 0 per x lt 0 = 1-p per 0 le x lt 1 = 1 per x ge 1
bull E(X) = 0 ∙ (1-p)+1 ∙ p = p E(X2) = p V(X) = p (1-p)
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
37
23) Variabile aleatoria binomiale
bull Si effettua un esperimento formato da n prove di Bernoulli indipendenti e con parametro p costante Sia X il numero dei ldquosuccessirdquo ossia il numero di eventi a cui corrisponde il valore 1
bull Funzione di probabilitagrave
bull E(X) = n∙p V(X) = n∙p∙(1-p)bull In particolare se p=12 la funzione di probabilitagrave
diviene
bull Per questo valore si ha inoltre E(X) = n2 V(X) = n4
xnx )p(px
n)xX(P
1
n
x
n)xX(P
2
1
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
38
24) Variabile aleatoria di Poisson
bull La variabile di Poisson egrave molto versatile ed egrave stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse egrave il numero di volte in cui un determinato evento si presenta in un intervallo prefissato supponendo che la probabilitagrave istantanea dellrsquoevento sia sempre la stessa
bull Indicando con l il numero medio di volte in cui lrsquoevento viene osservato nel periodo di tempo la funzione di probabilitagrave egrave la seguente
bull In particolare la probabilitagrave del valore zero egrave P(X=0) = e-l i valori piugrave probabili sono quelli vicini a l dopodichegrave la probabilitagrave decresce molto rapidamente
bull Il valore atteso e la varianza di X sono entrambi uguali a l
xx
e)xX(P
x
210
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
39
Esempio di applicazione di Poisson
bull Il numero di attacchi di emicrania subiti da un paziente ogni settimana puograve essere un esempio di variabile poissoniana Se il numero medio di attacchi egrave 25 la distribuzione di probabilitagrave (almeno per i primi valori) egrave la seguente
bull P(X=0) = e-25 = 821 P(X=1) = e-25 = 2052 P(X=2) = e-25 = 2565 P(X=3) = e-25 = 2138 P(X=4) = e-25 = 1336 P(X=5) = e-25 = 668bull SI puograve notare come i tre valori piugrave probabili (1 2 3)
hanno complessivamente quasi il 70 di probabilitagrave quindi il paziente di deve aspettare con buona probabilitagrave di avere 1 2 o 3 attacchi alla settimana
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
40
25) Variabili aleatorie continue
bull Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione Statura peso glicemia temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo
bull In una variabile continua le probabilitagrave non vengono assegnate ai singoli punti ma piuttosto agli intervalli Pertanto al posto della funzione di probabilitagrave tipica delle variabili discrete si utilizza la funzione di densitagrave di probabilitagrave che dagrave una misura di addensamento della probabilitagrave nei dintorni di un punto La funzione di densitagrave non egrave mai negativa ma ndash non rappresentando direttamente una probabilitagrave ndash puograve anche superare il valore 1
bull La probabilitagrave di un intervallo [a b] si ottiene effettuando lrsquointegrale definito da a a b della funzione di densitagrave di probabilitagrave
b
a
dy)y(f)bYa(P
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
41
26) Descrizione di una va continua
bull La funzione di ripartizione di una va continua Y ha lo stesso significato della FdR delle variabili discrete Essa si ottiene ancora una volta applicando il calcolo integrale
bull La mediana Me(Y) egrave il punto in cui la funzione di ripartizione vale esattamente frac12 mentre il k-esimo centile egrave il punto y in cui vale lrsquouguaglianza FY(y)=k100
bull Il valore atteso E(Y) si ottiene risolvendo il seguente integrale
bull Il momento secondo E(Y2) si ottiene risolvendo invece lrsquo integrale
0
00
y
Y dy)y(f)yY(P)y(F
0y
dy)y(fy)Y(E
0
22y
dy)y(fy)Y(E
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
42
27) Variabile aleatoria uniforme (o rettangolare)
bull Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto egrave formato da un intervallo chiuso [a b] e ogni valore del supporto ha la stessa densitagrave
bull Se Y egrave una va uniforme la funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso E(Y) egrave pari alla semisomma degli estremi (a+b)2bull La varianza V(Y) egrave pari a (b-a)212
altrove 0
1bYa
ab)y(fY
by
byaabay
ay
)y(FY
1
0
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
43
28) Variabile aleatoria esponenziale
bull Una variabile aleatoria esponenziale rappresenta un fenomeno a valori non negativi in cui la densitagrave egrave massima intorno al valore y=0 e decresce costantemente al crescere di y
bull La funzione di densitagrave di Y egrave la seguente
bull A sua volta la funzione di ripartizione di Y egrave la seguente
bull Il valore atteso egrave pari al reciproco del parametro k E(Y)=1kbull La varianza egrave pari a V(Y)=1k2
0
0 0
yy
y
e)y(fY
0
0
1
0
yy
y
e)y(fY
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
44
29) Variabile aleatoria gaussiana
bull La va gaussiana (o normale) egrave il modello continuo piugrave noto e diffuso ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri la media m e lo scarto s per cui si scrive N( )m s
bull Il supporto egrave formato dallrsquointero asse reale e la funzione di densitagrave di Y egrave la seguente
bull La va gaussiana ha due proprietagrave molto importanti - Se Y egrave N( )m s la variabile W = a + bY (con b ne0) egrave
ancora una va gaussiana di media a + b m e di scarto |b| s
- Ogni combinazione lineare di va gaussiane a due a due indipendenti egrave ancora una gaussiana
2
21
21
y
e)y(fY
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
45
30) Variabile aleatoria normale standardizzata
bull Data una va gaussiana Y ~N( ) m s se si sottrae la media m e si divide il risultato per lo scarto s si ottiene una va gaussiana Z = (Y-m)s di media 0 e scarto 1 di cui sono riportati i valori e le loro densitagrave e ripartizioni nelle cosiddette tavole statistiche che si possono trovare in qualunque manuale
bull La funzione di densitagrave di una normale standardizzata egrave la seguente
bull Per risolvere problemi probabilistici sulla va normale generica si fa solitamente ricorso alla va standardizzata Z trovando le probabilitagrave cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa Y = + m sZ
221
21 z
e)z(fZ
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
46
31) Variabile aleatoria log-normale
bull Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W egrave normalmente distribuita Pertanto se la variabile aleatoria Y egrave N( m s) la trasformata W = eY egrave di tipo log-normale
bull La mediana di questa distribuzione egrave Me(W)=e m
il valore atteso egrave pari a E(W)=e +m s22 e la varianza egrave pari a V(W)= e2 +m s2 (es2-1)
bull Per esempio se = 2 = 1m s si ha Me(W)= e2
E(W)=e52 V(W)= e5 (e-1)
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
47
32) Variabile aleatoria chi quadrato
bull Siano Z1 Z2 hellip Zk variabili aleatorie normali standardizzate a due a due indipendenti Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute si ottiene una nuova variabile
W = Z12 + Z2
2 +hellip + Zk2
che prende il nome di va chi quadrato con k gradi di libertagravebull Se W egrave una va chi quadrato con k gradi di libertagrave allora si ha E(W) = k V(W) = 2kbull La funzione di ripartizione di W non egrave direttamente esplicitabile
per cui si deve fare ricorso alle tavole della distribuzione chi quadrato
bull Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione che risultano utili per i test statistici
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
48
33) Variabile aleatoria t di Student
bull Sia Z una va normale standardizzata e sia Wk una va chi quadrato con k gradi di libertagrave indipendente da Z La variabile aleatoria
si dice variabile t di Student con k gradi di libertagrave Se k=1 la variabile T ha media e varianza non finite
mentre se k = 2 sessa ha media nulla e varianza non finita Da k=3 in avanti si ha
kWZ
Tk
k
2 0
kk
)T(V)T(E kk
Anche la funzione di ripartizione di T non egrave direttamente esplicitabile per cui si deve fare ricorso alle tavole della distribuzione t di StudentSulle tavole della t ci sono unicamente i centili di coda destra quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
49
34) Variabile aleatoria F di Snedecor-Fisher
bull Sia Ug una variabile aleatoria chi quadrato con g gradi di libertagrave e sia Wh una variabile aleatoria chi quadrato con h gradi di libertagrave indipendente da Ug
bull La variabile aleatoria prende il nome di variabile F di Snedecor ndash Fisher con g gradi di libertagrave al numeratore e h al denominatore (dai nomi di George Snedecor statunitense e Ronald A Fisher britannico)
bull La variabile aleatoria F ha delle apposite tavole ed essendo il numero di gradi di libertagrave un numero doppio egrave necessaria una tavola per ogni centile di coda destra
bull Per ottenere un centile di coda sinistra della va F egrave necessario invertire il numero di gradi di libertagrave trovare il centile complementare e considerare il reciproco del valore ottenuto
hW
gUF
h
g
hg
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
50
Funzione di densitagrave della variabile log-normale
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
51
Funzione di densitagrave delle variabili c2 t F
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
52
35) Paradosso di San Pietroburgo
bull Il paradosso di San Pietroburgo si basa su un modello di giocoscommessa molto semplice simile allrsquoesperimento della distribuzione geometrica un giocatore lancia una moneta e vince 1 euro se esce subito testa ne vince 2 se esce croce e poi testa ne vince 4 se esce croce croce e testa e in generale ne vince 2n se esce n volte croce e poi testa Qual egrave la vincita media E(W) che corrisponde al prezzo equo da pagare per fare il gioco
bull E(W) = 112 + 2 14 + 4 18+8 116 + hellip = = + + + hellip = +infinfrac12 frac12 frac12 deg Un giocatore di buon senso quanto sarebbe disposto a scommettere Sicuramente una cifra molto limitata al massimo 8 o 10 euro percheacute egrave molto bassa la probabilitagrave di ottenere una vincita consistente Pertanto in questa situazione il calcolo della vincita media sembra portare molto fuori stradahellip
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
53
36) Paradosso di Monty Hall
bull Il paradosso di Monty Hall ha tratto in inganno numerosi matematici anche piuttosto quotati Eppure si basa su un esperimento semplicissimo
bull I personaggi sono un concorrente e un presentatore Il concorrente si trova tre porte diciamo A B e C Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata dietro le altre due una semplice scatola di fiammiferi Insomma una sola porta egrave vincente
bull Al concorrente viene chiesto di scegliere una porta Dopo la scelta il presentatore che sa qual egrave la porta vincente ne spalanca una perdente In questa maniera rimangono chiuse due porte quella scelta dal concorrente e unrsquoaltra
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
54
Paradosso di Monty Hall (segue)
bull Il presentatore propone al concorrente di cambiare porta
bull Il problema egrave al concorrente conviene cambiare porta oppure non cambiare o egrave perfettamente indifferente
bull La maggior parte delle persone alla prima formulazione del problema pensa che sia assolutamente indifferente due porte chiuse una egrave vincente 50 contro 50
bull Ma non egrave cosigrave se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A Negli altri due casi egrave conveniente scegliere di cambiare porta Pertanto cambiando porta si vince con probabilitagrave 23 E se non siete ancora convintihellip
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
55
Paradosso di Monty Hall (segue)
bull hellip supponiamo che non ci siano solo tre porte ma ben 100
bull Voi siete il concorrente e scegliete per esempio la numero 76 Il presentatore spalanca 98 porte laquoperdentiraquo e lascia chiuse soltanto la numero 76 e la numero 83 Poi vi chiede se volete cambiare la 76 con la 83 Non vi viene voglia di scegliere la numero 83 senza pensarci troppo Non pensate che in questo caso sia decisamente il caso di accettare il cambio Eppure egrave esattamente lo stesso problema di primahellip
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-
56
37) Paradosso delle tre buste
bull Come egrave noto le banconote americane di diverso valore hanno tutte la stessa dimensione Supponiamo di avere tre buste una contenente due banconote da 1 dollaro una contenente una banconota da 1 dollaro e una da 100 dollari e infine una contenente due banconote da 100 dollari
bull Le tre buste vengono rimescolate una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta La banconota egrave da 100 dollari Qual egrave la probabilitagrave che anche lrsquoaltra banconota della busta sia da 100 dollari
bull Si potrebbe pensare che la probabilitagrave sia pari a 12 in quanto due sono le buste che contengono banconote da 100 dollari Invece la probabilitagrave egrave pari a 23 Infatti vi sono in tutto tre banconote da 100 dollari di cui due nella stessa busta e una laquoisolataraquo Quindi la probabilitagrave di avere pescato proprio la banconota laquoisolataraquo egrave pari a 13 mentre la probabilitagrave di avere estratto una banconota laquonon isolataraquo egrave di 23
- Introduzione al calcolo delle probabilitagrave a cura di Maurizio
- 1) Eventi elementari e composti
- Esempi di esperimento aleatorio
- 2) Operazioni logiche sugli eventi
- Esempio di operazioni logiche
- 3) Relazioni tra eventi
- 4) Proprietagrave delle operazioni logiche
- 5) Spazio degli eventi
- 6) Calcolo combinatorio permutazioni e disposizioni
- Esempi di permutazioni e disposizioni
- 7) Calcolo combinatorio combinazioni
- (segue Combinazioni)
- Esempi di combinazioni
- 8) Definizioni di probabilitagrave
- 9) Assiomi del calcolo delle probabilitagrave
- 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogoro
- 11) Probabilitagrave condizionata
- 12) Eventi indipendenti
- Esempi di eventi ldquoincompatibili ldquo e ldquoindipendentirdquo
- 13) Passaggio dallrsquoevento contrario
- (segue)
- 14) Il problema del compleanno
- Il problema del compleanno (segue)
- 15) Il teorema di Bayes premesse
- Il teorema di Bayes formulazione
- Teorema di Bayes applicazione
- (segue applicazione)
- 16) Variabili aleatorie discrete
- 17) Funzione di ripartizione
- 18) Mediana e centili
- Esempi di determinazione di mediana e centili
- 19) Valore atteso di una va discreta
- 20) Momenti di una va discreta
- 21) Varianza di una va discreta
- Esempio di calcolo
- 22) Variabile aleatoria di Bernoulli
- 23) Variabile aleatoria binomiale
- 24) Variabile aleatoria di Poisson
- Esempio di applicazione di Poisson
- 25) Variabili aleatorie continue
- 26) Descrizione di una va continua
- 27) Variabile aleatoria uniforme (o rettangolare)
- 28) Variabile aleatoria esponenziale
- 29) Variabile aleatoria gaussiana
- 30) Variabile aleatoria normale standardizzata
- 31) Variabile aleatoria log-normale
- 32) Variabile aleatoria chi quadrato
- 33) Variabile aleatoria t di Student
- 34) Variabile aleatoria F di Snedecor-Fisher
- Funzione di densitagrave della variabile log-normale
- Funzione di densitagrave delle variabili c2 t F
- 35) Paradosso di San Pietroburgo
- 36) Paradosso di Monty Hall
- Paradosso di Monty Hall (segue)
- Paradosso di Monty Hall (segue)
- 37) Paradosso delle tre buste
-