La probabilità. Concetti di base Probabilità Grado di incertezza connesso al risultato scaturito...
-
Upload
lorenza-tortora -
Category
Documents
-
view
214 -
download
1
Transcript of La probabilità. Concetti di base Probabilità Grado di incertezza connesso al risultato scaturito...
La probabilità
Concetti di base Concetti di base
Probabilità
Grado di incertezza connesso al risultato scaturito da una prova
Esempio
Numero che appare sulla faccia superiore del dado dopo averlo lanciato
Concetti primitivi di probabilitàConcetti primitivi di probabilità
La provaLa provaLa prova è un esperimentoChe ha due o più possibilirisultatiPer evento si intende uno dei possibili risultati della prova
La probabilità è un numero compreso tra 0 ed 1 che misura il grado di incertezza sul verificarsi di un evento
L’eventoL’evento
La probabilitàLa probabilità
Prova, evento e probabilità Prova, evento e probabilità
Esempio:Nel lancio di un dado (ben bilanciato) La faccia contrassegnata dal numero 5 (E=5) si presenta con probabilità P(E=5)=1/6
In una data prova, l’evento E si verifica con probabilità P(E)
Eventi e Algebra di EventiEventi e Algebra di Eventi
Dato il postulato 1 sono definite le seguenti operazioni:
1. La negazione di un evento A, ossia A
2. L’intersezione tra due eventi A e B, ossia A B
3. L’unione tra due eventi A e B, ossia A B
Postulato 1Postulato 1 Gli eventi formano Gli eventi formano unauna
algebra di Boolealgebra di Boole
6
Evento impossibile: è l’evento che non può mai verificarsi e può essere definito come
Evento certo, ossia l’evento che si verifica sempre in quanto comprende tutti i possibili risultati dell’esperimento. Può essere definito
EventiEventi
BBAA
Definizione due eventi rilevanti:
Due eventi A e B, si dicono incompatibili (o mutualmente esclusivi o disgiunti) se
BA
Al lancio di un dado esce la faccia 0
Al lancio di una moneta esce T o C
A
A
A B
BA BA
BA
BA BA
AAAA
Proprietà assiomatiche della probabilitàProprietà assiomatiche della probabilità
La probabilità è una funzione di insieme che associa a ogni evento EiE un numero reale.La probabilità sarà indicata con P(Ei)Postulato
2Postulato 3
Postulato 4
P(A)0
P()=1[A B = ø] [P(A U B)=P(A)+P(B)]
Esperimento casualeE’ ogni processo la cui singola esecuzione (prova) dà luogo a un risultato non
prevedibile.
CCCE
CCTE
CTCE
TCCE
CTTE
TCTE
TTCE
TTTE
8
7
6
5
4
3
2
1Esempio: Lancio di una moneta 3 volte
S= Spazio campionario=
Evento è un sottinsieme di S
Eventi elementari
Spazio campionario
E4
E6 E7
E5E8
5321
4321
,,,1
,,,2
EEEElancioalTesceF
EEEETalmenoA
FA
E3E1
E2
L’evento è un sottinsieme delle spazio campionario.
5321
4321
,,,1
,,,2
EEEElancioalTesceF
EEEETalmenoA
54321
321
,,,,
,,
EEEEEFA
EEEFA
E6 E7
E5E8
E4
E3E1 E2
FA
FA
La probabilità dell’intersezione è sommata due volte!
DEFINIZIONI DI PROBABILITA’
1. Classica: è il rapporto tra il numero di casi favorevoli e il
numero di casi possibili, supposto che questi siano
equiprobabili (di Laplace)
2. Frequentista: è la frequenza relativa con cui l’evento si
verifica in una lunga serie di prove ripetute sotto
condizioni simili (di Von Mises)
3. Soggettivista: è il grado di fiducia che un individuo
coerente attribuisce, secondo le sue informazioni e
opinioni al verificarsi dell’evento
Probabilità condizionate e indipendenzaProbabilità condizionate e indipendenza
P(AB)= n. dei casi favorevoli ad (A B)
n. dei casi favorevoli a Bossia
P(AB)=
P(A B)P(B)
Si definisce probabilità condizionata di A dato B il rapporto tra la probabilità dell’evento (A B) e la probabilità dell’evento B
e6 e7
e5e8
e4
e3e1 e2
E è il nuovo spazio campionario S’
Si vuol calcolare la probabilità dell’evento e4 rispetto allo spazio campionario S’
Probabilità condizionata
TTTPCTTPTCTPTTCP
CTTPTalmenolancioIalCob
,,,2Pr
16
Principio delle probabilità compostePrincipio delle probabilità composte
Dati 2 eventi A e B tali che P(A)>0 e P(B)>0 :
P (A B) =P(A) P(B|A)= P(B)P(A|B)Due eventi si dicono indipendenti se il verificarsi di B non influenza la probabilità di A e il verificarsi di A non influenza la probabilità di B
P (A|B) =P(A) P(B|A) = P(B)
da cui si ricava
BPAPBAP
Teorema di BayesTeorema di Bayes
,BPBAP
B|AP ii
kk
iii A|BPAP...A|BPAP
A|BPAPB|AP
11
Probabilità a posteriori:
Teorema di Bayes
iAP , probabilità a priori.
iA|BP , probabilità condizionate o verosimiglianze
B|AP i , probabilità a posteriori, in quanto si riferiscono
agli eventi iA , dopo aver osservato l’evento B.
18
EsempioEsempio
P(A1) = 0,1 prob. di estrarre un individuo malato
P(A2) = 0,9 prob. di estrarre un individuo sano
P(B1|A2) = 0,2 prob. che il test dia un falso-positivo
P(B2|A1) = 0,1 prob. che il test dia un falso-negativo
Determinare:
P(A1|B1) = probabilità che un individuo positivo al test sia effettivamente malato
)A|B(P)A(P)A|B(P)A(P)A|B(P)A(P
)B|A(P212111
11111
33020909010
901011 ,
,,,,,,
)B|A(P
poichè P(B1|A1) = 1 – P(B2|A1) = 0,9
19
Esempio (continua)Esempio (continua)
Popolazione
sano
malato
P(A 2) =
0,9
P(A1 ) = 0,1
positivo
negativo
positivo
negativo
P(B 2|A 2) = 0
,
P(B1 |A
2 ) = 0,8
P(B 2|A 1) =
0,
P(B1 |A
1 ) = 0,1
72,08,09,0
22
BAP
18,02,09,0
12
BAP
01,01,01,0
21
BAP
09,09,01,0
11
BAP
Popolazione
sano
malato
P(A 2) =
0,9
P(A1 ) = 0,1
positivo
negativo
positivo
negativo
P(B 2|A 2) = 0
,2
P(B1 |A
2 ) = 0,
P(B 2|A 1) =
0,9
P(B1 |A
1 ) = 0,
72,08,09,0
22
BAP
18,02,09,0
12
BAP
01,01,01,0
21
BAP
09,09,01,0
11
BAP
100
60/100=0.6
40/100=0.4
adulto
giovane
Tipo A
Tipo non A
Tipo A
Tipo non A
20/100=0.2
40/100=0.4
14/100=0.14
26/100=0.26
35.0
4.0
14.0/
giovaneP
tipoAgiovanePgiovanetipoAP
Campioni Test + P(Ei) P(H/Ei) P(Ei)P(H/Ei)E1: sano 250 20 0.6757 0.080 0.05E2: malato 120 25 0.3243 0.208 0.07
370 45 0.12
Definiamo H l'evento Test +
P(E1) 0.68P(E2) 0.32P(H) 0.12P(H/E1) 0.08P(H/E2) 0.208333333P(H) =P(E1)*P(H/E1)+P(E2)*P(H/E2)= 0.12
P(E1/H)=P(E1)*P(H/E1)/P(H)= 0.444444P(E2/H)=P(E2)*P(H/E2)/P(H)= 0.555556
Possiamo affermare che, se la probabilità a priori di essere malato è pari al 32%, dopo che si verifica un test positivo tale probabilità aumenta al 56%
Esercizio Excel
La distribuzione di probabilità
CCCe
CCTe
CTCe
TCCe
CTTe
TCTe
TTCe
TTTe
8
7
6
5
4
3
2
1
S=
Valori di x Probabilità0 1/81 3/82 3/83 1/8
Totale 1
X è la variabile casuale “numero di T in tre lanci di una moneta”
Distribuzione di probabilità della v.c. N° teste in tre lanci di una moneta
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0 1 2 3
pi
Variabili casuali discrete: Distribuzioni di probabilità
Immaginiamo di avere un carattere statistico continuo e di rappresentarlo tramite istogramma con 8 classi di ampiezza finita
Variabili casuali continue: Funzione di densità
Man mano che aumentiamo il numero delle classi, si riduce l’ampiezza della classe. Al limite, l’ampiezza della classe diviene infinitesima e il poligono di frequenza si approssima con una linea continua. Tale linea si chiama funzione di densità di frequenza in quanto l’ordinata non è altro che l’altezza dei rettangoli che compongo l’istogramma
Variabili casuali continue: Funzione di densità
Alcune distribuzioni teoriche
La distribuzione binomiale (discreta)La curva di Gauss o Normale (continua)
Distribuzione binomiale
Esperimento bernulliano: esperimento casuale che ammette due soli esiti possibili, successo e insuccesso.
Esempio: lancio di una moneta, condizione di malattiap è la probabilità di successo. q=1-p è la probabilità di insuccesso
Hanno distribuzione binomiale: La variabile casuale X definita come “numero di successi su n prove” ha
distribuzione binomiale La variabile casuale F definita come “frequenza relativa di successo su n prove”
Esempio: La probabilità che un paziente guarisca da una determinata malattia è p=0.60.
Determinare la probabilità che su 5 pazienti ne guariscano esattamente 3
G=guarito
NG= non guarito
Si tratta di un esperimento bernulliano con p=0.60 e q=0.40
Considerando gruppi di 5 pazienti, possiamo avere le seguenti combinazioni
1. (G,G,G,NG,NG)
2. (G,NG,NG,G,G)
3. …
Ogni combinazione è il prodotto di eventi indipendenti.
102!*3
!3*4*5
!2!3
!5
3
5
x
nIn tutto le combinazioni sono:
La prima combinazione ha probabilità: 4.0*4.0*6.0*6.0*6.0
xnx pp 1*4.0*6.0 23
La seconda combinazione ha probabilità: 6.0*6.0*4.0*4.0*6.0
Tutte e 10 le combinazioni possibili hanno probabilità
xnx ppx
nxP
1**
Quindi, la probabilità di x successi su n prove è:
23 4.0*6.0*3
53
xP
Tornando all’esempio:
Statistiche della distribuzione binomiale
)1(var pnpX
npXE
n
ppF
pFE
)1(var
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
1 2 3 4 5 6 7 8 9
p<0.50 Asimmetrica a destra o positiva
Simmetria della distribuzione binomiale
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
1 2 3 4 5 6 7 8 9
p>0.50 Asimmetrica a sinistra o negativa
All’aumentare di n e a prescindere da p, la distribuzione binomiale tende ad essere simmetrica e si può approssimare con la curva Normale N(np,np(1-p)) per X e N(p, p(1-p)/n) per F
Prob(almeno 2 successi su 5 prove)= Prob(x≥2)=
P(X=2)+P(X=3)+P(X=4)+P(X=5)
Prob(meno di 2 successi su 7 prove)=
Prob(x<2)=P(X=0)+P(X=1)
Esempio: con p=0.15
Prob(fra 3 e 5 successi su 7 prove)=
Prob(3≤x ≤ 5)=P(X=3)+P(X=4)+P(X=5)