(12 CFU) A.A 2015/2016 CdL Sociologia e Criminologia...
Transcript of (12 CFU) A.A 2015/2016 CdL Sociologia e Criminologia...
Dove siamo…
MODULO 3. L’Inferenza statistica
3.1 Probabilità e variabili casuali
3.2 Le tecniche di campionamento
3.3 Inferenza da “Esperimento statistico”
3.4 Inferenza da “Popolazioni finite”
Raggruppamenti che si possono formare associando due o più elementi di un insieme
o di insiemi diversi.
Disposizioni semplici: gli elementi di A sono presenti soltanto una volta in ogni
raggruppamento.
Disposizioni con ripetizione: in uno o più raggruppamenti gli elementi di A sono
presenti più di una volta.
Facce di un dado 𝑨 = {1,2,3,4,5,6}
I numeri di due cifre che si possono formare
lanciando due volte il dado e affiancando i
due risultati sono:
11 12 13 14 15 1621 22 23 24 25 2631 32 33 34 35 3641 42 43 44 45 4651 52 53 54 55 5661 62 63 64 65 66
Disposizioni con ripetizione di 𝑛 = 6 elementi
di classe 𝑘 = 2.
Si hanno 36 coppie, cioè 𝟔𝟐.
Le disposizioni con ripetizione di 𝒏 elementi
di classe 𝒌 sono dati da 𝑛𝑘.
Se togliamo tutti i raggruppamenti con
elementi ripetuti (11, 22, ...), che si trovano
sulla diagonale principale, si ottengono le
disposizioni semplici di classe 𝒌 = 𝟐.
Il numero delle disposizioni semplici di 𝑛
elementi di classe 𝑘 è dato da:
𝐷𝑛,𝑘 = 𝑛(𝑛 − 1)(𝑛 − 2)(𝑛 − 3) … (𝑛 − (𝑘 − 1))
Nell’esempio 𝑛 = 6 e (𝑛 − (𝑘 − 1)) = 5 per cui 𝑫𝟔,𝟐 = 𝟔 ∙ 𝟓 = 𝟑𝟎
11 12 13 14 15 1621 22 23 24 25 2631 32 33 34 35 3641 42 43 44 45 4651 52 53 54 55 5661 62 63 64 65 66
12 13 14 15 1621 23 24 25 2631 32 34 35 3641 42 43 45 4651 52 53 54 5661 62 63 64 65
Disposizioni con ripetizione
Disposizioni semplici
Le permutazioni 𝑃𝑛 si hanno quando dato un insieme A di 𝑛 elementi i raggruppamenti
sono costituiti da 𝑛 elementi che differiscono fra loro solamente per l’ordine.
𝑃𝑛 = 𝑛!
Permutazioni di tre elementi (a), (b) e (c):
𝑃3 = 3! = 3 ∙ 2 ∙ 1 = 6.
{𝑎, 𝑏, 𝑐}
{𝑎, 𝑐, 𝑏}
{𝑏, 𝑎, 𝑐}
{𝑏, 𝑐, 𝑎}
{𝑐, 𝑎, 𝑏}
{𝑐, 𝑏, 𝑎}
Combinazioni di 𝒏 elementi di classe 𝒌 (𝐶𝑛,𝑘) i raggruppamenti di 𝑘 elementi tali che
ogni raggruppamento differisca dagli altri per la natura degli elementi.
Per le combinazioni non interessa l’ordine, per
cui il gruppo {2,1} equivale al gruppo {1,2}.
In numero queste coppie sono 15
Le combinazioni si ottengono da:
𝐶𝑛,𝑘 =𝐷𝑛,𝑘
𝑃𝑛=
𝑛(𝑛 − 1)(𝑛 − 2) … (𝑛 − (𝑘 − 1))
𝑘!
Nell’esempio: 𝐶6,2 =𝐷6,2
𝑃6=
𝑛(𝑛−1)(𝑛−2)…(𝑛−(𝑘−1))
𝑘!=
30
2= 15
2131 3241 42 4351 52 53 5461 62 63 64 65
Combinazioni
Misurare una
lunghezza Misurare il peso
Misurare la
temperatura
Misurare il
verificarsi di un
evento
Metro Bilancia Termometro Probabilità
Misura del grado di incertezza che riguarda il verificarsi di un evento.
I concetti base della teoria della probabilità sono:
la prova;
l’evento (indicato con 𝐸);
la probabilità (indicata con 𝑃).
“In una data prova 𝑖, l’evento 𝐸 si verifica con probabilità 𝑃(𝐸)”.
nel lancio di un dado,
la faccia 3
si presenta con probabilità 1 6⁄ ”.
Quindi la prova (detta anche esperimento aleatorio), non è altro che un esperimento
con due o più possibili risultati e in cui c’è un grado di incertezza sull’esito.
PROVA
EVENTO E=3
PROBABILITA’ 𝑃(𝐸) = 1 6⁄
Evento elementare 𝜔𝑖 – è il possibile esito di una prova
Evento non elementare 𝐸 – può essere scomposto in due o più eventi elementari.
Prova: “lancio di un dado”
Eventi elementari sono le facce del dado
{𝜔1 = 1, 𝜔2 = 2, 𝜔3 = 3, 𝜔4 = 4, 𝜔5 = 5, 𝜔6 = 6}.
Evento non elementare: “esce un numero dispari”
si verifica ogni volta che si ha {1} o {3} o {5}.
𝐸 = {𝜔1 = 1, 𝜔2 = 3, 𝜔3 = 5}
Struttura matematica con operazioni e regole per operare con gli eventi.
Le tre operazioni fondamentali dell’algebra di Boole:
1. Negazione di un evento 𝐴, indicata con �̅�. L’evento �̅� (detto anche evento
complementare) si verifica quando non si verifica 𝐴. Ad esempio se nel lancio di un dado l’evento 𝐴 è “faccia 1 o faccia 2”, allora l’evento
complementare �̅� si verifica con le facce 3, 4, 5 o 6.
2. Intersezione di due eventi 𝐴 e 𝐵, che si indica con 𝑨 ∩ 𝑩. Dati gli eventi 𝐴 e 𝐵,
l’evento 𝐴 ∩ 𝐵 si verifica quando si verificano entrambi gli eventi.
3. Unione fra due eventi 𝐴 e 𝐵, che si indica con 𝑨 ∪ 𝑩. Dati gli eventi 𝐴 e 𝐵,
l’evento 𝐴 ∪ 𝐵 si verifica quando almeno uno dei due si verifica. Cioè deve
verificarsi o l’evento 𝐴, o l’evento 𝐵, o entrambi.
Dato un mazzo di carte napoletane, definiamo i seguenti eventi:
A. Estrazione di una carta di denari;
B. Estrazione di un asso;
�̅� sono le trenta carte di coppe, bastoni e spade.
�̅� contiene 36 carte, tutte quelle che non sono un asso.
𝐴 ∩ 𝐵 è rappresentata dall’asso di denari (1𝑑).
𝐴 ∪ 𝐵 è rappresentato da tutte le carte contenute nei due ovali. Si verifica quando “esce
una carta di denari” o “un asso”, quindi nell’evento unione vi sono 13 carte, cioè 13
eventi elementari.
L’insieme di tutti i possibili eventi elementari (𝜔𝑖) di un esperimento.
In genere si indica con Ω.
Lancio di due monete.
𝑇 = Testa
𝐶 = Croce
Lo spazio campionario è dato da: Ω = {(𝑇𝑇), (𝑇𝐶), (𝐶𝑇), (𝐶𝐶)}.
Evento impossibile: un evento che non potrà mai verificarsi, come la faccia 7 su
un dado a sei facce. La probabilità di un evento impossibile è pari a 0;
Evento certo: evento che si verifica sempre, perché include tutti i risultati possibili
dell’esperimento. La probabilità di un evento certo è pari a 1.
La probabilità è una funzione che associa ad ogni evento 𝐸 un numero reale fra 0 e 1,
numero che si indica con 𝑃(𝐸).
Postulato 1: 𝑃(𝐴) ≥ 0.
La probabilità è sempre un numero maggiore o uguale a zero. È pari a zero solo
nel caso particolare in cui 𝐴 sia un evento impossibile;
Postulato 2: 𝑃(Ω) = 1.
La probabilità che si verifichi uno qualunque degli eventi dello spazio campionario
è pari a uno (evento certo);
Postulato 3: Se 𝐴 ∩ 𝐵 = ∅ allora 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵).
Nel caso in cui due eventi siano incompatibili, la probabilità dell’unione è data
dalla somma delle probabilità dei due eventi (principio delle probabilità totali).
Delle probabilità totali per eventi compatibili
In una prova, dati due eventi 𝐴 e 𝐵 si ha che:
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
Se invece gli eventi sono incompatibili (𝐴 ∩ 𝐵 = ∅) allora si ha
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
A
A
𝐵
𝐵
𝐴 ∩ 𝐵
.
Vale nel caso in cui gli eventi elementari sono tutti noti e sono in numero finito.
(es. giochi di azzardo)
Definizione: la probabilità è data dal rapporto fra il numero di casi favorevoli
all’evento e il numero di casi possibili, a condizione che questi ultimi siano tutti
egualmente possibili.
𝑃(𝐸) =𝑁𝐹
𝑁𝑃
𝑁𝑃 = 2
𝑃(𝑇𝑒𝑠𝑡𝑎) =𝑁𝐹
𝑁𝑃=
1
2
𝑁𝑃 = 6
Se volessimo calcolare la probabilità di 𝐴 =“esce un numero pari”
dobbiamo contare il numero di eventi elementari favorevoli ad 𝐴
Si tratta delle tre facce contrassegnate dai numeri 2, 4 e 6.
Quindi 𝑁𝐹 = 3.
Ne deriva che
𝑃(𝐴) =𝑁𝐹
𝑁𝑃=
3
6=
1
2
𝑁𝐹
Probabilità di un evento (𝐴) sapendo che si è già verificato un altro evento (𝐵) a cui 𝐴
è legato.
Definiamo due eventi:
A: esce la faccia 3;
B: esce un numero dispari.
Le probabilità di questi due eventi sono
𝑃(𝐴) =𝑁𝐹
𝑁𝑃=
1
6 𝑃(𝐵) =
𝑁𝐹
𝑁𝑃=
3
6=
1
2
: sapendo che si è verificato 𝐵 (è uscita una faccia dispari) qual è la
probabilità di 𝐴 alla luce di questa informazione?
Questa probabilità si chiama probabilità condizionata, e si indica con il simbolo
𝑃(𝐴|𝐵)
Se 𝐵 si è verificato, le facce possibili sono 1, 3 e 5. 𝑁𝑃 = 3
A questo punto la probabilità di 𝐴 si è modificata, perché ora 𝑁𝐹 = 1
per cui:
𝑃(𝐴|𝐵) =𝑁𝐹
𝑁𝑃=
1
3
Avere informazioni sul fatto che 𝐵 sia verificato significa che esso diventa il nuovo
spazio campionario.
I casi favorevoli ad 𝐴 sono solo quelli inclusi in 𝐵, ossia (𝐴 ∩ 𝐵).
Pertanto si definisce probabilità condizionata:
𝑃(𝐴|𝐵) =𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)
L’evento che si scrive dopo la linea verticale | è l’evento condizionante.
Da questa formula:
𝑃(𝐴|𝐵) =𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)
si ricava la formula base del principio delle probabilità composte:
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐵) ∙ 𝑃(𝐴|𝐵)
Si dice che due eventi 𝑨 e 𝑩 sono stocasticamente indipendenti se il verificarsi di
uno di essi non influenza la probabilità del verificarsi dell’altro.
Se la probabilità di 𝐴 non dipende dal verificarsi di 𝐵, i due eventi sono indipendenti e
possiamo scrivere:
𝑃(𝐴|𝐵) = 𝑃(𝐴)
Se due eventi sono stocasticamente indipendenti valgono entrambe le seguenti:
𝑃(𝐴|𝐵) = 𝑃(𝐴)
𝑃(𝐵|𝐴) = 𝑃(𝐵)
Sapendo che:
𝑃(𝐴|𝐵) =𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)
Ne deriva che la probabilità dell’intersezione è pari a:
𝑷(𝑨 ∩ 𝑩) = 𝑷(𝑨) ∙ 𝑷(𝑩)
QUINDI: due eventi A e B si dicono stocasticamente indipendenti se e solo se:
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∙ 𝑃(𝐵)
Mazzo di 40 carte napoletane. Si estrae una sola carta e si definiscono due eventi:
Evento A: “esce un asso”;
Evento B: “esce una carta di bastoni”.
Dati:
𝑃(𝐴) =4
40=
1
10 probabilità di estrarre un asso
𝑃(𝐵) =10
40 probabilità di estrarre una carta di bastoni
𝑃(𝐴 ∩ 𝐵) =1
40 probabilità di estrarre l’asso di bastoni
Vogliamo la probabilità condizionata 𝑃(𝐴|𝐵) cioè la probabilità di avere un asso
sapendo che è uscita una carta di bastoni. Applichiamo la formula della probabilità condizionata:
𝑃(𝐴|𝐵) =𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)=
1401040
=1
10
Questa equivale alla 𝑃(𝐴) quindi i due eventi 𝐴 e 𝐵 sono stocasticamente indipendenti.
Popolazione: 10% degli individui è affetta da diabete.
Il test ematico:
- falsi negativi, il 10% delle volte (test negativo - soggetto malato)
- falsi positivi, il 20% delle volte (test positivo - soggetto sano)
La domanda è: se un individuo risulta positivo al test qual è la probabilità che sia
effettivamente diabetico?
Gli eventi in gioco sono:
𝐴1: l’individuo è diabetico;
𝐴0: l’individuo è sano;
𝐵1: il test è risultato positivo;
𝐵0: il test è risultato negativo;
La domanda può essere formalizzata con le probabilità condizionate:
𝑃(𝐴1|𝐵1)
In generale date un numero 𝑘 di cause 𝐴𝑖 (per 𝑖 = 1,2, … , 𝑘) e dato un evento 𝐵 che
può essere generato da una di quelle cause, la probabilità 𝑃(𝐴𝑖|𝐵) è detta probabilità
a posteriori
: dato un insieme esclusivo ed esaustivo di eventi 𝐴1, 𝐴2, … , 𝐴𝑘 ed un
evento 𝐵 si ha:
𝑃(𝐴𝑖|𝐵) =𝑃(𝐴𝑖) ∙ 𝑃(𝐵|𝐴𝑖)
𝑃(𝐴1) ∙ 𝑃(𝐵|𝐴1) + 𝑃(𝐴2) ∙ 𝑃(𝐵|𝐴2) + ⋯ + 𝑃(𝐴𝑘) ∙ 𝑃(𝐵|𝐴𝑘)
Gli elementi importanti di questa formula sono:
Le probabilità 𝑃(𝐴𝑖): probabilità a priori
Le probabilità 𝑷(𝑩|𝑨𝒊): probabilità condizionate, o verosimiglianze
Le probabilità 𝑃(𝐴𝑖|𝐵), che sono le probabilità a posteriori. Si tratta delle
probabilità degli eventi 𝐴𝑖 (le cause) sapendo che si è verificato l’evento 𝐵
(l’effetto).
𝐴1: l’individuo è diabetico;
𝐴0: l’individuo è sano;
𝐵1: il test è risultato positivo;
𝐵0: il test è risultato negativo;
Verosimiglianza 𝑃(𝐵1|𝐴1) - probabilità che il test sia positivo sapendo che l’individuo
è malato
Probabilità a posteriori 𝑃(𝐴1|𝐵1) - probabilità che un individuo sia malato sapendo che
il test è risultato positivo.
Concetti molto diversi che non vanno confusi.
Quando ci sono più cause (𝐴1, 𝐴2, … , 𝐴𝑘) che possono determinare un evento 𝐵, il
teorema di Bayes fornisce una formula per calcolare la probabilità a posteriori, cioè
la probabilità che una determinata causa (𝐴𝑖) fra le 𝑘 possibili abbia agito sapendo che
l’evento 𝐵 si è verificato.
Nel nostro , il fatto che il test sia
positivo (l’effetto osservato 𝐵1) può
dipendere sia dalla causa che l’individuo è
effettivamente malato (evento 𝐴1) e sia
dal fatto che si è verificato un falso
positivo (evento 𝐴0), cioè l’individuo è
sano.
Supponiamo di avere i seguenti dati:
𝑃(𝐴1)=0.1 prob. di avere un individuo diabetico;
𝑃(𝐴0) = 0.9 prob. di avere un individuo sano;
𝑃(𝐵1|𝐴0) = 0.2 prob. di un falso positivo;
𝑃(𝐵0|𝐴1) = 0.1 prob. di un falso negativo;
𝑃(𝐵1|𝐴1) = 0.9 prob. di avere test positivo sapendo che il soggetto è diabetico.
𝑃(𝐴1|𝐵1)
𝐵1
𝐴1 𝐴0
Falso Positivo
0,20
Individuo Malato
0,10
La nostra domanda è:
𝑃(𝐴1|𝐵1) =? Prob. che un individuo positivo al test sia effettivamente diabetico?
𝑃(𝐴1)=0.1 prob. di avere un individuo diabetico;
𝑃(𝐴0) = 0.9 prob. di avere un individuo sano;
𝑃(𝐵1|𝐴0) = 0.2 prob. di un falso positivo;
𝑃(𝐵0|𝐴1) = 0.1 prob. di un falso negativo;
𝑃(𝐵1|𝐴1) = 0.9 prob. di avere test positivo sapendo che il soggetto è diabetico.
Applicando il teorema di Bayes abbiamo:
𝑃(𝐴1|𝐵1) =𝑃(𝐴1) ∙ 𝑃(𝐵1|𝐴1)
𝑃(𝐴1) ∙ 𝑃(𝐵1|𝐴1) + 𝑃(𝐴0) ∙ 𝑃(𝐵1|𝐴0)=
0.1 ∙ 0.9
0.1 ∙ 0.9 + 0.9 ∙ 0.2= 0.33
Definizione classica:
la probabilità è data dal rapporto fra il numero di casi favorevoli all’evento e il
numero di casi possibili, a condizione che questi ultimi siano tutti egualmente
possibili.
Definizione frequentista:
la probabilità di un evento è il limite cui tende la
frequenza relativa dell'evento al crescere del
numero degli esperimenti.
Per conoscere la probabilità di un evento
dobbiamo ricorrere all’esperienza, nel senso che
su un numero elevato di prove si riscontra una
certa regolarità. Formalmente si ha:
𝑃(𝐴) = lim𝑛→∞
𝑛𝐴
𝑛
𝑛𝐴 è il numero di volte che, su n prove, l’evento 𝐴 si è verificato.
Prob. di morte di una data popolazione;
prob. di incidenti automobilistici; prob. di
incidenti sul lavoro.
L’approccio classico e quello frequentista rientrano nel campo della probabilità
oggettiva, per distinguerla da un altro approccio, noto come impostazione soggettiva.
La probabilità 𝑃(𝐸) di un evento 𝐸 è la
misura del grado di fiducia che un
individuo coerente attribuisce al
verificarsi dell’evento 𝐸.
Quindi le probabilità di uno stesso
evento possono anche essere diverse se
fornite da soggetti diversi.
Ricapitolando:
Abbiamo parlato di prove ed eventi
Abbiamo indicato con il 𝜔𝑖 l’evento elementare
L’insieme di tutti i possibili eventi di una prova si chiama spazio campionario (Ω)
𝑇 e 𝐶
“1d”, “2d”
𝐴, 𝐵, 𝐶.
E’ giunto il momento di indicare gli eventi con dei numeri reali.
Da questa riflessione nasce l’importante concetto di variabile casuale
Una variabile casuale 𝑋 è una funzione definita sullo spazio campionario Ω che
associa ad ogni suo elemento 𝜔𝑖 un numero reale.
Si tratta di associare un numero reale ad ogni evento elementare di una prova.
I valori della variabile casuale saranno pertanto indicati con 𝑋1, 𝑋2, … 𝑋𝑛.
Lancio di una moneta. Possiamo assegnare 1 all’evento 𝜔1 = 𝑇 e 2 all’evento 𝜔2 = 𝐶
(Figura 1.3).
Prova: Lancio di due dadi
Evento: S = somma dei punteggi delle due facce
X = numeri da 2 a 12 (in altre parole, i valori che S può assumere sono 11)
Eventi di 𝛀 Valori di X
1-1 𝑋1 = 2
1-2 2-1 𝑋2 = 3
1-3 2-2 3-1 𝑋3 = 4
1-4 2-3 3-2 4-1 𝑋4 = 5
1-5 2-4 3-3 4-2 5-1 𝑋5 = 6
1-6 2-5 3-4 4-3 5-2 6-1 𝑋6 = 7
2-6 3-5 4-4 5-3 6-2 𝑋7 = 8
3-6 4-5 5-4 6-3 𝑋8 = 9
4-6 5-5 6-4 𝑋9 = 10
5-6 6-5 𝑋10 = 11
6-6 𝑋11 = 12
Quindi è il modo in cui definiamo la variabile casuale che determina gli eventi
elementari e, di conseguenza, lo spazio campionario.
𝑿 ..
𝒙𝟏 ..
𝒙𝟐 ..
… ..
𝒙𝒊 ..
… ..
𝒙𝒌 ..
..
Variabile Casuale
DISCRETA CONTINUA
Può assumere un insieme discreto
(finito o numerabile) di numeri
reali. Gli esempi delle carte, dei
dadi e delle monete sono tutti
esempi di variabili casuali discrete.
Può può assumere tutti gli
infiniti valori compresi in un
intervallo di numeri reali.
Per indicare una variabile casuale si
adopera una lettera maiuscola, es. 𝑋.
Per indicare un suo valore, ovvero una sua
determinazione, si usa la corrispondente
lettera minuscola.
Così 𝑥𝑖 è il generico (i-esimo) valore della
variabile casuale 𝑋.
Vi ricorda
qualcosa?
Il passaggio ulteriore è associare le probabilità ai valori della variabile causale.
Lancio di una moneta
𝑿 𝒑𝒊
𝟏 0,5
𝟐 0,5
1,0
Vi ricorda
qualcosa?
Prova: Lancio di due dadi
Evento: S = somma dei punteggi delle due facce
𝑿 𝑷(𝒙)
2 1 36⁄
3 2 36⁄
4 3 36⁄
5 4 36⁄
6 5 36⁄
7 6 36⁄
8 5 36⁄
9 4 36⁄
10 3 36⁄
11 2 36⁄
12 1 36⁄
Totale 1
Questa è una
Distribuzione di probabilità
𝑃(𝑋 = 2) = 𝑃(1,1) =1
36
𝑃(𝑋 = 3) = 𝑃[(1,2) ∪ (2,1)] =1
36+
1
36=
2
36
1-1 𝑋1 = 2
1-2 2-1 𝑋2 = 3
1-3 2-2 3-1 𝑋3 = 4
1-4 2-3 3-2 4-1 𝑋4 = 5
1-5 2-4 3-3 4-2 5-1 𝑋5 = 6
1-6 2-5 3-4 4-3 5-2 6-1 𝑋6 = 7
2-6 3-5 4-4 5-3 6-2 𝑋7 = 8
3-6 4-5 5-4 6-3 𝑋8 = 9
4-6 5-5 6-4 𝑋9 = 10
5-6 6-5 𝑋10 = 11
6-6 𝑋11 = 12
Ricorda: secondo il principio delle probabilità totali la
probabilità dell’evento unione di due eventi elementari è pari
alla somma delle probabilità dei due eventi elementari:
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵).
𝑋 𝑃(𝑥𝑖)
𝑥1 𝑝(𝑥1)
𝑥2 𝑝(𝑥2)
… …
𝑥𝑖 𝑝(𝑥𝑖)
… …
𝑥𝑘 𝑝(𝑥𝑘)
Totale 1
Così come la distribuzione di frequenza associa una frequenza ad ogni valore di una
variabile statistica, la distribuzione di probabilità associa una probabilità ad ogni
valore di una variabile casuale.
Per una distribuzione di probabilità è utile sapere la probabilità che la variabile casuale
assuma un valore minore o uguale a un certo 𝑥𝑖. A tal fine si calcolano le probabilità
cumulate, che indichiamo con 𝑃(𝑋 ≤ 𝑥𝑖).
Data una variabile casuale discreta 𝑋, la funzione che associa ai valori 𝑥 le probabilità
cumulate 𝑃(𝑋 ≤ 𝑥) si chiama funzione di ripartizione:
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑ 𝑃(𝑋 = 𝑠)
𝑠≤𝑥
Funzione di ripartizione nel caso del lancio di due dadi
𝑿 𝑭(𝒙)
2 1 36⁄
3 3 36⁄
4 6 36⁄
5 10 36⁄
6 15 36⁄
7 21 36⁄
8 26 36⁄
9 30 36⁄
10 33 36⁄
11 35 36⁄ 12 1
Grafico della Funzione di probabilità della
v.c. X “somma dei punteggi di due dadi”
Grafico della Funzione di Ripartizione
della v.c. X “somma dei punteggi di due
dadi”
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
0.16
0.18
2 3 4 5 6 7 8 9 10 11 12
P(X
)
X
0.00
0.20
0.40
0.60
0.80
1.00
1.20
2 3 4 5 6 7 8 9 10 11 12
F(X
)
X
La variabile casuale continua può assumere tutti gli infiniti valori compresi in un
intervallo di numeri reali.
Non è possibile, e non avrebbe senso, associare una probabilità ad ognuno degli infiniti
valori della v.c.
Quindi, si associa una probabilità a degli intervalli di valori che la v.c. può assumere.
A tal fine si introduce in concetto di funzione di densità, che è l’analogo della la
funzione di probabilità per le variabili casuali discrete.
Si chiama funzione di densità della variabile casuale continua 𝑋 la
funzione matematica 𝑓(𝑥) per cui, dato un certo intervallo di valori di 𝑋,
l’area sottostante alla funzione è uguale alla probabilità che 𝑋 assuma un
valore all’interno di quell’intervallo.
Se gli estremi dell’intervallo dei valori di 𝑋 li indichiamo con le lettere minuscole 𝑎 e
𝑏, la funzione di densità soddisfa la seguente relazione:
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥𝑏
𝑎
Definiamo una v.c. con valori nell’intervallo [0; 20] e probabilità definite dalla
seguente funzione di densità:
𝑓(𝑥) = {0 𝑝𝑒𝑟 𝑥 ∉ [0; 20]
0.05 𝑝𝑒𝑟 𝑥 ∈ [0; 20]
Verifichiamo che sia effettivamente una funzione di densità
Di fatti si tratta di una funzione di densità perché l’area sottesa alla curva è pari a 1, ed
è facile verificarlo.
È un rettangolo con base 20 e altezza 0.05, quindi l’area è proprio 20 ∙ 0.05 = 1.
Grafico della Funzione di Densità costante
Ora, se volessimo conoscere la probabilità che questa v.c. assume nell’intervallo
[10; 15], basta calcolare la corrispondente area che risulta essere 5 ∙ 0.05 = 0.25.
In termini formali abbiamo:
∫ 𝑓(𝑥)𝑑𝑥 = 0.2515
10
0
0.01
0.02
0.03
0.04
0.05
0.06
0 10 15 20
f(X
)
X
0.25
Data una variabile casuale continua 𝑋, la funzione che associa ai valori 𝑥 le
probabilità cumulate 𝑃(𝑋 ≤ 𝑥) si chiama funzione di ripartizione e si indica con:
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡𝑥
−∞
Segue la proprietà che l’area totale sottesa alla curva, cioè per valori che vanno da meno
infinito a più infinito (−∞; +∞), è sempre pari a 1:
∫ 𝑓(𝑥)𝑑𝑥+∞
−∞
= 1
Come per le distribuzioni di frequenza, esistono indici di sintesi e variabilità per le
distribuzioni di probabilità.
Una descrizione sintetica di una distribuzione di probabilità può essere fatta
sostanzialmente tramite il valore atteso e la varianza.
Il valore atteso di una variabile casuale è il valore medio che essa può assumere in un
numero elevato di prove. Si indica con 𝑬(𝑿) ed è definito in maniera diversa a seconda
se si ha una v.c. discreta o continua.
Per una variabile casuale discreta 𝐸(𝑋) = ∑ 𝑥𝑖𝑃(𝑥𝑖)𝑖
Per una variabile casuale continua 𝐸(𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥+∞
−∞
Valore atteso della variabile casuale 𝑋 “somma dei punteggi di due dadi”
𝑿 𝑷(𝒙) 𝑥𝑖𝑃(𝑥𝑖) 2 1 36⁄ 2 ∙ 1 36⁄ 0.028
3 2 36⁄ 3 ∙ 2 36⁄ 0.056
4 3 36⁄ 4 ∙ 3 36⁄ 0.083
5 4 36⁄ 5 ∙ 4 36⁄ 0.111
6 5 36⁄ 6 ∙ 5 36⁄ 0.139
7 6 36⁄ 7 ∙ 6 36⁄ 0.167
8 5 36⁄ 8 ∙ 5 36⁄ 0.139
9 4 36⁄ 9 ∙ 4 36⁄ 0.111
10 3 36⁄ 10 ∙ 3 36⁄ 0.083
11 2 36⁄ 11 ∙ 2 36⁄ 0.056
12 1 36⁄ 12 ∙ 1 36⁄ 0.028
7.000
𝐸(𝑋) = ∑ 𝑥𝑖𝑃(𝑥𝑖)
𝑖
𝐸(𝑋) = 7.
La variabilità di una v.c. viene misurata tramite la varianza e si indica con il simbolo
𝑉𝑎𝑟(𝑋).
Per una variabile casuale discreta 𝑉𝑎𝑟(𝑋) = ∑ [𝑥𝑖 − 𝐸(𝑋)]2𝑃(𝑥𝑖)𝑖
Per una variabile casuale continua 𝑉𝑎𝑟(𝑋) = ∫ [𝑥 − 𝐸(𝑋)]2𝑓(𝑥)𝑑𝑥+∞
−∞
Per le distribuzioni di frequenza si ha una somma di quadrati degli scarti fra
il valore della variabile e la sua media aritmetica, tutto ponderato con le frequenze.
Per le distribuzioni di probabilità abbiamo una somma di quadrati degli scarti fra
il valore della variabile e il suo valore atteso, tutto ponderato con le probabilità.
La radice quadrata della varianza si chiama scostamento quadratico medio o
deviazione standard: 𝐷𝑆(𝑋) = √𝑉𝑎𝑟(𝑋).
Vi sono alcune variabili casuali che nella pratica sono molto utilizzate.
Per esse sono note diverse caratteristiche e proprietà, fra cui il valore
atteso e la varianza.
Si distinguono in due grosse categorie:
La variabile casuale Uniforme discreta può assumere valori interi in un dato
intervallo, e ogni valore presenta la stessa probabilità. Se 𝑛 è il numero dei possibili
valori la funzione di probabilità è data da:
𝑃(𝑋) =1
𝑛
estrazione di una carta da un mazzo
di dieci carte numerate da 1 a 10.
𝑛 = 10. da cui 𝑃(𝑋) = 1 10⁄ ,
0.00
0.02
0.04
0.06
0.08
0.10
0.12
1 2 3 4 5 6 7 8 9 10
P(X
)
X
Lo schema in cui si inserisce la variabile casuale di Bernoulli è quello di una prova il
cui esito è dicotomico, ovvero con sole due possibilità, del tipo sì/no, vero/falso
eccetera.
Si assegna valore 1 se l’evento si è verificato (sì, vero, superato ecc.) e 0 altrimenti (no,
falso, non superato ecc.).
La v.c. di Bernoulli assume valore 1 con probabilità 𝜋 e valore 0 con probabilità 1 − 𝜋
e ha la seguente funzione di probabilità
𝑃(𝑋) = 𝜋𝑥(1 − 𝜋)1−𝑥
Il valore atteso è: 𝐸(𝑋) = 𝜋
La varianza è: 𝑉𝑎𝑟(𝑋) = 𝜋(1 − 𝜋)
Si parte da 𝑛 variabili casuali di Bernoulli, indipendenti e aventi stessa distribuzione
(cioè stesso parametro 𝜋). Se ne fa la somma.
Otteniamo una variabile casuale Binomiale.
Lancio 𝑛 volte una moneta,
1 evento Testa
0 evento Croce.
Ogni singolo lancio rientra nello schema Bernoulliano, con probabilità 𝜋 = 1 2⁄ .
Indichiamo la sequenza delle 𝑛 prove con 𝑋1, 𝑋2, 𝑋3, … , 𝑋𝑛,
𝑋1 è il risultato della 1° prova (che può essere 0 o 1)
𝑋2 è il risultato della 2°prova (sempre con possibili valori, 0 o 1)
…
𝑋𝑛 è il risultato della n° prova (sempre con possibili valori, 0 o 1)
Ora definiamo una nuova variabile casuale come somma delle precedenti:
𝑋 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛.
Essa può assumere valori da 0 a n.
Se lancio tre volte una moneta, il valore cha abbiamo indicato come successo (Testa)
può presentarsi
0 volte (0T e 4C)
1 volta (1T e 3C)
2 volte (2T e 3C)
3 volte (3T e 1C)
4 volte (4T e 0C)
La variabile casuale 𝑋 esprime il numero di successi in 𝒏 prove indipendenti.
La funzione di probabilità che deriva da questo schema si chiama funzione di
probabilità Binomiale, i cui parametri caratteristici sono 𝑛 e 𝜋.
La variabile casuale Binomiale - che si indica con 𝑋~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙𝑒(𝜋; 𝑛) – rappresenta
il numero di successi che si hanno in 𝑛 prove di tipo Bernoulliano indipendenti e con
parametro costante 𝜋. La funzione di probabilità Binomiale è data da:
𝑃(𝑋) = (𝑛𝑥
) 𝜋𝑥(1 − 𝜋)1−𝑥
Per 𝑥 = 0,1,2 … , 𝑛 e 0 ≤ 𝜋 ≤ 1.
Il valore atteso è dato da: 𝐸(𝑋) = 𝑛𝜋
La varianza è data da: 𝑉𝑎𝑟(𝑋) = 𝑛𝜋(1 − 𝜋)
Situazione: numero di eventi che si possono verificare in un dato intervallo di tempo. (automobili che transitano a un casello autostradale in un giorno, numero di terremoti che si
verificano in una regione in un anno, numero di incidenti stradali lungo un’autostrada in un mese.)
Una variabile casuale di Poisson - che si indica con 𝑋~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆) - assume
qualunque valore intero 𝑥 ≥ 0. La funzione di probabilità della Poisson è data da:
𝑃(𝑋) =𝜆𝑥
𝑥!𝑒−𝜆
La v.c. assume valori del tipo 𝑥 = 0,1,2, …
L’unico parametro che caratterizza questa distribuzione è lambda (𝜆).
Il valore atteso è dato da: 𝐸(𝑋) = 𝜆
La varianza è data da: 𝑉𝑎𝑟(𝑋) = 𝜆
La v.c. Uniforme è una variabile casuale che segue la stessa logica della v.c. uniforme
discreta, ma in questo caso i parametri che definiscono la funzione di densità sono gli
estremi dell’intervallo.
Un variabile casuale Uniforme continua 𝑋, indicata con 𝑋~𝑈(𝑎, 𝑏) assume valori
reali in un intervallo limitato [𝑎; 𝑏]. La funzione di densità è la seguente:
𝑓(𝑥) = {1
𝑏 − 𝑎𝑝𝑒𝑟 𝑎 ≤ 𝑥 ≤ 𝑏
0 𝑎𝑙𝑡𝑟𝑜𝑣𝑒
Il valore atteso è dato da: 𝐸(𝑋) =𝑎+𝑏
2
La varianza è data da: 𝑉𝑎𝑟(𝑋) =(𝑏−𝑎)2
12
La distribuzione Normale è la più nota e utilizzata nell’inferenza statistica
Una variabile casuale Normale 𝑋, indicata con 𝑋~𝑁(𝜇, 𝜎2), è una variabile casuale
continua che assume valori su tutto l’asse reale, cioè da −∞ a +∞.
La sua funzione di densità è la seguente:
𝑓(𝑥) =1
𝜎√2𝜋𝑒
−12(
𝑥−𝜇𝜎 )
2
I due parametri che la caratterizzano, 𝜇 e 𝜎2, possono assumere valori −∞ < 𝜇 < +∞
e 𝜎2 > 0.
Il valore atteso è dato da: 𝐸(𝑋) = 𝜇
La varianza è data da: 𝑉𝑎𝑟(𝑋) = 𝜎2
Il valore della media 𝝁 determina, graficamente, la posizione orizzontale della curva.
Il parametro 𝜎2 determina la dispersione della distribuzione e graficamente
rappresenta il grado di appiattimento della curva.
Curve con stessa varianza e diverse medie Curve con stessa media e diverse varianze
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
1 5 9 13 17 21 25 29 33 37 41 45 490
0.05
0.1
0.15
0.2
1 5 9 13 17 21 25 29 33 37 41 45 49
Un caso particolare si ha quando la media è 𝜇 = 0 e la varianza 𝜎2 = 1. Questa variabile casuale si chiama variabile casuale Normale Standardizzata, e si
indica con 𝑍~𝑁(0,1).
La sua funzione di densità risulta pertanto essere la seguente:
𝑓(𝑧) =1
√2𝜋𝑒−
𝑧2
2
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
-3.5 -3.0 -2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
P
Z