PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale...

215
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Mon, 17 Dec 2012 06:23:07 UTC PR08A81L1TA' A P3DAL1

Transcript of PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale...

Page 1: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].PDF generated at: Mon, 17 Dec 2012 06:23:07 UTC

PR08A81L1TA' A P3DAL1

Page 2: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

IndiceVociPR08A81L1TA' di Base 1

Probabilità 1Spazio campionario 8Teoria della probabilità 13Indipendenza stocastica 15Teorema della probabilità composta 16Teorema della probabilità assoluta 17Probabilità condizionata 18Teorema di Bayes 20

Rapporti agili 24

Distribuzione discreta 24Distribuzione discreta uniforme 25Distribuzione di Bernoulli 29Processo di Bernoulli 30Distribuzione binomiale 32Distribuzione geometrica 36Distribuzione di Poisson 39Distribuzione di Pascal 44

53 X ... 48

Distribuzione continua 48Funzione di ripartizione 50Funzione di densità di probabilità 53Variabile casuale 55Variabili dipendenti e indipendenti 60Valore atteso 61Varianza 64Legge della varianza totale 67Covarianza 68Deviazione standard 70Media (statistica) 73Distribuzione normale 78

Page 3: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione della variabile casuale normale 83Distribuzione t di Student 85Distribuzione chi quadrato 91Distribuzione di Fisher-Snedecor 97

Cima Coppi 101

Disuguaglianza di Čebyšëv 101Disuguaglianza di Markov 103Legge dei grandi numeri 103Teoremi centrali del limite 108Processo markoviano 113

Pignoni 117

Calcolo combinatorio 117Coefficiente binomiale 120Teorema binomiale 122Coefficiente multinomiale 125

Tappe in linea 127

Problema di Monty Hall 127Paradosso delle tre carte 136Paradosso dei due bambini 138Paradosso del compleanno 141Blackjack 142Poker 147Roulette 152

Hors Catégorie 156

Continuità assoluta 156Integrale 158Convoluzione 170Sigma-algebra 174Algoritmo di Metropolis-Hastings 178Metodo Monte Carlo 179

Defaticamento 187

Statistica 187Inferenza statistica 192Campionamento statistico 194

Page 4: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Box-plot 196Istogramma 197Quantile 198Quartile 200Indicatore statistico 200Indice di posizione 203Intervallo di confidenza 203Ipotesi nulla 204Test di verifica d'ipotesi 204

NoteFonti e autori delle voci 207Fonti, licenze e autori delle immagini 210

Licenze della voceLicenza 211

Page 5: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

1

PR08A81L1TA' di Base

ProbabilitàIl concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diversediscipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (lastatistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali.

Alcuni dadi a sei facce.

Cenni storici

I primi studi che portarono successivamente a concetti legati allaprobabilità possono essere trovati a metà del XVI secolo in Liber deludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato soloun secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi diGalileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegòcome mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi irisultati si ottengano da un uguale numero di combinazioni.[1]

Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venneaffrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria,proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal eFermat.La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat(1601-1665). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenerealmeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre diun dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascallamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascale Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa ingioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con ilmetodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sulcalcolo delle probabilità, nel quale introduceva il concetto di valore atteso.I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur lejeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre.Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che portail suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una primaformulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoriadelle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di

Page 6: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità 2

fiducia che una persona ha nel verificarsi dell'evento.Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica(Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata unateoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverseimpostazioni.

DefinizioniIn probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno delsuo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado siottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), sicollocano eventi più o meno probabili (aleatori).Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili diun esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto eventoelementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4]

Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la lorounione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la lorointersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se A∩B = ∅ i due eventiA e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispettoa Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Definizione classicaSecondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra ilnumero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili.Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica diLaplace.Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con nA il numero dei casifavorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilitàdi A, indicata con P(A), è pari a:

Dalla definizione seguono tre regole:1.1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1;2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1;3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi

simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B="esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è:

La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è unadefinizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi nonirrilevanti:•• dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima

probabilità, che è però ciò che si vuole definire;•• non definisce la probabilità in caso di eventi non equiprobabili;• presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo.

Page 7: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità 3

Definizione frequentistaPer superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come illimite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:

La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmentepossibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni.Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regoleche seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA enumero dei casi possibili n con il limite del rapporto per n tendente all'infinito.Tuttavia:• il "limite" delle frequenze relative non è paragonabile all'analogo concetto matematico; ad esempio, data una

successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε perogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non èsempre calcolabile;

• non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che visia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi similinon è possibile immaginare esperimenti ripetibili all'infinito.

Definizione soggettivaDe Finetti e Savage[6] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventielementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stessecondizioni: la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento siverifica, 0 se l'evento non si verifica.Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità deglieventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa.In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste.1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si

avrebbe una perdita certa;2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a

1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa;3. se A∩B = ∅, P(A∪B) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono

incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), lasomma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se lasomma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Siconsiderano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sonoincompatibili e necessari e si ha:

Sono però incompatibili anche l'unione di A e B ed il suo complemento:

Dalle due uguaglianze segue:se , allora

La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari nonsono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoliindividui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a

Page 8: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità 4

giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.....

Definizione assiomaticaL'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 inGrundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppandola ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenzerelative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa.Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su comecalcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista chenell'ambito di un approccio soggettivista.Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questinell'individuare i postulati da cui poi si passava a definire i teoremi.L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimentocasuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, eciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioècome una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delleprobabilità di tutti gli eventi sia pari a 1.Se Ω ha cardinalità finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha,rispettivamente, cardinalità 2n o la cardinalità del continuo. Tuttavia, se Ω ha la cardinalità del continuo, il suoinsieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Siconsiderano pertanto i soli sottoinsiemi di Ω che costituiscono una classe additiva , ovvero un insieme non vuoto

tale che• se un evento A appartiene ad , vi appartiene anche il suo complemento:

• se un'infinità numerabile di eventi, A1, A2, ... An, ..., appartiene ad , vi appartiene anche l'evento costituitodalla loro unione:

Una classe additiva è quindi un sottoinsieme delle insieme delle parti di Ω che risulta chiuso rispetto alle operazionidi complemento e di unione numerabile.Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto perle leggi di De Morgan si ha:

(il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile deicomplementi di insiemi che vi appartengono).Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti):1. Gli eventi sono sottoinsiemi di uno spazio Ω e formano una classe additiva .2. Ad ogni evento è assegnato un numero reale non negativo P(A), detto probabilità di A.3. P(Ω)=1, ovvero la probabilità dell'evento certo è pari ad 1.4. Se l'intersezione tra due eventi A e B è vuota, allora P(A∪B)=P(A)+P(B).5. Se An è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme

vuoto, allora P(An) tende a zero:[7]

Page 9: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità 5

La funzione P(A) viene detta funzione di probabilità, o anche distribuzione di probabilità. La terna vienedetta spazio di probabilità.Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità:• Se P(A) è la probabilità di un evento A, la probabilità dell'evento complementare è 1-P(A). Infatti, poiché

l'intersezione di A e del suo complemento è vuota e la loro unione è Ω, dagli assiomi 3 e 4 si ricava:

•• La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento di Ω e si ha:

•• La probabilità di un evento è minore o uguale a 1. Infatti, dovendo la probabilità essere non negativa per ilsecondo assioma, si ha:

• Se un evento A è incluso in un evento B, allora la sua probabilità è minore o uguale a quella di B. Infatti, se Binclude A può essere espresso come unione di insiemi disgiunti e si ha:

Teoremi di baseDai suddetti assiomi derivano alcuni teoremi e concetti fondamentali.Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero laprobabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due adue incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due,poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi:

Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quandosi sa che B si è verificato:

Attraverso tale concetto si perviene al teorema della probabilità composta, che consente di calcolare la probabilitàdell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che puòessere generalizzato), si ha:

Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendentistocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilitàcomposta, caso particolare del precedente: P(A∩B)=P(A)P(B).Il teorema di Bayes consente di calcolare la probabilità a posteriori di un evento Ai, quando si sappia che si èverificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se Esi verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sonoincompatibili), allora, conoscendo le probabilità a priori degli eventi Ai e le probabilità condizionate P(E|Ai) esapendo che si è verificato E, si può calcolare la probabilità a posteriori di un particolare Ai:

Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" di E (ma non si sa pereffetto di quale di esse E si è verificato), sia le probabilità condizionate di E data ciascuna delle cause, è possibilecalcolare la probabilità che E si sia verificato per effetto di una particolare causa.

Page 10: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità 6

Difficoltà nell'utilizzo delle probabilitàQuante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possaessere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande conrisposte apparentemente illogiche:• nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli

eventi: i lati delle carte e non le carte stesse• nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel

considerare un unico evento quelli che in realtà sono due• nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può

modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzarecompletamente e dunque valutare correttamente la nuova informazione acquisita.

Una ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbiaprobabilità 1 implica che esso avvenga sempre (invece che quasi certamente).

Probabilismo onticoIl probabilismo ontico è una teoria ontologica in base alla quale ciò che è necessario rappresenta il massimo delleprobabilità e ciò che è casuale il minimo delle probabilità. L'alternanza dialettica necessità/caso si dà quindi in unascala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove lacasualità è l'estrema improbabilità e la necessità l'estrema probabilità.

Note[1][1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6),

(2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4).Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tremodi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25modi (6+6+3+3+6+1).

[2] Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità deldoppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 sicalcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%;nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)24 = 49%.

[3] La ristampa della traduzione inglese è disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf.[4][4] Ad esempio, nel lancio di un dado l'insieme Ω è costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" è rappresentato dall'insieme {3},

l'evento "esce un numero pari" è rappresentato dall'insieme {2,4,6}.[5] Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento A∪B è {2,4,6}, ovvero "esce un numero pari". Se invece A =

"esce un numero pari" e B = "esce un numero minore o uguale a 3", A∩B = {2}.[6] L'impostazione soggettiva era stata anticipata da Ramsey nel 1926.[7] Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico.

Page 11: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità 7

Bibliografia• Remo Cacciafesta, Lezioni di calcolo delle probabilità, Veschi, Roma, 1983• Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003• Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291• Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilità, Rizzoli, 2008

Voci correlate•• Teoria della probabilità•• Probabilismo•• Evento•• Teorema di Cox•• Campionamento statistico•• Logica della diagnosi clinica•• Legge dei grandi numeri• Kolmogorov.•• Bruno de Finetti•• Meccanica quantistica•• Indeterminismo•• Statistica•• Statistica inferenziale•• Storia della statistica•• Calcolo combinatorio

Collegamenti esterni• (EN) Probability and Statistics EBook (http:/ / wiki. stat. ucla. edu/ socr/ index. php/ EBook)• (FR) Journal sur l'histoire des probabilités et des statistiques (http:/ / www. jehps. net/ ) et site associé (articles,

bibliographie, biographies)

Page 12: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Spazio campionario 8

Spazio campionarioNel calcolo delle probabilità lo spazio campionario o insieme universo (generalmente indicato dalle lettere S, Ω oU) è l'insieme dei possibili risultati di un esperimento casuale. Ad esempio, nel lancio di un dado lo spaziocampionario è l'insieme {1,2,3,4,5,6}, nel lancio di una moneta può essere l'insieme {testa, croce}, e così via. Lospazio campionario può anche avere infiniti elementi: se, ad esempio, siamo interessati allo studio della caduta diuna pallina su un pavimento, lo spazio campionario corrisponderà all'insieme dei punti del pavimento, consideratitutti come possibili punti di impatto della pallina.

Definizioni formali

EventiDato un esperimento casuale è detto evento elementare uno dei possibili esiti dell’esperimento stesso.Si dice evento un qualsiasi sottoinsieme dello spazio campionario . Dunque un evento non è altro che unraggruppamento di uno o più eventi elementari.L'evento corrispondente all'intero spazio campionario (costituito da tutti gli eventi elementari) è detto eventocerto.L'evento corrispondente all'insieme vuoto (costituito da nessun evento elementare) è detto evento impossibile.Dato uno spazio campionario associato a un esperimento, può darsi che l'analisi da condurre non coinvolga tutti ipossibili eventi ma solo una parte di essi. Gli eventi che hanno un ruolo in una specifica analisi vengono detti eventidi interesse.

Sigma-algebraSia uno spazio arbitrario purché non vuoto. Una famiglia di eventi di (cioè una qualsiasi collezione disottoinsiemi ) è detta -algebra (sigma-algebra) se contiene ed è chiusa rispetto alle operazioniinsiemistiche di unione numerabile e complementazione, ovvero se soddisfa le seguenti tre proprietà:1.2.

3.

ovvero: (1) l'evento certo è un evento (come dire: "succede qualcosa"); (2) la negazione di un qualsiasi evento è essastessa un evento. (3) qualsiasi unione di eventi è un evento (per esempio l'evento "si verifica E o F" è l'unione deglieventi "si verifica E" e "si verifica F").La proprietà 1. è del tutto equivalente a:

1'. La proprietà 3. è del tutto equivalente a:

3'.

cioè una sigma-algebra è anche chiusa rispetto a intersezioni numerabili.La sigma-algebra è il metodo più appropriato per descrivere un insieme di eventi dato un insieme di eventielementari. Essa è una generalizzazione del concetto di algebra di insiemi, che richiede solo la stabilità per unionifinite.

Page 13: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Spazio campionario 9

Tuttavia se si utilizzasse il concetto di algebra di insiemi per descrivere il concetto di evento si incorrerebbe nellospiacevole inconveniente di non considerare eventi dei fenomeni quali "prima o poi piove". Infatti questo evento ètraducibile in linguaggio insiemistico come "piove oggi" oppure "piove domani" oppure " piove dopodomani"

oppure ...; ovvero l'evento è descritto dall'unione di infiniti eventi, , da cui deriva che per la

definizione di algebra potrebbe essere , quindi non sarebbe un evento che viene considerato nel

nostro modello, il che sembra piuttosto deludente. Per ovviare a ciò si introduce la nozione di sigma-algebra sopraesposta.Dato uno spazio arbitrario e una famiglia di suoi sottoinsiemi è possibile, sempre e in vari modi, estendere lafamiglia sino a renderla una sigma-algebra. La più piccola sigma-algebra contenente la famiglia viene indicatacon e detta sigma-algebra generata dalla famiglia.Le sigma-algebre sono un concetto ampiamente trattato in teoria della misura.

Spazio campionarioL’insieme degli eventi elementari, visti come punti, viene detto spazio campionario. Una sigma-algebra costruitasu di esso viene detta spazio degli eventi.

OsservazioniNell'insieme delle parti di gli elementi sono i sottoinsiemi di . Quindi una famiglia di sottoinsiemi di èun sottoinsieme dell’insieme delle parti di .Un evento è un sottoinsieme di e non un suo elemento. Quindi un evento, in quanto insieme, non appartieneallo spazio campionario (e la scrittura è priva di significato) ma è incluso nello spazio campionario. Diconverso un evento elementare , in quanto punto, appartiene allo spazio campionario e l'evento , insiemecostituito da un singolo punto (e perciò detto singoletto), è incluso nello spazio campionario.Se la cardinalità di è finita allora la -algebra può coincidere con l’insieme delle parti ma non è detto che sianecessario prendere una famiglia di eventi così grande.Ovviamente nulla vieta di prendere come spazio degli eventi proprio l’insieme delle parti. Questo perché nel caso dicardinalità finita è sempre possibile prendere come -algebra l’intero insieme delle parti senza rischiare diincappare in eventi ai quali non è possibile attribuire una probabilità .

Se invece la cardinalità di è infinita non è detto che sia possibile definire . In tale casopuò darsi che scegliere l’insieme delle parti come sigma-algebra non sia una scelta felice: in virtù della terzaproprietà delle sigma-algebre, quando passiamo alla probabilità vengono coinvolte delle serie che non è dettoconvergano.In generale si cerca sempre di scegliere una sigma-algebra che sia piccola: più piccola è meno problemi crea.Il fatto che sia piccola e non coincidente con l’intero insieme delle parti non vuol dire che alcuni eventi elementarirestino esclusi infatti, per definizione di sigma-algebra, possiamo dire che . In altritermini le sigma-algebre definite su sono una copertura di .

Page 14: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Spazio campionario 10

Tipi di spazio campionarioLa scelta dello spazio campionario per un determinato fenomeno aleatorio deve in qualche modo equilibrare lanecessità di essere fedele alla realtà fisica esaminata con la convenienza matematica (vedi osservazioni).In pratica, la maggior parte degli spazi campionari rientra nelle seguenti tipologie:

FinitoI più semplici esperimenti aleatori consistono nel lancio di una moneta o di un dado, o nell'estrazione di una pallinada un'urna. In ogni caso lo spazio campionario sarà un insieme costituito da un numero finito di eventi elementari. Ingenere, ma non necessariamente, essi saranno rappresentati dai primi n numeri interi: piuttostoche .

NumerabileMolti importanti modelli probabilistici, come ad esempio quello poissoniano utilizzato per contare il numero diaccadimenti che si verificano in un intervallo di tempo fissato, si basano su uno spazio campionario numerabile ecoincidente, quindi con tutto o con .

ContinuoSolitamente il modello continuo per eccellenza è la retta reale, come nel caso degli errori di misura nelleosservazioni scientifiche il cui studio sistematico è stato avviato da Karl Friedrich Gauss nel 1809. Altri modelli, utiliper rappresentare i tempi di vita di componenti elettronici, hanno come modello la semiretta reale positiva.

Vettoriale finitoSpesso un esperimento è costituito da una sequenza finita di altri esperimenti come, ad esempio, il lancio di un dadoripetuto n volte. In tale caso, se è lo spazio campionario del singolo lancio, lospazio campionario complessivo sarà dato dal prodotto cartesiano dei singoli spazi:

.Lo spazio campionario del singolo esperimento potrà essere sia finito che numerabile che continuo.

Vettoriale numerabileCome nel caso vettoriale finito con l'unica differenza che la sequenza dei singoli esperimenti non è finita manumerabile dunque: .Tale modello compare, ad esempio, nelle analisi di qualità dei pezzi uscenti da una linea di produzione con

o nella passeggiata aleatoria (random walk) con .

FunzionaleIn alcuni esperimenti aleatori della fisica, gli esiti dell'esperimento sono i percorsi o le traiettorie di una particella inun certo intervallo di tempo. Quindi ogni esito, in questo caso, è una funzione. Tale modello emerge insistentementenei processi stocastici.

Page 15: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Spazio campionario 11

Esempi

Un foglio in pezziPrendiamo un qualsiasi foglio: nella sua interezza rappresenterà il nostro spazio campionario. Le singole particelledel foglio corrisponderanno ai punti dello spazio campionario ovvero agli eventi elementari. Se ora strappiamo inpezzi il foglio, ognuno dei pezzi rappresenterà un evento che, in quanto aggregato di particelle, sarà un sottoinsiemedel foglio originale e, in quanto pezzo, sarà un elemento dell'insieme dei pezzi del foglio (l'insieme delle parti).Osserviamo che un foglio strappato in pezzi costituisce una partizione del foglio originale. I pezzi in cui abbiamostrappato il foglio non esauriscono tutto l'insieme delle parti ma ne costituiscono solo una sua famiglia. Talefamiglia può essere estesa ad una sigma-algebra aggiungendo ad essa anche tutte le possibili composizioni ottenibilicon le operazioni insiemistiche di unione numerabile, intersezione numerabile e complementazione. Ad esempiodovremo aggiungere alla famiglia l'unione di tutti i pezzi (l'intero foglio). Accanto ad ogni pezzo della famigliadovremo aggiungere il suo complementare (ovvero l'unione di tutti gli altri pezzi). E via dicendo. Notiamo chequesto procedimento ci conduce ad una sigma-algebra ma non all'insieme delle parti. Per arrivare all'insieme delleparti dovremmo ripetere il procedimento anche per tutti gli altri modi in cui possiamo strappare il foglio originale.

Lancio di un dado equilibratoConsideriamo un esperimento che consiste nel lanciare un comune dado (un cubo le cui facce sono numerate da 1 a6) su una superficie piana dotata di attrito e delimitata da pareti atte a contenere il movimento del dado (ovvero unascatola!) e supponiamo che il dado sia bilanciato (ovvero che la sua distribuzione di massa sia uniforme e nonprivilegi una faccia rispetto alle altre).Gli esiti di tale esperimento sono misurabili. Infatti, spesa la sua energia, il dado si fermerà inesorabilmentepoggiando sulla superficie una delle sue facce e mostrando, quindi, all'esperimentatore la faccia opposta a quella diappoggio.Il numero impresso sulla faccia esposta potrà essere utilizzato per rappresentare l'esito dell'esperimento che,complessivamente, avrà sei possibili esiti distinti (tanti quanti le facce del dado). Codificheremo tali esiti con i primisei numeri interi.Allora gli eventi elementari saranno i primi sei numeri interi e lo spazio campionario associato a questoesperimento sarà che ha cardinalità evidentemente finita.Poiché ogni evento è un sottoinsieme dello spazio campionario ovvero un elemento dell'insieme delle parti di ci

sono possibili eventi tra i quali, ovviamente, l'insieme vuoto, l'intero , i sei singoletti, le possibili

coppie, i pari e via dicendo.La scelta della -algebra da usare dipende dagli obiettivi. Se, ad esempio, siamo interessati a calcolare laprobabilità che esca un numero pari, gli unici eventi di interesse saranno A="è uscito un pari" e il suocomplementare. La più piccola sigma-algebra contenente l'evento A sarà: . Non è l'unica ma, tratutte le sigma algebre contenenti l'evento A, è la più piccola dunque quella che genera meno lavoro e meno problemi.

Page 16: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Spazio campionario 12

Sigma-algebra di Borel su

Questo esempio non è intuitivo ma è qui riportato perché celebre, perché riveste un ruolo fondamentale in gran partedella teoria della probabilità e perché nonostante la sua semplicità (è sufficiente investigare su un numero infinito dilanci di una moneta per incappare in una sigma-algebra di Borel) ha messo in crisi la teoria classica della probabilitàrichiedendone la rivisitazione assiomatica di Kolmogorov.

Sia l'intervallo reale unitario aperto a sinistra e chiuso a destra. Sia, inoltre la famiglia degliintervalli di , della forma con .

Consideriamo, inoltre, tutte le unioni finite e disgiunte di tali intervalli: .

Aggiungiamo infine anche l'insieme vuoto.La famiglia così ottenuta è nota come algebra di Borel. Nonostante tale famiglia sia assai numerosa, ancora nonabbiamo a che fare con una sigma-algebra. Ad esempio sono esclusi dalla famiglia i singoletti che, in virtùdella proprietà 3', dovrebbero invece essere presenti in quanto ognuno è intersezione numerabile di insiemi dellafamiglia:

A questo punto è facile immagine Emile Borel, colto da sensi di colpa per aver abbandonato il piano astratto e avertentato di costruire la sua sigma-algebra elemento per elemento, si rifugia in un buio sgabuzzino urlando da dietro laporta: "la sigma-algebra esiste e non è banale!" (ovvero non coincide con l'insieme delle parti di ).Che non coincida con lo ha già appurato Borel e noi abbiamo appena visto che i singoletti appartengono a ma non a . Per scoprire un sottoinsieme di non contenuto in e quindi dare conforto all'ipotesi del disperato Borel bisognerà attendere Giuseppe Vitali.

Costruzione di una sigma-algebraRiprendiamo ancora l'esempio del lancio di un dado. Abbiamo già visto che se siamo interessati a valutare laprobabilità che esca pari dovremo considerare l'evento A={è uscito pari}. Ma A preso singolarmente non basta. Percompletare la nostra partizione basterà aggiungere ad A il suo complementare. Ora è una partizione.

Qualcuno potrebbe ribattere: ma anche è una partizione. E anchelo è.

Certo. Ma la prima non ci serve a nulla perché non distingue tra pari e dispari mentre la seconda distingue troppo:che ci importa sapere se il dispari uscito è 1 o 3 o 5 ?

è la migliore partizione rispetto al problema in esame.

Tra l'altro questo, come abbiamo già visto, è uno dei rarissimi casi in cui costruire la sigma-algebra non è reato (otentato suicidio).Se, per qualche motivo, dobbiamo esaminare tutte e sei le possibili configurazioni allora la partizione che dovremocostruire sarà la più fine possibile: . Una volta assegnato questo spaziocampionario, per generare la sua sigma-algebra si considerano tutte le possibili unioni tra i suoi elementi e i lorocomplementari (ragionamento valido per ogni insieme finito). Ad esempio quindi la sigma-algebra conterrà:

Il grosso vantaggio nel lavorare solo con la giusta partizione diventa chiaro in fase di assegnazione di una misura diprobabilità.

Page 17: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Spazio campionario 13

Bibliografia• P. Halmos (1950): Measure theory, D. van Nostrand and Co.• P. Billingsley (1995): Probability and Measure, John Wiley & Sons• A. F. Karr (1993): Probability, Springer-Verlag

Voci correlate•• Misura di probabilità•• Spazio di probabilità•• Variabile casuale

Teoria della probabilitàLa teoria della probabilità è lo studio matematico della probabilità.I matematici si riferiscono alle probabilità come a numeri nell'intervallo da 0 a 1, assegnati ad "eventi" la cuiricorrenza è casuale. Le probabilità sono assegnate ad eventi secondo gli assiomi della probabilità.La probabilità che un evento avvenga dato il verificarsi noto di un evento è la probabilità condizionata di dato ; il suo valore numerico è (finché è diverso da zero). Se la probabilitàcondizionale di dato è la stessa della probabilità ("non condizionale") di , allora ed sono dettieventi indipendenti. Che questa relazione tra and sia simmetrica, può essere visto più chiaramente osservandoche è la stessa cosa che dire .Due concetti cruciali nella teoria della probabilità sono quelli di variabile casuale e di distribuzione probabilistica diuna variabile casuale. In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio neltempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzionedi probabilità e dei suoi parametri di media o valore atteso e varianza.

Una visione astratta della probabilitàI matematici ritengono che la teoria della probabilità sia lo studio di uno spazio astratto di probabilità (su cui sono adesempio definite le variabili casuali o aleatorie), un approccio introdotto da Kolmogorov nel 1930 (anche dettoapproccio assiomatico). Uno spazio di probabilità è una terna , dove:• è un insieme non vuoto, a volte chiamato spazio campionario, ognuno dei cui membri si può pensare come un

potenziale risultato di un esperimento casuale. Per esempio, se 100 votanti devono essere estratti a caso tra tutti ivotanti di un insieme e ad essi viene chiesto per chi voteranno, allora l'insieme di tutte le sequenze dei 100 votantisarebbe lo spazio campionario .

• è una sigma-algebra di insiemi di i cui elementi sono chiamati eventi. Per esempio, l'insieme di tutte lesequenze di 100 elettori di cui almeno 60 voteranno per un certo candidato viene identitificato con l'"evento" chealmeno 60 dei 100 elettori estratti voteranno in quel dato modo. Dire che F è una sigma-algebra implicanecessariamente che il complemento di ogni evento è un evento, e l'unione di ogni sequenza (finita o infinitanumerabile) di eventi è un evento.

• P è una misura della probabilità in F, cioè una misura tale per cui P(Ω) = 1.È importante notare che P è definita in F e non in Ω. Con Ω numerabile possiamo definire F := insieme dipotenza(Ω) che è banalmente una sigma-algebra ed il più grande che si possa creare usando Ω. In uno spazio discretopossiamo quindi omettere F e scrivere solo (Ω, P) per definirlo.

Page 18: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoria della probabilità 14

Se d'altra parte Ω è non numerabile e si usa F = insieme di potenza(Ω) cadiamo nella difficoltà di definire la nostramisura di probabilità P perché F è 'immenso'. Quindi dobbiamo usare una sigma-algebra F più piccola (per esempiol'algebra di Borel di Ω). Si definisce questo tipo di spazio probabilistico uno spazio probabilistico continuo e ci portaalcuni problemi nella teoria della misura quando proviamo a definire P.Una variabile casuale è una funzione misurabile da Ω nei reali. Per esempio, il numero di elettori che voteranno perun dato candidato nel campione di 100 dell'esempio precedente è una variabile casuale.Se X è una variabile casuale, l'insieme { ω in Ω : X(ω) ≥ 60 } è un "evento", e la notazione P(X ≥ 60) èun'abbreviazione di P({ ω in Ω : X(ω) ≥ 60 }).Per una alternativa algebrica all'approccio di Kolmogorov, vedi algebra delle variabili casuali.

Filosofia delle applicazioni della probabilitàAlcuni statistici assegneranno delle probabilità solo agli eventi che si pensano essere casuali, in base alle lorofrequenze relative, o a sottoinsiemi di popolazione in relazione al tutto; questi sono frequentisti. Altri assegnanoprobabilità a proposizioni incerte o secondo gradi soggettivi di confidenza nella loro verità, o a livelli logicamentegiustificabili di confidenza nella loro verità. Tali persone sono Bayesiani. Un Bayesiano può assegnare unaprobabilità alla proposizione che c'era vita su Marte un miliardo di anni fa, dal momento che questo è incerto; unfrequentista non assegnerebbe una probabilità a tale proposizione, poiché non si tratta di un evento casuale che abbiauna frequenza relativa a lungo termine.

Voci correlate•• Probabilità•• Misura di probabilità•• Funzione di probabilità•• Valore atteso•• Evento•• Assiomi della probabilità• Variabile casuale, distribuzione di probabilità•• Indipendenza statistica•• Criterio di Kelly

Bibliografia• Billingsley Patrick, Probability and measure, 3rd ed., John Wiley & Sons, New York 1995, ISBN 0-471-00710-2.• Jeffreys Harold (1939) The Theory of Probability• Kolmogorov Andrey N. (1933) Grundbegriffe der Wahrscheinlichkeitrechnung.• Laplace, Pierre S. (1812) Theorie Analytique des Probabilités.• Nelson Edward (1987) Radically Elementary Probability Theory• Yuri A. Rozanov (1995) Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN

0-7923-3764-6

Page 19: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoria della probabilità 15

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/Category:Probability theory

Indipendenza stocasticaNell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi diuno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P(A | B) oppureP(B | A) è pari rispettivamente a P(A) e P(B)

P(A | B) = P(A)P(B | A) = P(B)

queste due condizioni si possono sintetizzare con la formulaP(A ∩ B) = P(A) · P(B).

In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si èverificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando vienelanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti.Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sonoindipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazionecirca il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che vienelanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ognicoppia di eventi B, B' risulta

P(X ∈ B ∩ Y ∈ B' ) = P(X ∈ B) · P (Y ∈ B' )Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le duefunzioni di ripartizione marginali, allora per ogni x,y vale che

F(x,y)=fX(x) · fY(y)Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X èrispettivamente una variabile casuale continua o una variabile casuale discreta:

f(x,y)=fX(x)· fY(y)e

p(x,y)=pX(x)· pY(y)

GeneralizzazioniNell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente.Sia uno spazio di probabilità, e sia una famiglia arbitraria (finita o non finita) di σ-algebrecontenute in : . Esse si dicono indipendenti rispetto a se, per ogni sottoinsieme finito

di , e per ogni sottoinsieme , accade:

.

Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi e , dove, dato un insieme misurabile , è la σ-algebra da esso generata: .Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi

Page 20: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Indipendenza stocastica 16

elementi a due a due. Ad esempio, dati tre insiemi , sapendo che e , e , e sono indipendenti, non se ne può dedurreche:

.

Voci correlate•• probabilità•• probabilità condizionata•• Mark Kac•• Hugo Steinhaus•• Paradosso del compleanno

Teorema della probabilità compostaIl teorema della probabilità composta deriva dal concetto di probabilità condizionata

per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventimoltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo.Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità:

A volte la probabilità congiunta viene anche indicata con

Voci correlate•• probabilità•• probabilità condizionata•• teorema della probabilità assoluta•• teorema di Bayes

Page 21: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema della probabilità assoluta 17

Teorema della probabilità assolutaIn teoria della probabilità il teorema della probabilità assoluta afferma che se formano unapartizione dello spazio campionario di tutti gli eventi possibili (ossia e )e è un qualsiasi evento (dipendente dagli eventi ), allora:

DimostrazioneLa dimostrazione di questo risultato segue immediatamente dal fatto che:

dunque, per l'additività della probabilità, essendo gli eventi a due a due incompatibili:

Ma poiché, in base alla definizione di probabilità condizionata: , si ha:

come volevasi dimostrare.

Voci correlate•• teorema della probabilità composta•• teorema di Bayes

Page 22: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità condizionata 18

Probabilità condizionataIn teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che siverifichi A, sapendo che B è verificato. Questa probabilità, indicata o , esprime una "correzione"delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilità non nulla di verificarsi.)

EsempioPer esempio, la probabilità di ottenere "4" con il lancio di un comune dado (evento A) ha probabilità P(A)=1/6 diverificarsi. Sapendo però che il risultato del lancio è un numero tra "4", "5" e "6" (evento B), la probabilità di Adiventa

.

DefinizioneLa probabilità di A condizionata da B è

,

dove è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi.In termini più rigorosi, dato uno spazio misurabile di misura P, ogni evento B eredita una struttura di spaziomisurato , restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura

su , con . Se è uno spazio probabilizzato () e B non è trascurabile ( ), allora riscalando a si ottiene lo spazio

probabilizzato delle probabilità condizionate da B.

ProprietàLa formula della probabilità condizionata permette di descrivere la probabilità congiunta come

Ovvero, la probabilità che si verifichino sia A che B è pari alla probabilità che si verifichi B moltiplicata per laprobabilità che si verifichi A supponendo che B sia verificato.Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti

• ;• ;• .

Casi particolari

Se A e B sono eventi disgiunti, cioè se , le loro probabilità condizionate sono nulle: sapendo che unodei due eventi si è verificato, è impossibile che si sia verificato anche l'altro.Se l'evento A implica l'evento B, cioè se , allora la loro intersezione è A, per cui e:

• (A implica B);

• (B è necessario per A).

Page 23: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Probabilità condizionata 19

Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P(A|B) esprime ladefinizione classica di probabilità come "casi favorevoli (A) su casi possibili (B)".Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso latocome la certezza che il tutto. sia condizionato dalla parte.

Ulteriori definizioni

La speranza condizionata di una variabile aleatoria X ad un evento B è la speranza di X calcolata sulleprobabilità (condizionate da B).La probabilità di un evento A può essere condizionata da una variabile aleatoria discreta X, originando una nuovavariabile aleatoria, , che per X=x assume il valore .

ApplicazioniIl teorema di Bayes esprime l'uguaglianza simmetrica del teorema dellaprobabilità composta come

.Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P è detta "probabilità a priori di B" e PB"probabilità a posteriori di 'B".

ParadossiMolti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema siadalla confusione di P(A|B) con P(A) o con P(B|A).Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e ilparadosso di Simpson.

Voci correlate•• Probabilità congiunta•• Indipendenza (probabilità)•• Inferenza bayesiana•• Teorema di Bayes•• Teorema della probabilità composta•• Valore atteso condizionato

Bibliografia• Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6

Page 24: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema di Bayes 20

Teorema di BayesIl teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), propostoda Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e ilteorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l'eventoverificato. Per esempio si può calcolare la probabilità che una certa persona soffra della malattia per cui ha eseguitoil test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa non sia affetta da tale malattia (nel casoin cui il test sia risultato positivo), conoscendo la frequenza con cui si presenta la malattia e la percentuale diefficacia del test diagnostico. Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. Inogni caso, l'importanza di questo teorema per la statistica è tale che la divisione tra le due scuole (statistica bayesianae statistica frequentista) nasce dall'interpretazione che si dà al teorema stesso.

Enunciato del teorema di BayesConsiderando un insieme di alternative (partizione dello spazio degli eventi) si trova la seguenteespressione per la probabilità condizionata:

Dove:• P(A) è la probabilità a priori o probabilità marginale di A. "A priori" significa che non tiene conto di nessuna

informazione riguardo E.• P(A|E) è la probabilità condizionata di A, noto E. Viene anche chiamata probabilità a posteriori, visto che è

derivata o dipende dallo specifico valore di E.•• P(E|A) è la probabilità condizionata di E, noto A.• P(E) è la probabilità a priori di E, e funge da costante di normalizzazione.Intuitivamente, il teorema descrive il modo in cui le opinioni nell'osservare A siano arricchite dall'aver osservatol'evento E.

Un esempioSi consideri una scuola che ha il 60% di studenti maschi e il 40% di studentesse femmine.Le studentesse indossano in egual numero gonne o pantaloni; gli studenti indossano tutti quanti i pantaloni. Unosservatore, da lontano, nota un generico studente coi pantaloni. Qual è la probabilità che quello studente sia unafemmina?Il problema può essere risolto con il teorema di Bayes, ponendo l'evento A che lo studente osservato sia femmina, el'evento B che lo studente osservato indossi i pantaloni. Per calcolare P(A|B), dovremo sapere:• P(A), ovvero la probabilità che lo studente sia femmina senza nessun'altra informazione. Dato che l'osservatore

vede uno studente a caso, ciò significa che tutti gli studenti hanno la stessa probabilità di essere osservati.Essendo le studentesse il 40% del totale, la probabilità risulterà 2/5.

•• P(A'), ovvero la probabilità che lo studente sia maschio senza nessun'altra informazione. Essendo A' l'eventocomplementare di A, risulta 3/5.

•• P(B|A), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è femmina. Poichéindossano gonne e pantaloni in egual numero, la probabilità sarà di 1/2.

•• P(B|A'), ovvero la probabilità che uno studente indossi i pantaloni, noto che lo studente è maschio. Tutti glistudenti maschi indossano i pantaloni, quindi vale 1.

Page 25: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema di Bayes 21

•• P(B), ovvero la probabilità che uno studente qualsiasi (maschio o femmina) indossi i pantaloni. Poiché il numerodi coloro che indossa i pantaloni è di 80 (60 maschi + 20 femmine) su 100 studenti fra maschi e femmine, laprobabilità P(B) è di 80/100 = 4/5.

Ciò detto, possiamo applicare il teorema:

C'è pertanto 1/4 di probabilità che lo studente sia femmina cioè 25%.[1]

Derivazione del teorema

Teorema di Bayes.

Il problema deriva dalla definizione di probabilità condizionata. Laprobabilità di un evento A, noto un evento B, risulta:

In modo analogo, la probabilità di un evento B noto un evento A:

Pertanto:

Sostituendo nella prima uguaglianza, si trova il teorema di Bayes:

Applicazioni

Applicazione al Problema di Monty HallSi supponga di partecipare a un gioco a premi, in cui si può scegliere fra tre porte: dietro una di esse c'èun'automobile, dietro le altre, due capre. Si sceglie una porta, diciamo la numero 1, e il conduttore del gioco a premi,che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi domanda:«Vorresti scegliere la numero 2? «Ti conviene cambiare la tua scelta originale?»Si potrebbe pensare che, con due porte chiuse, si abbia una probabilità 50:50 per ognuna, e che quindi non ci siamotivo di cambiare porta. Non è questo il caso. Chiamiamo l'evento che la macchina si trovi dietro una certa portarispettivamente A

1, A

2, e A

3.

All'inizio, è ovvio che:

Come detto prima, la porta scelta è la numero 1. Chiameremo allora B l'evento "il presentatore apre la porta 3". Lasua probabilità a priori sarà del 50%, e quindi . Ora:• Nel caso in cui la macchina sia dietro la porta 1, il presentatore sarà libero di scegliere la porta 2 o 3 casualmente.

Pertanto, • Nel caso in cui la macchina sia dietro la porta 2, il presentatore sarà obbligato ad aprire la porta 3. Pertanto

• Nel caso in cui la macchina sia dietro la porta 3, il presentatore sarà obbligato ad aprire la porta 2. Pertanto

Page 26: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema di Bayes 22

Da cui:

Da ciò è evidente che si deve sempre cambiare con la porta 2.

Filtri bayesianiI filtri bayesiani sono uno strumento utilizzato per combattere lo spam che deve il suo funzionamento proprio alteorema di Bayes. Un filtro bayesiano fa uso di un classificatore bayesiano per riconoscere se una certa sequenza disimboli (come una parola) si presenta spesso nei messaggi di spam, quindi applica l'inferenza bayesiana per calcolarela probabilità che un determinato messaggio sia spam.

Cenni storiciIl teorema si chiama così in onore del reverendo Thomas Bayes (1702–1761), il quale studiò come calcolare unadistribuzione per il parametro di una distribuzione binomiale. Un suo amico, Richard Price, pubblicò il lavoro nel1763, dopo la morte di Bayes, nell'articolo Essay Towards Solving a Problem in the Doctrine of Chances. Alcunianni dopo (nel 1774) viene formulato da Pierre Simon Laplace che probabilmente non era a conoscenza del lavoro diBayes.Una ricerca da parte di un professore di statistica (Stigler, 1982) sembrerebbe suggerire che il teorema di Bayes siastato scoperto da Nicholas Saunderson anni prima di Bayes.

Note[1][1] La verifica dell'esattezza del risultato, in questo semplice esempio, è immediata se si ricorre alla semplice definizione di "probabilità di un

evento" = "numero dei casi favorevoli all'evento/numero dei casi possibili". Il numero dei casi possibili, indossando lo studente (o studentessa)osservato i pantaloni, è di 80 (60 maschi + 20 femmine) mentre quello dei casi favorevoli (cioè le femmine che indossano pantaloni) è 20,quindi la probabilità che si tratti di una femmina è 20/80 cioè 1/4 c.v.d.

Bibliografia

Versioni saggistiche• Thomas Bayes (1763), An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr.

Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S., Philosophical Transactions,Giving Some Account of the Present Undertakings, Studies and Labours of the Ingenious in Many ConsiderableParts of the World, 53:370–418.

• Thomas Bayes (1763/1958), Studies in the History of Probability and Statistics: IX. Thomas Bayes' EssayTowards Solving a Problem in the Doctrine of Chances, Biometrika 45:296–315. (Bayes' essay in modernizednotation).

Page 27: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema di Bayes 23

Commenti• G. A. Barnard, Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a

Problem in the Doctrine of Chances, Biometrika 45:293–295, 1958• Daniel Covarrubias, An Essay Towards Solving a Problem in the Doctrine of Chances (http:/ / www. stat. rice.

edu/ ~blairc/ seminar/ Files/ danTalk. pdf).• Stephen M. Stigler, Thomas Bayes' Bayesian Inference, Journal of the Royal Statistical Society, Series A,

145:250–258, 1982• Isaac Todhunter, A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace,

Macmillan, 1865. Ristampa 1949, 1956 by Chelsea e 2001 by Thoemmes.

Voci correlate•• Probabilità•• Probabilità condizionata•• Teorema della probabilità composta•• Teorema della probabilità assoluta•• Paradosso dei corvi•• Problema di Monty Hall•• Paradosso delle tre carte•• Paradosso dei due bambini•• Inferenza bayesiana•• Thomas Bayes•• Pierre Simon Laplace•• Diagnosi

Page 28: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

24

Rapporti agili

Distribuzione discretaIn teoria delle probabilità una distribuzione discreta è una distribuzione di probabilità definita su un insiemediscreto S. In particolare questo insieme può essere finito oppure numerabile (i suoi elementi possono essere elencatitramite i numeri naturali: ).Una variabile aleatoria (o stocastica, o casuale dall'inglese random) è discreta se segue una distribuzione diprobabilità discreta.Se l'insieme S è contenuto nei numeri reali, si può definire la funzione di ripartizione della distribuzione, che assumevalori su S; se viene rappresentata su tutti numeri reali allora acquista la forma di una funzione a gradini, costantesugli intervalli semiaperti .Particolari distribuzioni discrete di probabilità sono:• la distribuzione discreta uniforme,• la distribuzione binomiale,• la distribuzione di Bernoulli,• la distribuzione di Poisson (o degli eventi rari),• la distribuzione geometrica,• la distribuzione di Pascal,• la distribuzione ipergeometrica,• la distribuzione di Wilcoxon,• la distribuzione di Benford (o della prima cifra),• la distribuzione del test di Kolmogorov-Smirnov,• la distribuzione di Spearman,• la distribuzione di Rademacher.

Un caso particolare è la distribuzione degenere su un solo elemento: e .Anche le distribuzioni su più dimensioni (multivariate) possono essere discrete, come la distribuzione multinomiale.

Tabella delle distribuzioni discrete comuniLa tabella seguente riassume le proprietà delle distribuzioni discrete più comuni, si intende e

Page 29: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione discreta 25

Distribuzione Parametri Supporto Funzione di densità Valore atteso Varianza

Bernoulliana

Uniforme

Geometrica

Binomiale

di Pascal

Ipergeometrica

Voci correlate•• Distribuzione di probabilità•• Funzione di ripartizione

Distribuzione discreta uniforme

Distribuzione discreta uniforme su elementi in progressione aritmetica

Funzione di distribuzione discreta

Page 30: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione discreta uniforme 26

Funzione di ripartizione

Parametri estremi dellaprogressione

elementi nella progressioneSupporto

Funzione di densità su

Funzione di ripartizione per

Valore atteso

Mediana

Moda

Varianza

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria delle probabilità una distribuzione discreta uniforme è una distribuzione di probabilità discreta che èuniforme su un insieme, ovvero che attribuisce la stessa probabilità ad ogni elemento dell'insieme discreto S su cui èdefinita (in particolare l'insieme dev'essere finito).Un esempio di distribuzione discreta uniforme è fornito dal lancio di un dado equilibrato: ognuno dei valori 1, 2, 3,4, 5 e 6 ha eguale probabilità 1/6 di verificarsi.Questa distribuzione di probabilità è quella che fornisce la classica definizione di probabilità "casi favorevoli su casipossibili": la probabilità di un evento è data dal rapporto tra le cardinalità dei due insiemi,

Page 31: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione discreta uniforme 27

DefinizioneLa distribuzione discreta uniforme su un insieme finito S è la distribuzione di probabilità che attribuisce atutti gli elementi di S la stessa probabilità p di verificarsi.In particolare, dalla relazione

seguono

per ogni elemento ,

per ogni sottoinsieme .

Progressione aritmeticaSpesso viene considerata la distribuzione discreta uniforme su un insieme S i cui elementi sono in progressionearitmetica, ovvero del tipo

.In questo caso l'insieme S può essere descritto come un insieme di n elementi in progressione aritmetica, da a a b,con elementi della forma

,

con e .In questo modo la distribuzione discreta uniforme diventa una sorta di approssimazione della distribuzione continuauniforme sull'intervallo

Caratteristiche

La distribuzione è simmetrica rispetto al punto medio del segmento . Una variabilealeatoria U con questa distribuzione ha quindi speranza e indice di asimmetria .Inoltre ha•• varianza

,

•• curtosi

,

•• funzione generatrice dei momenti

•• entropia

(il massimo valore possibile per una distribuzione su n elementi).

Page 32: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione discreta uniforme 28

Altre distribuzioniIl parallelo della distribuzione discreta uniforme tra le distribuzioni di probabilità continue è la distribuzionecontinua uniforme: una distribuzione definita su un insieme continuo S, che attribuisce la stessa probabilità a dueintervalli della stessa lunghezza, contenuti in S, ovvero la cui densità di probabilità assume un valore costante su S.

Distribuzione su due valori

La distribuzione di Bernoulli con è una distribuzione discreta uniforme: i due valori 0 e 1 hannoentrambi probabilità

.

Ogni altra distribuzione discreta uniforme su due valori a e b può essere espressa tramite una variabile aleatoria Xcon distribuzione di Bernoulli , considerando la variabile aleatoria .

La distribuzione discreta uniforme sui due valori 1 e -1 è anche detta distribuzione di Rademacher, dal matematicotedesco Hans Rademacher; al pari di altre distribuzioni su due valori, viene utilizzata nel metodo bootstrap per ilricampionamento dei dati.

Voci correlate•• Distribuzione di probabilità•• Distribuzione discreta•• Distribuzione continua uniforme•• Progressione aritmetica

Collegamenti esterni(EN) Eric W. Weisstein, Distribuzione discreta uniforme [1] su MathWorld.

Note[1] http:/ / mathworld. wolfram. com/ DiscreteUniformDistribution. html

Page 33: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Bernoulli 29

Distribuzione di Bernoulli

Distribuzione di Bernoulli

Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

Supporto

Funzione di densità

Funzione di ripartizione

Valore atteso

Mediana

Moda

Varianza

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria delle probabilità la distribuzione di Bernoulli (o bernoulliana) è una distribuzione di probabilità su duesoli valori, 0 e 1, detti anche fallimento e successo. Prende il nome dallo scienziato svizzero Jakob Bernoulli(1654-1705).

DefinizioneLa distribuzione di Bernoulli di parametro è

Altre leggiUn processo di Bernoulli è una serie di variabili aleatorie indipendenti Xi di uguale distribuzione di Bernoulli B(p),dette prove di Bernoulli.La distribuzione binomiale descrive il numero di successi in n prove, ovvero la variabile aleatoria

.La distribuzione geometrica e più in generale la distribuzione di Pascal descrivono il tempo del primo e del k-esimosuccesso, ovvero le variabili aleatorie e per cui

Page 34: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Bernoulli 30

Voci correlate•• Distribuzione binomiale•• Distribuzione geometrica•• Distribuzione di Pascal•• Distribuzione di probabilità•• Processo di Bernoulli

Processo di BernoulliIn teoria delle probabilità un processo di Bernoulli è un particolare processo aleatorio discreto, ovvero una famiglianumerabile (X1, X2, ...) di variabili aleatorie indipendenti aventi la medesima legge di Bernoulli B(p).Un processo di Bernoulli può essere considerato come una sequenza infinita di lanci di una moneta (non truccata).Ogni singolo lancio è detto prova di Bernoulli.In particolare, essendo le variabili indipendenti, vale la mancanza di memoria: la probabilità di una prova diBernoulli non è influenzata dal risultato delle precedenti (che quindi non possono fornire alcuna informazione sullanuova prova).

Variabili aleatorieOgni singola variabile aleatoria Xi può fornire due soli risultati: il successo (1) o il fallimento (0), con rispettiveprobabilità p e q=1-p:

Il numero di successi dopo n prove è dato dalla variabile aleatoria,

che segue la legge binomiale B(p,n), con probabilità

pari al numero di sequenze di k successi e n-k fallimenti, moltiplicato per la probabilità che una qualunque di questesi verifichi.Il numero di lanci necessari per ottenere un successo è dato da una variabile aleatoria N che segue la leggegeometrica di rapporto q:

.

Più in generale, il numero di lanci necessari per ottenere k successi è dato da una variabile aleatoria Nk di legge

;

in particolare, il numero di fallimenti è dato dalla variabile aleatoria Pk = Nk-n, di legge di Pascal (o binomialenegativa) P(p,k)

.

Page 35: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Processo di Bernoulli 31

ApplicazioniIn statistica un processo di Bernoulli (a tempo finito) viene utilizzato come modello per il campione di unapopolazione della quale si vuole determinare la proporzione p che verifica una certa proprietà.Ogni processo di Bernoulli (con p qualunque) può venire utilizzato per originare, tramite l'estrazione di VonNeumann, un nuovo processo di Bernoulli le cui prove seguono la legge B(1/2). Questo metodo è particolarmenteutilizzato nella teoria della complessità computazionale e prevede di raggruppare le originali prove di Bernoulli acoppie successive; se i due elementi sono diversi si prende il valore del primo, mentre se sono uguali la coppia vienescartata, come ad esempio:

11 10 11 01 01 01 00 11 01 01 01 01 01 10 10 11 00 10 10 10 11 01 01 00 10 10

1 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 1 1

Questo metodo sfrutta l'uguaglianza delle probabilità

;e siccome 2pq è al più 1/2, la lunghezza della stringa finale risulta mediamente essere lunga non più di un quartodella stinga iniziale.

Funzione di BernoulliUn processo di Bernoulli può essere interpretato come una misura sullo spazio di Morse delle successioni di 0 e 1, osull'intervallo [0,1] dei numeri reali in base binaria (la successione è la loro espressione decimale). In particolare, perp=1/2 si ottiene una misura uniforme.Poiché ogni prova ha uno o due possibili risultati, una sequenza di tentativi può essere rappresentata dalle cifrebinarie di un numero reale. Quado la probabilità p = 1/2, tutte le possibili distribuzioni sono ugualmente verosimili, ,e quindi la misura della σ-algebra del processo di Bernoulli è equivalente alla misura uniforme nell'intervallounitario: in altre parole, i numeri reali sono uniformemente distribuiti sull'intervallo unitario.L'operatore di shift che mangia la prima cifra, mandando ogni cifra nella precedente (

) equivale quindi alla moltiplicazione per 2 modulo 1, o funzione diBernoulli, ( , dove {2α} è la parte frazionaria di 2α).La mappa di Bernoulli è un modello esattamente risolubile di caos deterministico. L'operatore di trasferimento, ooperatore di Rouelle, di quest'applicazione è risolubile: i suoi autovalori sono potenze di 1/2 e le sue autofunzionisono i polinomi di Bernoulli.

GeneralizzazioniLa generalizzazione del processo di Bernoulli nel caso multinomiale (più di due possibili risultati) è chiamataschema di Bernoulli.

Bibliografia• Carl W. Helstrom, Probability and Stochastic Processes for Engineers, (1984) Macmillan Publishing Company,

New York ISBN 0-02-353560-1.• Dimitri P. Bertsekas and John N. Tsitsiklis, Introduction to Probability, (2002) Athena Scientific, Massachusetts

ISBN 1-886529-40-X• Pierre Gaspard, "r-adic one-dimensional maps and the Euler summation formula", Journal of Physics A, 25

(letter) L483-L485 (1992). (Describes the eigenfunctions of the transfer operator for the Bernoulli map)

Page 36: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Processo di Bernoulli 32

• Dean J. Driebe, Fully Chaotic Maps and Broken Time Symmetry, (1999) Kluwer Academic Publishers, DordrechtNetherlands ISBN 0-7923-5564-4 (Chapters 2, 3 and 4 review the Ruelle resonances and subdynamics formalismfor solving the Bernoulli map).

Voci correlate•• Processo aleatorio•• Variabile casuale di Bernoulli•• Variabile aleatoria binomiale•• Variabile casuale geometrica•• Variabili indipendenti•• processo di Levy

Distribuzione binomiale

Distribuzione binomiale

Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

Supporto

Page 37: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione binomiale 33

Funzione di densità

Funzione di ripartizione(funzione Beta incompleta regolarizzata)

Valore atteso

Mediana tra e (non precisa)

Moda se

Varianza

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria della probabilità la distribuzione binomiale è una distribuzione di probabilità discreta che descrive ilnumero di successi in un processo di Bernoulli, ovvero la variabile aleatoria chesomma n variabili aleatorie indipendenti di uguale distribuzione di Bernoulli B(p).Esempi di casi di distribuzione binomiale sono i risultati di una serie di lanci di una stessa moneta o di una serie diestrazioni da un'urna (con reintroduzione), ognuna delle quali può fornire due soli risultati: il successo conprobabilità p e il fallimento con probabilità q=1-p.

DefinizioneLa distribuzione binomiale è caratterizzata da due parametri:• : la probabilità di successo della singola prova di Bernoulli Xi (0 < p < 1).• : il numero di prove effettuate.

Per semplicità di notazione viene solitamente utilizzato anche il parametro , che esprime la probabilitàdi fallimento per una singola prova.La distribuzione di probabilità è:

cioè ogni successione con k successi e n-k insuccessi ha probabilità , mentre il numero di questesuccessioni, pari al numero di modi (o combinazioni) in cui possono essere disposti i k successi negli n tentativi, èdato dal coefficiente binomiale .

La formula del binomio di Newton mostra come la somma di tutte le probabilità nella distribuzione sia uguale ad 1:

Page 38: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione binomiale 34

EsempioPer calcolare la probabilità di ottenere con 5 lanci di un dado (equilibrato a 6 facce) esattamente 3 volte "4", bastaconsiderare i lanci come un processo di Bernoulli.Ogni singola prova ha probabilità p=1/6 di ottenere "4" (successo) e probabilità q=5/6 di non ottenerlo (insuccesso).Il numero di successi con 5 prove è allora descritto da una variabile aleatoria S5 di legge B(5,1/6).La probabilità di ottenere esattamente 3 volte "4" con 5 lanci (e 2 volte "non 4") è

CaratteristicheSiccome la distribuzione binomiale B(n,p) descrive una variabile aleatoria Sn definita come la somma di n variabilialeatorie indipendenti Xi di uguale legge di Bernoulli B(p), molte caratteristiche di Sn possono essere ricavate daquelle di X:• il valore atteso

• la varianza

• la funzione generatrice dei momenti

• la funzione caratteristica

• il coefficiente di skewness

• il coefficiente di curtosi

La moda di si ottiene confrontando le probabilità successive . Se è un numerointero allora e la moda non è unica; se invece non è un interoallora la moda è pari alla sua parte intera .Non esistono formule precise per la mediana di , che tuttavia dev'essere compresa tra le parti intere inferiore esuperiore di , e . Se è un intero allora la mediana è . Se la funzione di ripartizioneassume il valore (ad esempio per ed dispari) allora tutti i valoridell'intervallo possono essere presi come mediana.

Page 39: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione binomiale 35

Altre distribuzioni di probabilitàLa distribuzione di Bernoulli B(p) può essere considerata come un caso particolare di distribuzione binomiale B(p,1),che descrive un processo di Bernoulli con una sola prova: S1=X1.I successi in una sequenza di estrazioni da un'urna, effettuate senza reintroduzione degli estratti, sono descritti da unavariabile aleatoria che segue la legge ipergeometrica.

ConvergenzePer valori di n sufficientemente grandi la legge binomiale è approssimata da altre leggi.Quando n tende a infinito, lasciando fisso λ=np, la distribuzione binomiale tende alla distribuzione di PoissonP(λ)=P(np). In statistica quest'approssimazione viene solitamente accettata quando n ≥ 20 e p ≤ 1/20, oppure quandon ≥ 100 e np ≤ 10.Per il teorema del limite centrale, quando n tende a infinito, lasciando fisso p, la distribuzione binomiale tende alladistribuzione normale N(np,npq), di speranza np e varianza npq. In statistica quest'approssimazione vienesolitamente accettata quando np>5 e nq>5.Più precisamente, il teorema del limite centrale afferma che

Generalizzazioni

Una generalizzazione della distribuzione binomiale è la legge distribuzione Beta-binomiale ,che descrive la somma di n variabili aleatorie indipendenti, ognuna condistribuzione di Bernoulli , dove P segue la legge Beta . (Al contrario della distribuzione binomiale,le Xi non hanno lo stesso parametro.)La distribuzione binomiale è una delle quattro distribuzioni di probabilità definite dalla ricorsione di Panjer:

.

StatisticaNell'inferenza bayesiana si utilizzano particolari relazioni tra la distribuzione binomiale e altre distribuzioni diprobabilità.

Se P è una variabile aleatoria che segue la distribuzione Beta e Sn è una variabile aleatoria condistribuzione binomiale , allora la probabilità condizionata da Sn=x per P segue la distribuzione Beta

. In altri termini, la distribuzione Beta descrive P sia a priori che a posteriori di Sn=x.In particolare la distribuzione continua uniforme sull'intervallo [0,1] è un caso particolare di distribuzione Beta

, quindi la distribuzione per P, a posteriori di Sn=x, segue la legge Beta , che perinciso ha un massimo in x/n.

Page 41: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione geometrica 37

In teoria della probabilità la distribuzione geometrica è una distribuzione di probabilità discreta sui numeri naturali(con l'elemento "0") che segue una progressione geometrica:

E' la probabilità che il primo successo (o evento in generale) richieda l' eseguzione di k prove indipendenti, ognunadi probabilità di successo p.  Se la probabilità di successo di ogni prova è p, allora la probabilità che alla kesimaprova (dopo k prove) si ottenga il successo è

con k = 1, 2, 3, ....La formula qui sopra è usata per modellizzare il numero di tentativi fino ad ottenere il primo successo. Qui sottoinvece si cerca il numero di successi fino al prim fallimento:

for k = 0, 1, 2, 3, ....In either case, the sequence of probabilities is a geometric sequence.

DefinizioneLa distribuzione geometrica è la distribuzione di probabilità sui numeri naturali della forma

, con dove q indica la probabilità di insuccesso. Il parametro si ricava da

.

A volte lo zero viene escluso dal supporto: se T ha distribuzione geometrica sopra descritta, la distribuzione di X=T+1 sarà e le altre funzioni saranno modificate di conseguenza. Nell'esempio citato sopra, X

sarebbe il numero di estrazioni da fare perché esca un numero fissato.

Processo di BernoulliLa distribuzione geometrica di parametro q descrive anche il numero T di fallimenti che precedono il primo successoin un processo di Bernoulli di parametro p=1-q:

CaratteristicheUna variabile aleatoria T con distribuzione geometrica di parametro q e avente come supporto i numeri naturaliincluso il numero 0 ha•• funzione di probabilità

•• funzione di ripartizione

•• valore atteso

•• varianza

Page 42: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione geometrica 38

• funzione generatrice dei momenti (nella tabella c'è altro) ->

• funzione caratteristica

I quantili si ricavano dalla funzione di ripartizione:

• se è un numero intero ( ) allora e ;• se invece non è intero, allora (parte intera).In particolare la mediana è

se con intero,

altrimenti.

Assenza di memoriaLa distribuzione geometrica è priva di memoria, ovvero

ed è l'unica distribuzione di probabilità discreta con questa proprietà.L'indipendenza delle prove in un processo di Bernoulli implica l'assenza di memoria della distribuzione geometrica.D'altro canto, ogni variabile aleatoria T a supporto sui numeri naturali e priva di memoria rispetta

pertanto ha una distribuzione di probabilità geometrica di parametro .

GeneralizzazioniUna generalizzazione della distribuzione geometrica è la distribuzione di Pascal (o distribuzione binomialenegativa), che descrive il numero di fallimenti precedenti il successo r-esimo in un processo di Bernoulli.Un'ulteriore generalizzazione della distribuzione di Pascal è la distribuzione di Panjer che, come la distribuzionegeometrica, definisce le probabilità per ricorsione.

EsempiLa probabilità che un dado (equilibrato, a 6 facce) debba venire lanciato esattamente 10 volte prima di fornire un "4"è data dalla distribuzione geometrica. Il lancio del dado può essere considerato un processo di Bernoulli, in cui ogniprova Xi ha probabilità p=1/6 di fornire "4" (successo) e q=5/6 di fornire un altro numero (fallimento). La probabilitàcercata è quindi

La probabilità che dopo 10 lanci sia uscito almeno un "4" è invece

La probabilità che al decimo lancio si ottenga un "4" dopo che per 9 lanci questo numero non è mai stato ottenuto èfacilmente calcolabile grazie alla mancanza di memoria

Page 43: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione geometrica 39

Voci correlate•• Distribuzione di Bernoulli•• Distribuzione di Panjer•• Distribuzione di Pascal•• Distribuzione di probabilità•• Mancanza di memoria•• Processo di Bernoulli•• Variabile aleatoria

Distribuzione di Poisson

Distribuzione di Poisson

Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

Supporto

Funzione di densità

Funzione di ripartizione

(dove è la funzione Gamma incompleta)Valore atteso

Mediana circa

Modasia che se

Varianza

Page 44: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Poisson 40

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria delle probabilità la distribuzione di Poisson (o poissoniana) è una distribuzione di probabilità discreta cheesprime le probabilità per il numero di eventi che si verificano successivamente ed indipendentemente in un datointervallo di tempo, sapendo che mediamente se ne verifica un numero . Ad esempio, si utilizza una distribuzionedi Poisson per misurare il numero di chiamate ricevute in un call-center in un determinato arco temporale, come unamattinata lavorativa. Questa distribuzione è anche nota come legge degli eventi rari.Prende il nome dal matematico francese Siméon-Denis Poisson.

DefinizioneLa distribuzione di Poisson è

per ogni ,

dove è il numero medio di eventi per intervallo di tempo.

Dallo sviluppo in serie dell'esponenziale si trova .

Convergenza

La distribuzione di Poisson può essere ottenuta come limite delle distribuzioni binomiali , con ,ovvero si ha una convergenza in legge di a . Per questa convergenza la distribuzione di Poissonè anche nota come legge (di probabilità) degli eventi rari.In statistica si adotta l'approssimazione della distribuzione binomiale tramite la distribuzione di Poisson quando n>20e p<1/20, o preferibilmente quando n>100 e np<10.

CaratteristicheUna variabile aleatoria Y di distribuzione di Poisson ha•• valore atteso

•• varianza

•• funzione generatrice dei momenti

• indici di skewness e di curtosi

,

Page 45: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Poisson 41

•• entropia

che ha un andamento

Proprietà

Se Y1 e Y2 sono due variabili aleatorie indipendenti con distribuzioni di Poisson di parametri e rispettivamente, allora• la loro somma segue ancora una distribuzione di Poisson, di parametro ;• la distribuzione di Y1 condizionata da Y=n è la distribuzione binomiale di parametri e .Più in generale, la somma di n variabili aleatorie indipendenti con distribuzioni di Poisson diparametri segue una distribuzione di Poisson di parametro , mentre ladistribuzione di Y1 condizionata da Y=n è la distribuzione binomiale di parametri e .

Distribuzioni collegateSe la distribuzione di Poisson di parametro descrive il numero di eventi in un intervallo di tempo, il tempo diattesa tra due eventi successivi è descritto dalla distribuzione esponenziale di parametro .La distribuzione di Skellam è definita come la distribuzione della differenza tra due variabili aleatorie indipendentiaventi entrambe distribuzioni di Poisson.La mistura di distribuzioni tra la distribuzione di Poisson e la distribuzione Gamma (che governa il parametro ) èla distribuzione di Pascal, che talvolta è anche detta Gamma-Poisson.

La distribuzione di Panjer, definita per ricorsione, generalizza la distribuzione di Poisson: .

Statistica

Approssimazioni

Per una variabile aleatoria con distribuzione di Poisson viene solitamente approssimata con ladistribuzione normale ; per parametri più piccoli ( ) sono invece necessarie delle correzioni dicontinuità, legate ai diversi domini delle due distribuzioni (una discreta, una continua).La radice quadrata di una variabile aleatoria con distribuzione di Poisson è approssimata da una distribuzionenormale meglio di quanto lo sia la variabile stessa.Il parametro può essere stimato come la media delle osservazioni effettuate. Questo stimatore è privo di bias,ovvero ha come valore atteso stesso.

Inferenza bayesianaSe il parametro di una distribuzione di Poisson distribuito a priori secondo la distribuzione Gamma, allora lo èanche a posteriori dell'osservazione .

Intervallo di confidenza per la mediaUn criterio rapido per il calcolo approssimato dell'intervallo di confidenza della media campionaria è fornito inGuerriero (2012). Dato un numero k di eventi (almeno 15-20 per un'approssimazione soddisfacente) registrati in uncerto intervallo di tempo - o di lunghezza, volume etc. -, i limiti dell'intervallo di confidenza per il parametro λ sono

Page 46: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Poisson 42

dati da:

StoriaQuesta distribuzione fu introdotta da Siméon-Denis Poisson nel 1838 nel suo articolo "Recherches sur la probabilitédes jugements en matière criminelle et en matière civile"[1].Secondo alcuni storici questa variabile casuale dovrebbe portare il nome di Ladislaus Bortkiewicz considerati glistudi fatti da questo nel 1898.In realtà la poissoniana come approssimazione della binomiale era già stata introdotta nel 1718 da Abraham deMoivre in Doctrine des chances.

Tavole dei valori della funzione di probabilità

λ = 0,1; 0,2; ... 1,0

k 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0

0 .9048 .8187 .7408 .6703 .6065 .5488 .4966 .4493 .4066 .3679

1 .0905 .1637 .2222 .2681 .3033 .3293 .3476 .3595 .3659 .3679

2 .0045 .0164 .0333 .0536 .0758 .0988 .1217 .1438 .1647 .1839

3 .0002 .0011 .0033 .0072 .0126 .0198 .0284 .0383 .0494 .0613

4 .0001 .0003 .0007 .0016 .0030 .0050 .0077 .0111 .0153

5 .0001 .0002 .0004 .0007 .0012 .0020 .0031

6 .0001 .0002 .0003 .0005

7 .0001

λ = 1,2; 1,4; ... 3,0

k 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0

0 .3012 .2466 .2019 .1653 .1353 .1108 .0907 .0743 .0608 .0498

1 .3614 .3452 .3230 .2975 .2707 .2438 .2177 .1931 .1703 .1494

2 .2169 .2417 .2584 .2678 .2707 .2681 .2613 .2510 .2384 .2240

3 .0867 .1128 .1378 .1607 .1804 .1966 .2090 .2176 .2225 .2240

4 .0260 .0395 .0551 .0723 .0902 .1082 .1254 .1414 .1557 .1680

5 .0062 .0111 .0176 .0260 .0361 .0476 .0602 .0735 .0872 .1008

6 .0012 .0026 .0047 .0078 .0120 .0174 .0241 .0319 .0407 .0504

7 .0002 .0005 .0011 .0020 .0034 .0055 .0083 .0118 .0163 .0216

8 .0001 .0002 .0005 .0009 .0015 .0025 .0038 .0057 .0081

9 .0001 .0002 .0004 .0007 .0011 .0018 .0027

10 .0001 .0002 .0003 .0005 .0008

Page 47: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Poisson 43

11 .0001 .0001 .0002

12 .0002

λ = 3,5; 4,0; ... 8,0

k 3,5 4,0 4,5 5,0 5,5 6,0 6,5 7,0 7,5 8,0

0 .0302 .0183 .0111 .0067 .0041 .0025 .0015 .0009 .0006 .0003

1 .1057 .0733 .0500 .0337 .0225 .0149 .0098 .0064 .0041 .0027

2 .1850 .1465 .1125 .0842 .0618 .0446 .0318 .0223 .0156 .0107

3 .2158 .1954 .1687 .1404 .1133 .0892 .0688 .0521 .0389 .0286

4 .1888 .1954 .1898 .1755 .1558 .1339 .1118 .0912 .0729 .0573

5 .1322 .1563 .1708 .1755 .1714 .1606 .1454 .1277 .1094 .0916

6 .0771 .1042 .1281 .1462 .1571 .1606 .1575 .1490 .1367 .1221

7 .0385 .0595 .0824 .1044 .1234 .1377 .1462 .1490 .1465 .1396

8 .0169 .0298 .0463 .0653 .0849 .1033 .1188 .1304 .1373 .1396

9 .0066 .0132 .0232 .0363 .0519 .0688 .0858 .1014 .1144 .1241

10 .0023 .0053 .0104 .0181 .0285 .0413 .0558 .0710 .0858 .0993

11 .0007 .0019 .0043 .0082 .0143 .0225 .0330 .0452 .0585 .0722

12 .0002 .0006 .0016 .0034 .0065 .0113 .0179 .0263 .0366 .0481

13 .0001 .0002 .0006 .0013 .0028 .0052 .0089 .0142 .0211 .0296

14 .0001 .0002 .0005 .0011 .0022 .0041 .0071 .0113 .0169

15 .0001 .0002 .0004 .0009 .0018 .0033 .0057 .0090

16 .0001 .0003 .0007 .0014 .0026 .0045

17 .0001 .0003 .0006 .0012 .0021

18 .0001 .0002 .0005 .0009

19 .0001 .0002 .0004

20 .0001 .0002

21 .0001

Note[1] (EN) Jan Gullberg, Mathematics from the birth of numbers, W. W. Norton & Company; p. 963-965. ISBN 0-393-04002-X ISBN

978-0-393-04002-9

Bibliografia• Guerriero V. (2012). Power Law Distribution: Method of Multi-scale Inferential Statistics (http:/ / www. sjmmf.

org/ download. aspx?ID=11). J. Mod. Math. Fr.: 21–28.• Donald E. Knuth, Seminumerical Algorithms (in inglese), Addison Wesley, 1969.• Ronald J. Evans, J. Boersma, N. M. Blachman, A. A. Jagers (1988). The Entropy of a Poisson Distribution:

Problem 87-6. SIAM Review 30 (2): 314–317  (in inglese). DOI: 10.1137/1030059 (http:/ / dx. doi. org/ 10.1137/ 1030059).

Page 48: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Poisson 44

Voci correlate•• Distribuzione binomiale•• Mistura di distribuzioni•• Convergenza in distribuzione

Collegamenti esterni(EN) Eric W. Weisstein, Distribuzione di Poisson (http:/ / mathworld. wolfram. com/ PoissonDistribution. html) suMathWorld.

Distribuzione di Pascal

Distribuzione di Pascal, o binomiale negativa

Funzione di distribuzione discreta

Funzione di ripartizione

Parametri

oppure Supporto

Funzione di densità

Funzione di ripartizionefunzione Beta incompleta regolarizzata

Valore atteso

Mediana

Moda

Varianza

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Page 49: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Pascal 45

Funz. Caratteristica

In teoria delle probabilità la distribuzione di Pascal è una distribuzione di probabilità discreta con due parametri, ed , che descrive il numero di fallimenti precedenti il successo n-esimo in un processo di Bernoulli di parametro p.A volte si considera la distribuzione di Pascal come quella distribuzione che descrive il numero di prove necessarieper ottenere n successi. Questa distribuzione è equivalente alla precedente ma riscalata, ovvero descrive una variabilealeatoria anziché .Ad esempio, lanciando una moneta fino ad ottenere 3 volte testa, la distribuzione di Pascal descrive le probabilità peril numero di risultati croce visti nel frattempo.La distribuzione prende il nome dal matematico francese Blaise Pascal.Questa distribuzione di probabilità può essere generalizzata sostituendo il numero naturale n con un numero realepositivo r. In questo caso viene detta anche distribuzione binomiale negativa (per la sua particolare formula) o diPolya (dal matematico ungherese George Polya).

DefinizioneDato un processo di Bernoulli, ovvero una serie di variabili aleatorie indipendenti di ugualedistribuzione di Bernoulli , la distribuzione di Pascal descrive la variable aleatoria che contail numero di fallimenti precedenti il successo numero (ovvero il numero di prove necessarie ad ottenerlo, meno n):

,.

La probabilità di fallimento di una singola prova è . La probabilità che si verifichino esattamente k

fallimenti prima di ottenere un totale di n successi è data dalla probabilità di ottenere un successo nella prova numerok+n ( ) e di ottenere esattamente k fallimenti e n-1 successi nelle prove precedenti, ovvero

,

dove il coefficiente binomiale conta il numero di possibili disposizioni di successi e fallimenti. Questa probabilitàpuò anche essere scritta nella forma binomiale negativa

,

dove si considera la generalizzazione del coefficiente binomiale

.

Definizioni alternativeSostituendo il numero naturale n con il numero reale positivo r la formula mantiene un significato, anche se ilcoefficiente binomiale può essere espresso tramite la funzione Gamma, che estende il concetto di fattoriale (

):

.

Alcuni testi definiscono la distribuzione di Pascal come quella che descrive il numero di prove fino al successo n-esimo, ed altri scambiano i termini successo ed insuccesso nella definizione. Per collegare queste definizioni basta rispettivamente considerare la variabile aleatoria al posto di nel primo caso e scambiare i valori di p e

Page 50: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Pascal 46

q nell'altro.

Distribuzione geometrica

Una variabile aleatoria con distribuzione di Pascal è pari alla somma di n variabilialeatorie indipendenti con uguale distribuzione geometrica . Questo si può vedere considerando come lavariabile aleatoria che conta il numero di fallimenti intercorsi tra il successo numero e il successo numero :le sono allora indipendenti ed hanno distribuzione geometrica di parametro q.In particolare, la distribuzione di Pascal coincide con la distribuzione geometrica , e la somma dim variabili aleatorie indipendenti con distribuzioni di Pascal aventi lo stesso parametro p segue ancora ladistribuzione di Pascal con parametro p (è sempre somma di variabili aleatorie indipendenti con uguale distribuzionegeometrica).

CaratteristicheAlcune caratteristiche di una variabile aleatoria Tn che segue la distribuzione di Pascal si possonoricavare dalle caratteristiche di una variabile aleatoria T con distribuzione geometrica :• il valore atteso

,

• la varianza

,

• la funzione generatrice dei momenti

,

• gli indici di simmetria e di curtosi

.

La funzione di ripartizione può essere definita tramite la funzione Beta incompleta regolarizzata:

Tutte le formule valgono ancora anche sostituendo il numero naturale n con il numero reale positivo r.

Altre distribuzioniLa distribuzione di Pascal è una mistura della distribuzione Gamma e della distribuzione di Poisson: una variabilealeatoria con distribuzione di Poisson , il cui parametro L segua una distribuzione Gamma, segue ladistribuzione di Pascal.

La distribuzione di Pascal , di speranza , converge alla distribuzione di Poisson .

La distribuzione di Pascal si trova anche come mistura della distribuzione di Poisson e della distribuzionelogaritmica, ovvero descrive la somma di un numero , che segue la distribuzione di Poisson, divariabili aleatorie indipendenti che seguono una stessa distribuzione logaritmica.Considerando le variabili aleatorie di distribuzione binomiale e le variabilialeatorie di distribuzione di Pascal

si trova la formula

Page 51: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Pascal 47

,che esprime per un processo di Bernoulli l'equivalenza degli eventi "ottenere meno di k insuccessi prima delsuccesso n-esimo" e "ottenere almeno n successi nelle prime n+k prove".La distribuzione di Panjer, che definisce i valori per ricorsione, generalizza la distribuzione di Pascal:

StatisticaLa distribuzione di Pascal viene talvolta utilizzata in alternativa alla distribuzione di Poisson, a cui converge in leggesotto la condizione , nei casi in cui il modello empirico presenti una varianza maggiore del valore medio: ladistribuzione di Poisson ha sempre speranza pari al valore medio, mentre la distribuzione di Pascal è più dispersa (hauna varianza maggiore).Come spesso avviene nell'inferenza bayesiana, se il parametro p di una distribuzione di Pascal segue a priori ladistribuzione Beta, allora la segue anche a posteriori.

Voci correlate•• Coefficiente binomiale•• Convergenza in distribuzione•• Distribuzione geometrica•• Distribuzione di Poisson•• Mistura di distribuzioni•• Processo di Bernoulli

Page 52: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

48

53 X ...

Distribuzione continuaIn teoria della probabilità, una distribuzione di probabilità continua è una distribuzione di probabilità che possiedeuna funzione di densità. Viene anche chiamata distribuzione assolutamente continua, in quanto la sua funzione diripartizione è assolutamente continua rispetto alla misura di Lebesgue. Se una variabile casuale X ha distribuzione diprobabilità continua, allora X è detta variabile casuale continua. Ci sono molti esempi di distribuzioni di probabilitàcontinue, tra cui le distribuzioni normale, uniforme e chi quadrato.Intuitivamente, le variabili casuali continue sono quelle che possono assumere un insieme continuo di valori, alcontrario delle distribuzioni discrete, per le quali l'insieme dei possibili valori ha cardinalità al più numerabile.Inoltre, mentre per una distribuzione discreta un evento con probabilità zero è irrealizzabile (come, ad esempio,ottenere 3½ da un lancio di un dado tradizionale), questo non è vero nel caso di una variabile casuale continua. Adesempio, misurando la lunghezza di una foglia di quercia, è possibile ottenere il risultato 3½ cm, ma questo haprobabilità zero poiché vi sono infiniti possibili valori tra 3 cm e 4 cm. Ognuno di questi ha probabilità zero, ma laprobabilità che la lunghezza della foglia sia nell'intervallo (3 cm, 4 cm) è non nulla. Questo apparente paradosso ècausato dal fatto che la probabilità che una variabile casuale X assuma valori in un insieme infinito, come unintervallo, non può essere calcolata semplicemente sommando la probabilità dei singoli valori.Più formalmente, dato che, per definizione, ogni variabile casuale continua X ha una funzione di densità ƒ(x), allorala probabilità che X cada nell'intervallo [a, b] è data dall'integrale

In particolare, la probabilità che X assuma un singolo valore c (o, equivalentemente, c ≤ X ≤ c) è zero, poiché unintegrale con limiti inferiore e superiore coincidenti è sempre uguale a zero.Come detto, la funzione di ripartizione di una distribuzione continua è assolutamente continua. La condizione chetale funzione sia continua è più debole ed esiste una classe di distribuzioni, le distribuzioni singolari, che non sono nécontinue, né discrete, né una mistura di queste. Tali distribuzioni tuttavia, non si incontrano mai nelle applicazionipratiche. Alcuni autori, chiamano distribuzioni continue quelle la cui funzione di ripartizione è continua, andandoquindi ad includere anche le distribuzioni singolari.

Tabella delle distribuzioni continue più comuniNel seguito una tabella delle distribuzioni continue più comuni, si sottointende che la funzione di densità vale 0 al difuori del supporto e che la funzione di ripartizione vale 0 nei punti precedenti al supporto e 1 nei punti successivi.

Page 53: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione continua 49

Distribuzione Parametri Supporto Funzione di densità Funzione di ripartizione Valore medio Varianza

distribuzione uniforme

distribuzione normale

distribuzione esponenziale

distribuzione Gamma

Voci correlate•• Variabile casuale•• Variabile casuale discreta•• Teoria della probabilità

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/Category:Probability distributions

Collegamenti esterni• Continuous Random Variables. [1] John Appleby, School of Mathematical Sciences, Dublin City University.• (EN) A.V. Prokhorov, "Continuous distribution [2]" SpringerLink Encyclopaedia of Mathematics (2001)

Note[1] http:/ / webpages. dcu. ie/ ~applebyj/ ms207/ CNSRV1. pdf[2] http:/ / www. encyclopediaofmath. org/ index. php/ Continuous+ distribution

Page 54: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione 50

Funzione di ripartizioneIn statistica e teoria della probabilità, la funzione di ripartizione, anche nota come funzione di distribuzionecumulativa, è una funzione di variabile reale che racchiude le informazioni su un fenomeno (un insieme di dati, unevento casuale) riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.

Nel calcolo delle probabilitàNel calcolo delle probabilità la funzione di ripartizione di una variabile casuale X a valori reali è la funzione cheassocia a ciascun valore la probabilità dell'evento "la variabile casuale X assume valori minori o uguali ad x".

In altre parole, è la funzione con dominio la retta reale e immagine l'intervallo definita da

Una funzione F è una valida funzione di ripartizione se è non decrescente, continua a destra e

Una funzione di ripartizione non è necessariamente continua a sinistra (e dunque continua globalmente): se X è unavariabile casuale discreta e z un punto del suo supporto, allora F è una funzione a gradino e dunque

(ponendo senza restrizioni di generalità ) poiché è una costante indipendente da x,mentre

dunque essendo p(z)≠0 F non è continua.Più in generale, una funzione di ripartizione individua univocamente una intera distribuzione di probabilità, cioè unafunzione che ad ogni sottoinsieme misurabile A associa la probabilità che X cada in A[1].

ProprietàSi può dimostrare dalla definizione che valgono le seguenti uguaglianze, ponendo per semplicità di notazione

:

••••••Se X è una variabile casuale assolutamente continua la funzione di ripartizione di X può essere espressa comefunzione integrale:

ove f è detta funzione di densità di X. Si può anche considerare la relazione inversa:

Page 55: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione 51

Se X è una variabile casuale discreta (ossia ammette una collezione numerabile di possibili valori )

dove è detta funzione di probabilità di X.

Esempi

Grafico della funzione di ripartizione relativa alladistribuzione uniforme

Se X è la variabile aleatoria risultato del lancio di un dado a sei faccesi ha

dove con si indica la parte intera di x.Se X è la variabile casuale uniforme continua in si ha

.

Funzione di sopravvivenzaIn alcuni modelli è più utile analizzare la probabilità che un certo dato numerico valga più del valore x (come nellavita di un organismo, biologico o meccanico): questi casi sono trattati dalla branca chiamata analisi disopravvivenza. Si definisce allora la funzione di sopravvivenza S (dal termine inglese survival) come ilcomplemento della funzione di ripartizione:

Nei casi rispettivamente continuo e discreto, valgono naturalmente delle identità speculari a quelle della ripartizione:

e

Ogni funzione di sopravvivenza è una funzione monotona decrescente, Vale a dire per

Il tempo rappresenta l'origine, in genere l'inizio di uno studio o l'inizio del funzionamento di alcuni sistemi.

Page 56: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione 52

Variabili aleatorie multivariate

Più in generale la funzione di ripartizione di una variabile aleatoria X a valori in è la funzione F(x) con dominioe codominio l'intervallo definita da

dove sono le componenti di .Questa funzione possiede la proprietà di essere continua a destra separatamente per ogni variabile. Valgono inoltre leseguenti formule, derivanti dalla definizione:

• Per qualsiasi i, • F è monotona crescente separatamente in ogni variabile, cioè se ,

• se per semplicità, • dove G è la funzione di ripartizione della

variabile k-1-variata .Da quest'ultima proprietà viene anche l'uguaglianza

e l'affermazione vale ovviamente anche per ogni permutazione degli indici i.

In statistica descrittivaIn statistica la funzione di ripartizione empirica o funzione di distribuzione cumulativa viene usata perdescrivere fenomeni quantitativi o comunque descritti con valori misurati su scale ordinali, intervallari oproporzionali, ma non se misurati con una scala nominale.La funzione di ripartizione o viene indicata solitamente con

e rappresenta il numero di osservazioni del fenomeno minori o uguali del valore x.

Se sono le osservazioni (ordinate in senso crescente), con frequenze relative la funzione diripartizione ha espressione analitica

Le sono dette frequenze cumulate.

Page 57: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione 53

Note[1] J. Jacod; P. Protter, op. cit., Pag. 41

Bibliografia• Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003• (EN) Jean Jacod; Philip Protter, Probability Essentials, Springer, 2000. ISBN 3540438718

Voci correlate•• Distribuzione (statistica)•• Funzione càdlàg•• Funzione di densità di probabilità•• Funzione caratteristica•• Funzione di probabilità•• Integrale•• Percentile•• Quantile•• Statistica•• Teoria della probabilità•• Variabile casuale•• Histogram matching

Funzione di densità di probabilitàIn matematica, una funzione di densità di probabilità (o pdf dall'inglese probability density function) è la funzionedi probabilità di una variabile casuale nel caso in cui la variabile casuale sia continua, cioè l'insieme dei possibilivalori ha la potenza del continuo.Essa descrive la "densità" di probabilità in ogni punto nello spazio campionario.

DefinizioneLa funzione densità di probabilità di una variabile casuale è l'applicazione non negativa integrabilesecondo Lebesgue e reale di variabile reale tale che la probabilità dell'insieme A sia data da

per tutti i sottinsiemi A dello spazio campionario. Questo implica che l'integrale su tutto lo spazio di deveessere 1. Di conseguenza ogni funzione non negativa, integrabile secondo Lebesgue, con integrale su tutto lo spaziouguale a 1, è la funzione densità di probabilità di una ben definita distribuzione di probabilità. Una variabile casualeche possiede densità si dice "variabile casuale continua".Intuitivamente, se una distribuzione di probabilità ha densità , allora l'intervallo ha probabilità

.Per le variabili casuali multivariate (o vettoriali) la trattazione formale è assolutamente identica: sidice assolutamente continua se esiste una funzione a valori reali definita in , detta densità congiunta, tale cheper ogni sottoinsieme A dello spazio campionario

Page 58: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di densità di probabilità 54

Essa conserva tutte le proprietà di una densità scalare: è una funzione non negativa a integrale unitario su tutto lospazio. Una proprietà importante è che se è assolutamente continua allora lo è ogni suacomponente; il viceversa invece non vale. La densità di una componente, detta densità marginale, si ottiene con unragionamento analogo al teorema della probabilità assoluta, cioè fissando l'insieme di suoi valori di cui si vuoledeterminare la probabilità e lasciando libere di variare tutte le altre componenti. Infatti (nel caso bivariato persemplicità) l'evento è l'evento , dunque

utilizzando il teorema di Fubini. La densità marginale di X è data dunque da .

Esempio

Esempio di gaussiana

La funzione di densità della variabilecasuale normale di media 0 e varianza 1(detta normale standard), di cui è sottoriportato il grafico e l'espressione analiticadella corrispondente densità nel casogenerico (media e varianza ).

Voci correlate

•• Funzione di ripartizione•• Funzione di probabilità•• Funzione caratteristica•• Variabile casuale•• Teoria della probabilità•• Statistica•• Integrale•• Percentile•• Quantile

Page 59: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Variabile casuale 55

Variabile casualeIn teoria della probabilità, una variabile casuale (dall'inglese random variable, in italiano variabile aleatoria ovariabile stocastica) può essere pensata come il risultato numerico di un esperimento quando questo non èprevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un dado a sei facce puòessere matematicamente modellato come una variabile casuale che può assumere uno dei sei possibili valori

. Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabilealeatoria) un numero ben determinato ma non noto per carenza di informazioni.Il termine aleatorio deriva da alea ed esprime il concetto di rischio calcolato, non casuale (alea iacta est). Ladenominazione alternativa stocastico è stata introdotta da Bruno De Finetti[1]. Il termine casuale è una traduzionediretta dall'inglese di random.

DefinizionePiù formalmente, sia dato uno spazio campionario su cui è definita una misura di probabilità , una variabilecasuale è una funzione misurabile dallo spazio campionario a uno spazio misurabile; in questa definizione la nozionedi misurabilità è quella definita da Lindgren (1976): una funzione definita sullo spazio campionario si dicemisurabile rispetto al campo di Borel se e solo se l'evento appartiene a per ogni .• Le variabili casuali a una dimensione (cioè a valori in ) si dicono semplici o univariate.•• Le variabili casuali a più dimensioni si dicono multiple o multivariate (doppie, triple, k-uple).Variabili casuali che dipendono da un parametro t (t come tempo) vengono considerate processi stocastici.

Distribuzione di probabilitàAd una variabile casuale X si associa la sua distribuzione, o legge di probabilità , che assegna ad ognisottoinsieme dell'insieme dei possibili valori di la probabilità che la variabile casuale X assuma valore in esso. Informule, se è una variabile casuale che ha valori in e è un sottoinsieme di , la distribuzione diprobabilità di in vale

dove è la misura di probabilità definita sullo spazio campionario.Per variabili aleatorie a valori reali, la legge di probabilità della variabile casuale è individuata univocamentedalla sua funzione di ripartizione, definita come . Inoltre:• se la variabile casuale X è discreta, cioè l'insieme dei possibili valori (il rango o supporto di ) è finito o

numerabile, è definita anche la funzione di massa (o funzione massa di probabilità o densità discreta), ossia lafunzione di probabilità discreta

• se la variabile casuale è continua, cioè l'insieme dei possibili valori ha la potenza del continuo, è definitaanche la funzione di densità di probabilità, cioè la funzione non negativa tale per cui

In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabiledunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoiparametri di media o valore atteso e varianza.

Page 60: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Variabile casuale 56

StoriaAncorché non formalizzato, il concetto della distribuzione statistica attorno ad una media era noto fin dall'antichità.Leggiamo infatti nel Fedone di Platone:

«E non è ingiusto, questo? Non è forse vero che chi si comporta così, evidentemente vive tra gli uomini senzaaverne nessuna esperienza? Se, infatti, li conoscesse appena, saprebbe che son pochi quelli veramente buoni ocompletamente malvagi e che per la maggior parte, invece, sono dei mediocri.»«In che senso?» feci.«È lo stesso delle cose molto piccole e molto grandi. Credi forse che sia tanto facile trovare un uomo o uncane o un altro essere qualunque molto grande o molto piccolo o, che so io, uno molto veloce o molto lento omolto brutto o molto bello o tutto bianco o tutto nero? Non ti sei mai accorto che in tutte le cose gli estremisono rari mentre gli aspetti intermedi sono frequenti, anzi numerosi?»

(Platone, Fedone, XXXIX)

Alcune variabili casuali utilizzate in statisticaLe variabili casuali si dividono principalmente in due grandi classi, discrete e continue (o assolutamentecontinue): Esempi del primi tipo:•• variabile casuale uniforme discreta• variabile casuale bernoulliana, caso particolare della Binomiale•• variabile casuale binomiale• variabile casuale poissoniana detta pure legge degli eventi rari• variabile casuale geometrica, caso particolare della distribuzione di Pascal•• variabile casuale ipergeometrica•• variabile casuale degenereEsempi del secondo tipo:• variabile casuale normale o gaussiana• variabile casuale Gamma o Erlanghiana•• variabile casuale t di Student•• variabile casuale di Fisher-Snedecor• variabile casuale esponenziale negativa, caso particolare della v.c. Gamma• variabile casuale Chi Quadrato χ², caso particolare della v.c. Gamma•• variabile casuale Beta• variabile casuale rettangolare o uniforme continua•• variabile casuale di CauchyTali classi non sono però esaustive della famiglia delle variabili casuali; esiste anche una terza classe, delle variabilicasuali singolari o continue singolari, come la variabile casuale di Cantor.Il teorema di rappresentazione di Lebesgue ci assicura che ogni funzione di ripartizione (e dunque ogni variabilecasuale) è rappresentabile come combinazione convessa di una funzione di ripartizione discreta, una continua e unasingolare. Variabili casuali che non appartengono a nessuna delle tre classi vengono dette miste.Si può comunque dimostrare che le classi delle v.c. discrete e delle v.c. continue sono dense nella classe di tutte levariabili casuali rispetto alla convergenza in distribuzione, cioè per ogni variabile casuale esiste una successione div.c. discrete (rispettivamente continue) che converge in distribuzione alla variabile data.

Page 61: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Variabile casuale 57

TeoremiSe

sono variabile casuale Bernoulliane uguali e indipendentiallora

, è anch'essa una variabile casuale binomiale

Se

è una variabile casuale binomiale con molto grande (orientativamente più di 50) e moltopiccolo, tale che è, orientativamente, minore di 10 e quasi uguale a ,

allora

può essere approssimata con una variabile casuale poissoniana ove .

Se

è una variabile casuale binomiale con molto grande, ma (e dunque non valel'approssimazione con la poissoniana),

allorapuò essere approssimata con una variabile casuale normale con valore atteso pari a e varianza uguale a

:

See sono due variabili casuali indipendenti, distribuite come una variabile casuale poissoniana con

parametro rispettivamente e allora

è a sua volta una variabile casuale Poissoniana con parametro

See sono due variabile casuale Gamma in senso stretto ( ) con il parametro uguale

rispettivamente a e allora

è distribuita come una variabile casuale Beta con i parametri e

See sono due variabile casuale identiche e indipendenti distribuite come una variabile casuale

esponenziale negativa con parametro allora

è una variabile casuale Gamma con parametri e

Page 62: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Variabile casuale 58

La variabile casuale esponenziale negativa viene usata in relazione alla variabile casuale poissoniana in quanto:se

il numero di successi entro un predeterminato intervallo di tempo è distribuito come una poissoniana (conparametro ),

alloral'intervallo di tempo che passa tra due successi è distribuito come una esponenziale negativa con ;

e viceversa.

Se

sono variabili casuali tra di loro indipendenti, ciascuna con gradi di libertà,allora

la variabile casuale è a sua volta una variabile casuale con gradi dilibertà, ove

Se

è una variabile casuale normale standardizzata , e allora

è una variabile casuale con 1 grado di libertà.

Considerato un campione di elementi estratto da una popolazione normale indicando con ladistribuzione della varianza campionaria sarà:

Seè una variabile casuale t di Student e

allora

tende ad una variabile casuale normale standardizzata ( e )

Se

e ,allora

è distribuita come una variabile casuale t di Student con gradi di libertà.

variabile casuale F di Snedecor:Se

il secondo grado di libertà è molto grande,allora

la F di Snedecor tende verso una variabile casuale Gamma con Se

entrambi i gradi di libertà sono molto grandi,allora

si può usare la normale

Page 63: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Variabile casuale 59

Seil primo grado di libertà è pari ad 1,

allorasi può usare la variabile casuale t di Student

Se

e sono variabili casuali Chi Quadrato con rispettivamente e gradi di libertàallora

è distribuita come una variabile casuale F di Snedecor con e gradi di liberta;

Se

in un processo markoviano (continuo nel tempo) nascite-morti, con le condizioni iniziali pere 0 altrimenti, si osserva un processo di pure nascite con tasso costante ;

allora

si ottiene la soluzione , ovvero una variabile casuale poissoniana con parametro

Note[1][1] DELI, Dizionario etimologico della lingua italiana, Zanichelli, 2009

Voci correlate•• Mistura di distribuzioni•• Variabile casuale standardizzata•• Winsorizzazione

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Probabilitydistribution

Page 64: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Variabili dipendenti e indipendenti 60

Variabili dipendenti e indipendentiIn matematica una variabile è dipendente da altre variabili se esiste una relazione tra di esse che la coinvolge,altrimenti è indipendente da esse. Due o più variabili indipendenti l'una dall'altra sono dette variabili indipendenti.In assenza di una relazione, le variabili sono solitamente supposte indipendenti.Ad esempio, le coordinate (x,y) dei punti nel piano sono variabili indipendenti, mentre le coordinate dei punti su unacirconferenza di raggio r sono variabili dipendenti: x2+y2=r2 (alcuni valori che possono essere scelti singolarmenteper le due variabili non possono essere presi contemporaneamente).In teoria delle probabilità due variabili aleatorie X e Y sono indipendenti quando lo sono le loro funzioni diprobabilità, quindi se la loro probabilità congiunta è sempre pari al prodotto delle singole probabilità:

In statistica talvolta la denominazione non è così precisa ma viene, per comodità d'uso, associata all'ordine con cui siconsiderano le variabili: ognuna viene detta dipendente o indipendente rispetto alle sole variabili precedenti (laprima è automaticamente indipendente). In particolare, per due variabili dipendenti X e Y (come l'età e il titolo distudio) è possibile scegliere quale considerare indipendente e quale dipendente. In base al contesto si usano comesinonimi• per una variabile indipendente: regressore, predittore, controllata, manipolata o di input;• per una variabile dipendente: di risposta, misurata, spiegata, sperimentale o di output.

Voci correlate•• Teorema della probabilità composta•• Variabile (matematica)

Page 65: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Valore atteso 61

Valore attesoIn teoria della probabilità il valore atteso (chiamato anche media, speranza o speranza matematica) di unavariabile casuale , è un numero indicato con (da expected value o expectation in inglese o dal franceseespérance) che formalizza l'idea euristica di valore medio di un fenomeno aleatorio.In generale il valore atteso di una variabile casuale discreta (che assuma cioè solo un numero finito o una infinitànumerabile di valori) è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilitàdi essere assunto (ossia di verificarsi), cioè è la media ponderata dei possibili risultati. Per una variabile casualecontinua la questione è più delicata e si deve ricorrere alla teoria della misura e all'integrale di Lebesgue-Stieltjes.Ad esempio nel gioco testa o croce, se scegliamo "testa" e ipotizziamo un valore di 100 per la vittoria (testa) e dizero per la sconfitta (croce), il valore atteso del gioco è 50, ovvero la media delle vincite e perdite pesata in base alleprobabilità (50% per entrambi i casi): , cioè il valore di "testa" per la sua probabilità eil valore di "croce" per la sua probabilità.

Definizione matematicaSia uno spazio di probabilità, ed una variabile aleatoria a valori reali su tale spazio (ossia unafunzione misurabile , dove i numeri si intendono equipaggiati con la loro σ-algebra boreliana). Ilvalore atteso di è semplicemente l'integrale di rispetto alla misura di probabilità :

.

Calcolare il valore atteso di variabili aleatorie discreteNel caso di variabile casuale discreta che ammette funzione di probabilità può essere calcolata come

Calcolare il valore atteso di variabili aleatorie assolutamente continueNel caso di variabile casuale continua che ammette funzione di densità di probabilità f(x) il calcolo diventa

Speranza matematica finitaSi dice che ha speranza matematica finita nel discreto se

mentre nel continuo se

Page 66: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Valore atteso 62

Proprietà

Media di una costanteLa media di una costante c (cioè di una variabile casuale che assume il valore c con probabilità 1) è ovviamente lacostante stessa: E[c]=c.

LinearitàUn'importante caratteristica del valore atteso è la sua linearità: ovvero per ogni variabile casuale X e coppia dinumeri reali a e b si ha

Questa proprietà è facilmente dimostrabile: ad esempio, nel caso di una variabile casuale discreta, si ha

perché la somma delle probabilità è 1, in quanto consideriamo la somma di tutti i possibili eventi.Questa proprietà ha la conseguenza importante che date due variabili casuali qualsiasi X e Y (non necessariamenteindipendenti) si ha

Questa proprietà non vale per il prodotto: in generale, E[XY] è diverso da E[X]E[Y]. Quando queste due quantitàsono uguali, si dice che X e Y sono non correlate. In particolare, due variabili casuali indipendenti sono noncorrelate.

MonotoniaSe i valori che assume una variabile casuale X sono compresi tra due estremi a e b, così sarà la media di X; infatti

e allo stesso modo si dimostra nel caso continuo. Da

questo si deduce che se due variabili casuali verificano (ovvero, per ogni evento E, il valore di X incorrispondenza di quell'evento è maggiore o uguale di quello di Y), allora

Stime del valore attesoIn statistica, la stima del valore atteso assume un ruolo centrale, in quanto principale parametro usato nella statisticainferenziale.

Calcolo del valore atteso nel gioco

Gioco dei dadiNel gioco dei dadi rappresentando il risultato del tiro del dado con una variabile casuale che possa assumere i valori

, ciascuno con probabilità . Intuitivamente, la media di questa variabile casuale sarà ,

dal momento che .

Page 67: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Valore atteso 63

Il gioco del lotto• Nel gioco del lotto vengono estratti 5 numeri tra 1 e 90, ed un giocatore può puntare una certa posta sul verificarsi

di vari eventi. Calcoliamo il valore atteso del ricavo di uno scommettitore che punti 10 euro sulle cinque possibiligiocate:• numero secco (si punta sull'uscita di un determinato numero; la vincita paga circa 11 volte la posta): la

probabilità che il giocatore vinca è data dal rapporto da 5/90 (rapporto tra i numeri vincenti e tutti i numeri chepossono essere estratti), ed in tal caso il giocatore vincerà euro; la probabilità di perditaè 85/90, ed in tal caso il giocatore perderà i 10 euro di puntata. Il ricavo medio sarà quindi

. Ossia, in media il giocatore perderà euro per ogni 10 euro

giocati.• ambo (si punta sull'uscita di un determinata coppia di numeri; la vincita paga 250 volte la posta): vi sono

possibili coppie di numeri. Poiché sulla ruota vengono estratti 5 numeri, gli ambi estratti sono

e pertanto il giocatore vincerà con probabilità 10/4005, ed in tal caso egli guadagnerà

euro; la probabilità di perdita è 3995/4005, ed in tal caso il giocatore perderà i 10

euro di puntata. Il guadagno medio sarà quindi . Ossia, in media il

giocatore perderà euro per ogni 10 euro giocati.• terno (si punta sull'uscita di un determinata terna di numeri; la vincita paga 4500 volte la posta): Ci sono

117480 possibili terne distinte di numeri.• quaterna (si punta sull'uscita di un determinata quaterna di numeri; la vincita paga 120000 volte la posta): Ci

sono 2555190 possibili quaterne distinte di numeri.• cinquina (si punta sull'uscita di un determinata cinquina di numeri; la vincita paga 6 milioni di volte la posta):

Ci sono 43949268 possibili cinquine distinte di numeri.La tabella seguente mostra un riepilogo delle perdite medie per una giocata di importo pari a 1 euro.

Probabilità di vincita Quote di Vincita per 1 euro giocato Perdita media in centesimi

Ambo 1/(400.5) 250 37.6

Terna 1/(11748) 4500 61.7

Quaterna 1/(511038) 120000 76.5

Cinquina 1/(43949268) 6 milioni 86.3

Bibliografia• Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003Probabilità e lotto [1]

Voci correlate•• Teoria della probabilità•• Media•• Funzione generatrice dei momenti•• Funzione di densità•• Funzione di ripartizione•• Valore atteso condizionato

Page 68: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Valore atteso 64

Note[1] http:/ / www. unipa. it/ ~sanfilippo/ pub/ sigad/ lotto. pdf

VarianzaNella teoria della probabilità e in statistica la varianza di una variabile aleatoria x (e della distribuzione diprobabilità che questa segue) è una funzione indicata con σ2(x), che fornisce una misura di quanto siano vari i valoriassunti dalla variabile, ovvero di quanto si discostino dal valore atteso .

DefinizioneLa varianza di x è definita come il valore atteso del quadrato della variabile aleatoria centrata

In statistica viene spesso preferita la radice quadrata della varianza di x, lo scarto tipo (o scarto quadratico medio)indicato con la lettera σ. Per questo motivo talvolta la varianza viene indicata con σ2.Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla disuguaglianza diČebyšëv che controlla questo scostamento in termini dello scarto tipo:

ProprietàLa varianza di una variabile aleatoria non è mai negativa, ed è zero solamente quando la variabile assume quasicertamente un solo valore, P(x=x)=1.Una formula alternativa per la varianza è

Questa formula è a volte più pratica per calcolare la varianza.

LinearitàLa varianza è invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente perriscalamento:

La varianza della somma di due variabili indipendenti è pari alla somma delle loro varianze

Usande le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti èpari alla somma delle loro varianze

Se x e y non sono indipendenti, la formula viene corretta dalla loro covarianza,

,dove

In particolare, la media aritmetica di n variabili aleatorie indipendenti aventi la medesima legge, havarianza aritmetica

Page 69: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Varianza 65

Variabili discrete e continueLa varianza di una variabile aleatoria discreta x a valori in un insieme X si calcola attraverso la sua funzione diprobabilità:

La varianza di una variabile aleatoria continua x a valori in un insieme X si calcola attraverso la sua densità diprobabilità:

StatisticaIn statistica viene utilizzata più spesso della varianza la sua radice quadrata, vale a dire lo scarto quadratico medio

anche detto deviazione standard. Con riferimento a questa notazione la varianza si trova quindi

anche indicata come .

StimatoriIn statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalità n:

e ,

(anche chiamati varianza campionaria) dove è lo stimatore per la media.Lo stimatore Sn-1 è privo di bias, ovvero il suo valore atteso è proprio la varianza .Al contrario, lo stimatore Sn ha un valore atteso diverso dalla varianza, .Una giustificazione del termine n-1 è data dalla necessità di stimare anche la media. Se la media μ è nota, lostimatore Sn diventa corretto. Questa è detta "Correzione di Bessel".

Page 70: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Varianza 66

In contrasto con,

Se le xi seguono la legge normale N(μ,σ), lo stimatore S2n-1 segue una legge del χ2

Varianza osservataCome per gli stimatori, esistono due diverse varianze osservate sui dati di un campione di mediaosservata ,

e .

In particolare, è la media quadratica delle distanze dei valori dalla loro media.

EsempiUna variabile aleatoria x di legge di Bernoulli B(p), ovvero che ha probabilità p di fornire "1" e probabilità q=1-p difornire "0", ha valore medio

;la sua varianza può essere calcolata come

oppure come

.Il campione {-4, -1, 1, 2, 7} ha media aritmetica

e le varianze aritmetiche osservate sono

e

Page 71: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Varianza 67

.

Voci correlate•• Covarianza•• Legge della varianza totale•• Scarto quadratico medio•• Valore atteso•• Variabili indipendenti

Legge della varianza totaleLa legge della varianza totale è un teorema della teoria della probabilità, che afferma che se e sono variabilicasuali definite sul medesimo spazio di probabilità, e la varianza di è finita, allora:

dove è il valore atteso condizionato di x, e la varianza condizionata, ovvero:

Dal punto di vista della statistica più che della teoria della probabilità, il primo termine è detto componente nonspiegata della varianza totale, e il secondo è la componente spiegata; tale suggestiva terminologia si ricollegaall'analisi del modello lineare, e in particolare al coefficiente di determinazione, o R².

DimostrazioneLa legge della varianza totale può essere immediatamente dimostrata sfruttando la legge delle aspettative iterate,come segue.

Relazione con il modello lineareLa legge della varianza totale presenta un'importante relazione con il modello di regressione lineare. Nel casounivariato, il modello lineare può essere enunciato come:

Si ha in tal caso che il rapporto di covarianza:

Ma allora, la componente spiegata della varianza totale altro non è che:

così che il rapporto tra l'espressione sopra e è il quadrato del coefficiente di correlazione tra e :

Page 72: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Legge della varianza totale 68

Tale grandezza corrisponde in effetti al coefficiente di determinazione R². È possibile ottenere un'analoga relazionenel caso multivariato.

Estensioni ai momenti di ordine superioreEsistono relazioni analoghe alla legge della varianza totale e alla legge delle aspettative iterate per i momenti centralidi ordine superiore. Ad esempio, con riferimento al momento centrale di ordine 3, si ha:

Voci correlate•• Teorema della probabilità totale•• Legge delle aspettative iterate•• Regressione lineare

CovarianzaIn teoria della probabilità la covarianza σ di due variabili aleatorie è un numero σ(x,y) che fornisce una misura diquanto le due varino assieme, ovvero della loro dipendenza.

DefinizioneLa covarianza di due variabili aleatorie x e y è il valore atteso dei prodotti delle loro distanze dalla media:

.

La covarianza di x e y può anche essere espressa come la differenza tra il valore atteso del loro prodotto e il prodottodei loro valori attesi:

.Infatti per la linearità del valore atteso risulta

.

ProprietàLa covarianza rispetta le seguenti proprietà, per variabili aleatorie x, y e z, e costanti a e b:

•••Due variabili aleatorie indipendenti hanno covarianza nulla, poiché dalla loro indipendenza segue

Due variabili aleatorie che hanno covarianza nulla sono non correlate.Due variabili aleatorie dipendenti possono essere non correlate. Ad esempio, se x è una variabile aleatoria di leggeuniforme sull'intervallo [-1,1] e y=x2, allora

Page 73: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Covarianza 69

VarianzaLa covarianza può essere considerata una generalizzazione della varianza

e compare come termine di correzione nella relazione

Più in generale, per variabili aleatorie e vale

come caso particolare di

.

StatisticaSu un campione di n osservazioni congiunte (xi,yi), di rispettive medie osservate e , la covarianza osservata è

.Uno stimatore della covarianza per N osservazioni congiunte (xi,yi) è

L'indice di correlazione di Pearson è il rapporto tra la covarianza e le radici delle varianze:

Voci correlate•• Valore atteso•• Variabili indipendenti•• Varianza•• Matrice delle covarianze

Page 74: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Deviazione standard 70

Deviazione standardLa deviazione standard o scarto tipo[1] o scarto quadratico medio è un indice di dispersione delle misuresperimentali, vale a dire è una stima della variabilità di una popolazione di dati o di una variabile casuale. Ladeviazione standard è uno dei modi per esprimere la dispersione dei dati intorno ad un indice di posizione, quale puòessere, ad esempio, il valore atteso o una stima del suddetto valore atteso. La deviazione standard ha pertanto lastessa unità di misura dei valori osservati (al contrario della varianza che ha come unità di misura il quadratodell'unità di misura dei valori di riferimento). In statistica la precisione si può esprimere come deviazione standard.

Una serie di dati con una media di 50 (in blu) euna deviazione standard (σ) di 20.

Il termine "standard deviation" è stato introdotto in statistica daPearson[2] assieme alla lettera greca σ che lo rappresenta. Il termineitaliano "deviazione standard" ne è la traduzione più utilizzata nellinguaggio comune; il termine dell'Ente Nazionale Italiano diUnificazione è tuttavia "scarto tipo", definito come la radice quadratapositiva della varianza per lo meno fin dal 1984[3].

Se non indicato diversamente, la deviazione standard è semplicementela radice quadrata della varianza, la quale viene coerentementerappresentata con il quadrato di sigma (σ²).

dove è la media aritmetica.

Formalmente lo scarto tipo di una variabile casuale può essere calcolato a partire dalla funzione generatrice deimomenti (radice quadrata della differenza tra il momento secondo ed il momento primo elevato al quadrato).A partire dallo scarto tipo si definisce anche il coefficiente di variazione[4] o la deviazione standard relativa come ilrapporto tra lo scarto tipo e il modulo della media aritmetica dei valori:

Questo nuovo parametro (che assolutamente non può essere espresso in percentuale) consente di effettuare confrontitra dispersioni di dati di tipo diverso, indipendentemente dalle loro quantità assolute.Esistono argomenti teorici, soprattutto nell'ambito della teoria della stima ovvero nell'ambito della statisticainferenziale (dove è noto solo un campione della popolazione), per rimpiazzare il fattore con nella definizione, ottenendo come nuova definizione:

Sostanzialmente, poiché non è nota la media dell'intera popolazione, ma solo una sua stima (la media del campione),bisogna utilizzare per ottenere uno stimatore corretto della varianza della popolazione a partire dai dati delcampione.Questa correzione al denominatore fa sì che la nuova definizione sia un po' più grande della precedente, correggendocosì la tendenza della precedente a sottostimare le incertezze soprattutto nel caso in cui si lavori con pochi dati ( piccolo).Osserviamo il caso limite di , cioè quando effettuiamo una sola misura: la prima definizione dà il risultato, sensato nell'ambito della statistica descrittiva ma non molto ragionevole nell'ambito della inferenziale, , mentre la nuova dà un risultato non definito del tipo , rispecchiando così la totale ignoranza inerente

Page 75: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Deviazione standard 71

all'incertezza su una singola misura. In questo senso, si dice che la statistica non dice nulla sul singolo caso.Peraltro la differenza tra le due definizioni è quasi sempre numericamente insignificante: già nel caso di dieci misurela differenza tra e è insignificante per la maggior parte degli scopi.

Semplificando la formulaIl calcolo può essere semplificato come segue:

cioè, applicando il tutto alla formula originale:

Poiché il primo addendo sotto radice può essere visto come il valore atteso degli x quadrati, spesso si scrive:

ApplicazioniIn ambito finanziario, lo scarto tipo viene usato per indicare la variabilità di un'attività finanziaria e dei suoi payoff(rendimenti). Esso fornisce quindi, implicitamente, una misura della volatilità dell'attività, quindi del suo rischio.Nell'ambito del Capital Asset Pricing Model, fornendo un'idea della misura di rischio, esso determina univocamenteil prezzo sul mercato.In fisica, è un ottimo indice dell'errore casuale della misurazione di una grandezza fisica.In ambito sportivo è utilizzato per valutare la prestazione di un giocatore di bowling in riferimento ad un certonumero di partite. Il valore trovato non incide sul punteggio ma sintetizza le capacità e i miglioramenti del giocatore.

Page 76: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Deviazione standard 72

Applicazioni informaticheNelle applicazioni informatiche, è a volte conveniente utilizzare la formula

che consente, con sole tre variabili , di calcolare la deviazione standard (oltre che la media)

di un flusso di numeri di lunghezza imprecisata, senza dover ricorrere ad una memorizzazione degli stessi.

Note[1] UNI, Norma italiana UNI ISO 3534-1:2000, Statistica - Vocabolario e simboli, Probabilità e termini statistici generali. Milano: UNI, 2000,

definizione 1.23.[2] Karl Pearson, On the dissection of asymmetrical frequency curves, 1894[3] UNI, Norma italiana UNI 4723:1984, Metodi statistici per il controllo della qualità. Termini, simboli e definizioni. Milano: UNI, 1984.

sostituita dalla norma citata UNI ISO 3534-1 nel febbraio 2000.[4] UNI, Norma italiana UNI ISO 3534-1:2000, Statistica - Vocabolario e simboli, Probabilità e termini statistici generali. Milano: UNI, 2000,

definizione 1.24 e 2.35.

Voci correlate•• Root sum squared•• Scarto interquartile•• Varianza•• Stimatore corretto•• Precisione•• Median absolute deviation

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Standard deviation

Page 77: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Media (statistica) 73

Media (statistica)

Una funzione di distribuzione con evidenziate la moda,la mediana e la media

In statistica la media è un singolo valore numerico che descrivesinteticamente un insieme di dati. Esistono varie tipologie dimedia che possono essere scelte per descrivere un fenomeno.Quelle più comunemente impiegate sono le tre medie pitagoriche(aritmetica, geometrica, e armonica).

Nel linguaggio ordinario spesso viene chiamato media il tipo cheè detto media aritmetica, sottintendendo quindi il terminearitmetica.

Media aritmetica

La media aritmetica è il tipo di media impiegato più comunementee quello al quale, con il termine "media", si fa in genereriferimento nel parlare comune. Viene usata per riassumere con un solo numero un insieme di dati su un fenomenomisurabile (per esempio, l'altezza media di una popolazione).Viene calcolata sommando i diversi valori a disposizione, i quali vengono divisi per il loro numero complessivo.La formula della media aritmetica semplice per n elementi è:[1]

La media aritmetica ponderata (o media pesata) è una combinazione lineare convessa dei dati in analisi. Ciascunvalore è moltiplicato per il proprio peso.La formula generale è:

dove f rappresenta il peso di ciascun termine.Si dimostra facilmente che la media aritmetica è un indice di posizione, in quanto aggiungendo o moltiplicando tutti ivalori per una stessa quantità la media stessa aumenta o è moltiplicata per quella stessa quantità. Come tutti gli indicidi posizione, la media aritmetica fornisce l'ordine di grandezza dei valori esistenti e permette di conoscerne lasomma dei valori (moltiplicando la media per il numero n di elementi).Oltre che in matematica, la media aritmetica è ampiamente impiegata in svariati campi, quali economia, sociologia enella maggior parte delle discipline accademiche.Nonostante la media aritmetica sia spesso usata per fare riferimento alle tendenze, non fornisce un dato statisticorobusto in quanto risente notevolmente dei valori outlier. Nelle distribuzioni simmetriche la media aritmetica puònon accordarsi con il valore medio e altri indici più forti, come la mediana, forniscono una migliore descrizione dellatendenza centrale.

Page 78: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Media (statistica) 74

EsempioDati cinque numeri:

la loro media aritmetica è data da:

Media ponderataPer calcolare la media ponderata di una serie di dati di cui ogni elemento proviene da una differente distribuzionedi probabilità con una varianza nota, una possibile scelta per i pesi è data da:

La media ponderata in questo caso è:

e la varianza della media ponderata è:

che si riduce a quando tutti i .

Il significato di tale scelta è che questa media pesata è lo stimatore di massima verosimiglianza della media delledistribuzioni di probabilità nell'ipotesi che esse siano indipendenti e normalmente distribuite con la stessa media.

Media geometricaLa media geometrica di n termini è la radice n-esima del prodotto degli n valori:

Sfruttando le proprietà dei logaritmi, l'espressione della media geometrica può essere resa trasformando i prodotti insomme e le potenze in prodotti:

Analogamente al caso della media aritmetica, attribuendo un peso ai termini si può calcolare la media geometricaponderata:

La media geometrica può essere vista anche come media aritmetico-armonica. Definendo infatti due successioni:

e convergono alla media geometrica di x e y

Page 79: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Media (statistica) 75

Infatti le successioni convergono ad un limite comune. Si può infatti osservare che:

Lo stesso ragionamento può essere applicato sostituendo le medie aritmetica e armonica con una coppia di mediegeneralizzate di ordine finito ed opposto.La media geometrica si applica a valori positivi. Ha un chiaro significato geometrico: ad esempio la mediageometrica di due numeri è la lunghezza del lato di un quadrato equivalente ad un rettangolo che abbia i lati dimodulo pari ai due numeri. Lo stesso vale in un numero di dimensioni superiore. La media geometrica trova impiegosoprattutto dove i valori considerati vengono per loro natura moltiplicati tra di loro e non sommati. Esempio tipicosono i tassi di crescita, come i tassi d'interesse o i tassi d'inflazione.Una caratteristica è che valori piccoli (rispetto alla media aritmetica) sono molto più influenti dei valori grandi. Inparticolare, è sufficiente la presenza di un unico valore nullo per annullare la media.

EsempioDati cinque numeri:

la loro media geometrica è data da:

Media armonicaLa media armonica di n termini è definita come il reciproco della media aritmetica dei reciproci.

Per praticità di calcolo si può applicare la seguente formula, ottenuta tramite le proprietà di somme e prodotti:

Se a un insieme di dati è associato un insieme di pesi , è possibile definire la media armonica ponderatacome:

La media armonica semplice rappresenta un caso particolare, nel quale tutti i pesi hanno valore unitario.La media armonica è fortemente influenzata dagli elementi di modulo minore: rispetto alla media aritmetica risentemeno dell'influenza di outlier grandi, ma è influenzata notevolmente dagli outlier piccoli.

Page 80: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Media (statistica) 76

EsempioDati cinque numeri:

la loro media armonica è data da:

Media di potenzaLa media di potenza (o media generalizzata o media di Hölder o media p-esima) rappresenta una generalizzazionedelle medie pitagoriche. È definita come la radice p-esima della media aritmetica delle potenze di esponente p deglin valori considerati:

Molte altre tipologie di media sono casi particolari della media generalizzata, per opportuni valori di p:

• media aritmetica, per • media geometrica, per • media armonica, per • media quadratica, per (usata soprattutto in presenza di numeri negativi per eliminare i segni)• media cubica, per Inoltre:

••Ad ogni termine può essere associato un coefficiente detto peso, in genere rappresentato dalla frequenza oppure daun valore il quale descrive l'importanza (oggettiva o soggettiva) che il singolo elemento riveste nella distribuzione.Se ai dati in esame si assegna un insieme di pesi , tali che , è possibile definire la media pesata:

Media aritmetico-geometricaLa media aritmetico-geometrica (AGM) di due numeri reali positivi x e y è definita come limite comune di duesuccessioni definite come segue.Si determinano la media aritmetica e la media geometrica di x ed y

.Quindi si itera il procedimento, sostituendo ad x e ad y. In questo modo si ottengono due successioni:

Le due successioni sono convergenti e hanno limite comune, detto media aritmetico-geometrica di x ed y, indicatacome o talvolta come .La media geometrica di due numeri è sempre minore della media aritmetica, di conseguenza è una successionecrescente, è decrescente e si ha (le disuguaglianze sono strette se x ≠ y).

Page 81: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Media (statistica) 77

Quindi è un numero compreso fra la media aritmetica e la media geometrica di x ed y.Inoltre, dato un numero reale r ≥ 0, vale la relazione

Esiste anche una espressione in forma integrale di :

dove rappresenta l'integrale ellittico completo di prima specie:

Inoltre, poiché la media aritmetico-geometrica converge piuttosto rapidamente, la formula precedente è utile anchenel calcolo degli integrali ellittici.

Il reciproco della media aritmetico-geometrica di 1 e è chiamata costante di Gauss, in onore del matematicotedesco Carl Friedrich Gauss.

Media integraleUna generalizzazione del concetto di media a distribuzioni continue prevede l'uso di integrali. Supponiamo di avereuna funzione , integrabile. Allora si può definire la media come:

Data inoltre una funzione tale che , detta peso, si può definire la media integrale pesatacome:

Più in generale data una funzione dove è un insieme sul quale è definita una funzione diintegrazione, si definisce la media come:

Media temporaleLa media temporale, spesso usata nella trattazione di segnali, è chiamata componente continua. Si tratta della mediaintegrale calcolata in un intervallo di tempo tendente all'infinito.

.

per:

Page 82: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Media (statistica) 78

Note[1] (EN) IUPAC Gold Book, "arithmetic mean (average)" (http:/ / goldbook. iupac. org/ A00440. html)

Voci correlate•• Valore atteso•• Varianza•• Covarianza•• Momento (statistica)•• Trimmed mean•• Disuguaglianza delle medie

Collegamenti esterni• Calcolo della media pesata (http:/ / stat. altervista. org) - Sito italiano che permette di eseguire online il calcolo

della media, anche pesata, di una serie di dati.• Calcolo Media Ponderata (http:/ / lamediaponderata. altervista. org)- Sito italiano che permette di calcolare la

media ponderata on-line. In specifico per l'Università.

Distribuzione normale

Variabile casuale normale (o di Gauss)

Funzione di densità

La linea in verde si riferisce alla variabile casuale normale standardizzata

Page 83: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione normale 79

Funzione di ripartizione

I colori corrispondono a quelli delle densità della figura precedente

Parametri , Supporto

Funzione di densità

Funzione di ripartizione

Valore atteso

Mediana

Moda

Varianza

Skewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedescoCarl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazioneper descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il graficodella funzione di densità di probabilità associata è simmetrico ed a forma di campana, nota come Campana diGauss (o anche come curva degli errori, curva a campana, ogiva).La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolonel teorema del limite centrale. Più specificamente, assumendo certe condizioni, la somma di n variabili casuali conmedia e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, ladistribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienzenaturali e sociali[1] come un semplice modello per fenomeni complessi.La distribuzione normale dipende da due parametri, la media μ e la varianza σ2, ed indicata tradizionalmente con:

Page 84: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione normale 80

MetodologiaLa distribuzione normale è caratterizzata dalla seguente funzione di densità di probabilità, cui spesso si fariferimento con la dizione curva di Gauss o gaussiana:

.

Dove è il valore atteso e la varianza.Per dimostrare che è effettivamente una funzione di densità di probabilità si ricorre innanzi tutto allastandardizzazione (statistica) della variabile casuale, cioè alla trasformazione tale per cui risulta:

,

dove la variabile risultante ha anch'essa distribuzione normale con parametri e . L'integrale della funzione di densità di probabilità della variabile casuale standardizzata è il seguente:

Dato che deve necessariamente valere la condizione , allora risulta anche quindi:

dove anche la variabile casuale ha distribuzione normale standardizzata. Per risolvere questo integrale doppio siricorre alle coordinate polari e , dove e . La matrice Jacobianadella trasformazione è

,

il cui determinante è pari a . Sostituendo nell'integrale di cui sopra siottiene:

La sua funzione generatrice dei momenti è

Il valore atteso e la varianza (che sono gli unici due parametri di questa variabile casuale) sono appunto μ e σ².

Non essendo possibile esprimere l'integrale della in forma chiusa mediante funzioni elementari, è necessariorendere disponibili in forma tabellare i valori della sua funzione di ripartizione. I più usati sono:68,3% = P{ μ - σ < X < μ + σ }

95,0% = P{ μ - 1,96 σ < X < μ + 1,96 σ }

95,5% = P{ μ - 2 σ < X < μ + 2 σ }

99,0% = P{ μ - 2,58 σ < X < μ + 2,58 σ }

99,7% = P{ μ - 3 σ < X < μ + 3 σ }

Essendo una funzione simmetrica è sufficiente conoscere la funzione di ripartizione dei valori positivi, perconoscere pure quella dei valori negativi (e viceversa).Dalla variabile casuale Normale si possono ottenere altre variabili casuali, come la t di Student, la Chi Quadrato e laF di Snedecor, nonché le loro "varianti" non centrali (t non centrale, chi quadrato non centrale e F non centrale).

Page 85: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione normale 81

Teoremi

Combinazione lineare di variabili gaussianeSe

X1, X2, ..., Xn sono n variabili casuali Normali tra di loro indipendenti, ciascuna con valore atteso μi e varianzaσ²i,

allorala variabile casuale Y = α1X1 + α2X2 + ... + αnXn è a sua volta una variabile casuale Normale con valore attesoμ = α1μ1 + α2μ2 + ... + αnμn e varianza σ² = α²1σ²1 + α²2σ²2 + ... + α²nσ²n

Altri teoremi: Teorema di Cochran

Relazioni con altre variabili casuali

La Normale come derivazione da altre voci

I teoremi del limite centrale sono una famiglia di teoremi che hanno in comune l'affermazione che la somma(normalizzata) di un grande numero di variabili casuali è distribuita approssimativamente come una variabile casualenormale.

Se X è distribuita come una variabile casuale binomiale con n molto grande (per dare un'idea di quanto grande,possiamo dire che deve essere n>30), e approssimativamente np>10, allora la binomiale può essere approssimata conuna Normale con valore atteso pari a np e varianza uguale a npq: N( np ; npq).

Se X è distribuita come una variabile casuale poissoniana con il parametro λ molto grande (orientativamente λ > 10),allora la Poissoniana può essere approssimata con una Normale con valore atteso e varianza pari a λ: N( λ ; λ).

Variabili casuali derivate dalla Normale

Date n distribuzioni normali Z1(0;1); Z2(0;1); ... Zn(0;1) con media nulla e varianza unitaria indipendenti tra loro.allora

χ²n= Z1² + Z2² + .... +Zn²è una Variabile casuale chi quadro con n gradi di libertà.

Siano Z1, Z2, Z3..., Zn variabili casuali indipendenti distribuite come una Normale con media nulla e varianzaunitaria, e siano inoltre a1, a2, a3..., an delle costanti tali che

allora si indica con χ'² la v.c. chi quadro non centrale con n gradi di libertà costruita come

Page 86: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione normale 82

Se Z~N(0;1) e X~χ²n, allora T=Z/√X/n è distribuita come una t di Student con n gradi di libertà.

Se Z~N(0;1) e allora T è una v.c. di Birnbaum-Saunders con i parametri e

.

La normale nell'inferenza bayesiana

Variabile casuale Gamma come priori coniugati della normale

Nell'ambito dell'inferenza bayesiana si trova la seguente relazione tra la normale e la variabile casuale Gamma.Se X è distribuita come una variabile casuale normale con parametri μ e 1/θ

ed il parametro θ è distribuito a priori come una variabile casuale Gamma con i parametri a e b

allora il parametro θ è distribuito a posteriori anch'esso come una variabile casuale Gamma, ma con parametri a+1/2e b+(μ-x)2/2

Priori coniugati normale di una normale

Se X è distribuita come una v.c. normale con parametri m e σ2

e il parametro m è distribuito a priori come una v.c. normale con i parametri μ e σ2

allora il parametro m è distribuito a posteriori anch'esso come una v.c. Normale, ma con parametrie

Cenni storiciKarl Friedrich Gauss descrisse la Normale studiando il moto dei corpi celesti. Altri la usavano per descriverefenomeni anche molto diversi come i colpi di sfortuna nel gioco d'azzardo o la distribuzione dei tiri attorno aibersagli. Da qui i nomi curva di Gauss e curva degli errori:Nel 1835 Lambert-Adolphe-Jacques Quételet pubblicò uno scritto nel quale, fra le altre cose, c'erano i datiriguardanti la misura del torace di soldati scozzesi e la statura dei militari di leva francesi. Quételet mostrò come talidati si distribuivano come una Gaussiana, ma non andò oltre.Fu Francis Galton a intuire che la curva in questione, da lui detta anche ogiva, poteva essere applicata a fenomenianche molto diversi, e non solo ad "errori". Questa idea di curva per descrivere i "dati" in generale portò ad usare iltermine Normale, in quanto rappresentava un substrato normale ovvero la norma per qualsiasi distribuzione presentein natura.Nel tentativo di confrontare curve diverse, Galton - in mancanza di strumenti adeguati - si limitò ad usare due soliparametri: la media e la varianza, dando così inizio alla statistica parametrica.

Page 87: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione normale 83

Note[1] Gale Encyclopedia of Psychology — Normal Distribution (http:/ / findarticles. com/ p/ articles/ mi_g2699/ is_0002/ ai_2699000241)

Voci correlate•• Statistica•• Statistica parametrica•• Parametro (statistica)•• Funzione di ripartizione della variabile casuale normale•• Carl Friedrich Gauss• v.c. binomiale e poissoniana• v.c. χ², t di Student, F di Snedecor• Variabile casuale, variabile casuale continua•• Probabilità• Integrale di Gauss, integrale di Eulero (vedi anche Pierre Simon Laplace)•• Funzione gaussiana•• Teorema di Cochran• Test di Shapiro-Wilk, test statistico per la verifica di normalità di un insieme di valori•• Normale

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Normaldistribution

Funzione di ripartizione della variabile casualenormale

Funzione di densità

Funzione di ripartizione della variabile casuale normalestandardizzata

cioè con media zero e deviazione standard pari a uno, per valorinon negativi (essendo la funzione simmetrica).Nota che il valore indicato nella casella (X,Y) rappresenta l'areasottesa dalla funzione gaussiana da "meno infinito" a "X+Y", doveX e Y rappresentano l'intestazione di riga e colonna.Fonte: valori calcolati con la funzione pnorm(z) di R (software)

Page 88: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione della variabile casuale normale 84

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09

  0.0    .5000    .5040    .5080    .5120     .5160     .5199     .5239     .5279    .5319     .5359  

0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753

0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141

0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517

0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879

0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224

0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549

0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852

0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133

0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389

1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621

1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830

1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015

1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177

1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319

1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441

1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545

1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633

1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706

1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767

2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817

2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857

2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890

2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916

2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936

2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952

2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964

2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974

2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981

2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986

3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990

3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993

3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995

3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997

3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998

3.5 .9998 .9998 .9998 .9998 .9998 .9998 .9998 .9998 .9998 .9998

3.6 .9998 .9998 .9999 .9999 .9999 .9999 .9999 .9999 .9999 .9999

Page 89: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Funzione di ripartizione della variabile casuale normale 85

Poiché la normale non è integrabile con metodi elementari per sapere la probabilità di un intervallo bisognaricondurre la propria normale a quella standard e cercare il valore standardizzato nella tabella.

Per ricondursi alla forma standard bisogna porre

Dove è la media e la deviazione standard (o scarto quadratico medio).L'integrale della normale standard è:

oppure:

dove erf è la funzione degli errori.

Distribuzione t di Student

distribuzione

Funzione di densità di probabilità

Funzione di ripartizione

Parametri (gradi di libertà)

Supporto

Funzione di densità

Funzione di ripartizione

dove è la funzione Beta

Page 90: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione t di Student 86

Valore atteso se non definita altrimenti

Mediana

Moda

Varianza se infinita altrimenti

Skewness se non definita altrimenti

Curtosi se

infinita altrimentiEntropia

dove è la funzione digamma e è la funzione BetaFunz. Gen. dei Momenti

Funz. Caratteristica[1]

dove è una funzione di Bessel

In teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua chegoverna il rapporto tra due variabili aleatorie, la prima con distribuzione normale e la seconda il cui quadrato hadistribuzione chi quadrato.Questa distribuzione interviene nella stima della media di una popolazione che segue la distribuzione normale, eviene utilizzata negli omonimi test t di Student per la significatività e per ogni intervallo di confidenza delladifferenza tra due medie.

Cenni storiciLa distribuzione venne descritta nel 1908 da William Sealy Gosset, che pubblicò il suo risultato sotto lo pseudonimo"Student" perché la fabbrica di birra presso la quale era impiegato vietava ai propri dipendenti di pubblicare articoliaffinché questi non divulgassero segreti di produzione. Il nome distribuzione di Student venne successivamenteintrodotto da Ronald Fisher.[2][3]

DefinizioneLa distribuzione di Student con parametro n (gradi di libertà) governa la variabile aleatoria

dove e sono due variabili aleatorie indipendenti che seguono rispettivamente la distribuzione normalestandard e la distribuzione chi quadrato con n gradi di libertà.

Page 91: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione t di Student 87

Stimatore

La media e la varianza di una popolazione possono essere stimate tramite un suo campione di taglia n,con gli stimatori

,

.

La variabile aleatoria

segue una distribuzione normale standard, , mentre la variabile aleatoria

segue una distribuzione chi quadrato con n-1 gradi di libertà, . Le due variabili aleatorie sonoindipendenti, per il teorema di Cochran.Senza conoscere la varianza non è possibile confrontare gli stimatori e con e , che hannodistribuzioni di probabilità note. Ciononostante la variabile aleatoria

(ottenuta "sostituendo" a nella definizione di ) segue la distribuzione di Student con n-1 gradi dilibertà.

CaratteristicheLa distribuzione di Student con n gradi di libertà è simmetrica, perché lo è la distribuzione normale standard mentrela distribuzione chi quadrato che funge da "parametro casuale di scala" non produce effetti di distorsione di talesimmetria.La sua funzione di densità di probabilità è

,

dove indica la funzione Gamma e la funzione Beta.La sua funzione di ripartizione è

,

dove è la funzione Beta incompleta regolarizzata e

.

Per i momenti (semplici o centrali) di ordine k della distribuzione sono

se è dispari,

se è pari.

Page 92: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione t di Student 88

In particolare, oltre alla speranza matematica e all'indice di asimmetria (per ) predettidalla simmetria della distribuzione, si trovano:

la varianza per ;

l'indice di curtosi per .

Statistica

Intervallo di confidenzaLa distribuzione di Student viene utilizzata per definire degli intervalli di confidenza per la media di unapopolazione, sulla base degli stimatori puntuali e della sua media e della sua varianza. Dall'equazione

si ha infatti

.

Scegliendo quindi dei quantili per la distribuzione di Student con n gradi di libertà, si ha

,

cioè un intervallo di confidenza per la media con livello di confidenza è:

.

Qualora si considerino intervalli simmetrici si può utilizzare l'indice definito da

,ovvero

,e si ottiene l'intervallo di confidenza per con livello di confidenza

.

Altre distribuzioniLa distribuzione di Student con parametro corrisponde alla distribuzione di Cauchy di parametri :entrambe regolano il rapporto tra due variabili aleatorie indipendenti aventi distribuzione normale standard.Al tendere di n a infinito la distribuzione di Student con n gradi di libertà converge alla distribuzione normalestandard .Se è una variabile aleatoria con distribuzione t di Student di parametro , allora segue ladistribuzione di Fisher-Snedecor di parametri .

Page 93: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione t di Student 89

Tabella dei quantiliLa seguente tabella[4] esprime, in funzione del parametro n (riga) e di particolari valori di (colonna), i quantili per la distribuzione di Student di parametro n:

.L'ultima riga, indicata con " ", si riferisce ad una distribuzione normale standard.

n\α 0.90 0.95 0.975 0.99 0.995 0.9975 0.999 0.9995

1 3.078 6.314 12.706 31.821 63.657 127.321 318.309 636.619

2 1.886 2.920 4.303 6.965 9.925 14.089 22.327 31.599

3 1.638 2.353 3.182 4.541 5.841 7.453 10.215 12.924

4 1.533 2.132 2.776 3.747 4.604 5.598 7.173 8.610

5 1.476 2.015 2.571 3.365 4.032 4.773 5.893 6.869

6 1.440 1.943 2.447 3.143 3.707 4.317 5.208 5.959

7 1.415 1.895 2.365 2.998 3.499 4.029 4.785 5.408

8 1.397 1.860 2.306 2.896 3.355 3.833 4.501 5.041

9 1.383 1.833 2.262 2.821 3.250 3.690 4.297 4.781

10 1.372 1.812 2.228 2.764 3.169 3.581 4.144 4.587

11 1.363 1.796 2.201 2.718 3.106 3.497 4.025 4.437

12 1.356 1.782 2.179 2.681 3.055 3.428 3.930 4.318

13 1.350 1.771 2.160 2.650 3.012 3.372 3.852 4.221

14 1.345 1.761 2.145 2.624 2.977 3.326 3.787 4.140

15 1.341 1.753 2.131 2.602 2.947 3.286 3.733 4.073

16 1.337 1.746 2.120 2.583 2.921 3.252 3.686 4.015

17 1.333 1.740 2.110 2.567 2.898 3.222 3.646 3.965

18 1.330 1.734 2.101 2.552 2.878 3.197 3.610 3.922

19 1.328 1.729 2.093 2.539 2.861 3.174 3.579 3.883

20 1.325 1.725 2.086 2.528 2.845 3.153 3.552 3.850

21 1.323 1.721 2.080 2.518 2.831 3.135 3.527 3.819

22 1.321 1.717 2.074 2.508 2.819 3.119 3.505 3.792

23 1.319 1.714 2.069 2.500 2.807 3.104 3.485 3.768

24 1.318 1.711 2.064 2.492 2.797 3.091 3.467 3.745

25 1.316 1.708 2.060 2.485 2.787 3.078 3.450 3.725

26 1.315 1.706 2.056 2.479 2.779 3.067 3.435 3.707

27 1.314 1.703 2.052 2.473 2.771 3.057 3.421 3.690

28 1.313 1.701 2.048 2.467 2.763 3.047 3.408 3.674

29 1.311 1.699 2.045 2.462 2.756 3.038 3.396 3.659

30 1.310 1.697 2.042 2.457 2.750 3.030 3.385 3.646

40 1.303 1.684 2.021 2.423 2.704 2.971 3.307 3.551

50 1.299 1.676 2.009 2.403 2.678 2.937 3.261 3.496

60 1.296 1.671 2.000 2.390 2.660 2.915 3.232 3.460

Page 94: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione t di Student 90

100 1.290 1.660 1.984 2.364 2.626 2.871 3.174 3.390

1.282 1.645 1.960 2.326 2.576 2.807 3.090 3.291

Note[1] Hurst, Simon, The Characteristic Function of the Student-t Distribution (http:/ / wwwmaths. anu. edu. au/ research. reports/ srr/ 95/ 044/ ),

Financial Mathematics Research Report No. FMRR006-95, Statistics Research Report No. SRR044-95[2] Student (William Sealy Gosset) (Marzo 1908). The probable error of a mean (http:/ / www. york. ac. uk/ depts/ maths/ histstat/ student. pdf).

Biometrika 6 (1): 1–-25  (in (EN)). DOI: 10.1093/biomet/6.1.1 (http:/ / dx. doi. org/ 10. 1093/ biomet/ 6. 1. 1).[3] Ronald Fisher (1925). Applications of "Student's" distribution (http:/ / digital. library. adelaide. edu. au/ coll/ special/ fisher/ 43. pdf). Metron

5: 90-–104  (in (EN)).[4] Valori critici calcolati con la funzione qt(p,g) di R.

Voci correlate•• Distribuzione chi quadrato•• Distribuzione normale•• Test di verifica d'ipotesi•• Test t•• William Sealy Gosset

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Student'st-distribution

Collegamenti esterni• Il test di Student (http:/ / www. dti. unimi. it/ fscotti/ ita/ md_biotec_estrazione/ allegati/ Student. pdf) di F. Scotti.• (EN) Eric W. Weisstein, Distribuzione t di Student (http:/ / mathworld. wolfram. com/ Studentst-Distribution.

html) su MathWorld.

Page 96: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione chi quadrato 92

Funz. Gen. dei Momenti per

Funz. Caratteristica

In teoria delle probabilità una distribuzione (chi quadrato o chi quadro) è una distribuzione di probabilità chedescrive la somma dei quadrati di alcune variabili aleatorie indipendenti aventi distribuzione normale standard.In statistica viene particolarmente utilizzata per l'omonimo test di verifica d'ipotesi (test χ2).

DefinizioneLa distribuzione descrive la variabile aleatoria

,

dove sono variabili aleatorie indipendenti con distribuzione normale standard . Il parametro kè detto numero di gradi di libertà.

StoriaErnst Abbe (1840-1905), un ottico, fu colui che scoprì la χ² analizzando la sommatoria di variabili casuali normalistandardizzate e indipendenti, che produce una nuova variabile casuale, la χ² appunto.[1]

Proprietà

SommaPer definizione, la somma di due variabili aleatorie indipendenti con distribuzioni χ2(m) e χ2(n) è una variabilealeatoria con distribuzione χ2(m+n):

Più in generale la somma di variabili aleatorie indipendenti con distribuzioni χ2(k1), ..., χ2(kn), è una variabilealeatoria con distribuzione χ2(k1+...+kn).

Caratteristiche

Una generalizzazione della distribuzione χ2 è la distribuzione Gamma: .In particolare una variabile aleatoria con distribuzione ha

• funzione di densità di probabilità per x>0,

dove Γ indica la funzione Gamma, che qui assume i valori ,con !! che indica il doppio fattoriale;

• funzione di ripartizione ,

dove γ è la funzione • valore atteso ;• varianza ;• simmetria: • curtosi: • moda:

Page 97: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione chi quadrato 93

Limite centralePer il teorema del limite centrale la distribuzione χ2(k) converge ad una distribuzione normale per k che tende ainfinito. Più precisamente, se segue la distribuzione χ2, allora la distribuzione di

tende alla distribuzione normale standard .

Per avere una convergenza più rapida talvolta vengono prese o .

GeneralizzazioniLa distribuzione χ2 è un caso particolare della legge Γ e ricade nella terza famiglia di distribuzioni di Pearson.La distribuzione χ2 non centrale è data dalla somma dei quadrati di variabili aleatorie indipendenti aventidistribuzioni normali ridotte, ma non necessariamente centrate, :

Un'altra generalizzazione prevede di considerare una forma quadratica sul vettore aleatorio.

Utilizzo in statisticaIn statistica la distribuzione χ2 viene utilizzata per condurre il test di verifica d'ipotesi χ2 e per stimare una varianza,ed è legato alle distribuzioni distribuzione t di Student e distribuzione F di Fisher-Snedecor.

Il caso più comune è quello di varibili aleatorie indipendenti di legge normale e media, dove lo stimatore della varianza

segue la distribuzione

.

Per valori di k superiori a 30 (o a 50) la legge χ2 viene approssimata con una legge normale.

Tabella dei valori criticiLa seguente tabella illustra alcuni valori critici più comunemente utilizzati. In corrispondenza dei valori k sulla riga eα sulla colonna si trova il valore critico , ovvero il valore per il quale una variabile aleatoria x2 dilegge χ2(k) verifica

.

Page 98: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione chi quadrato 94

k\α

0.001 0.002 0.005 0.01 0.02 0.05 0.1 0.2 0.5 0.75 0.8 0.9 0.95 0.98 0.99 0.995 0.998 0.999

1 0.000 0.000 0.000 0.000 0.001 0.004 0.016 0.064 0.455 1.323 1.642 2.706 3.841 5.412 6.635 7.879 9.550 10.828

2 0.002 0.004 0.010 0.020 0.040 0.103 0.211 0.446 1.386 2.773 3.219 4.605 5.991 7.824 9.210 10.597 12.429 13.816

3 0.024 0.039 0.072 0.115 0.185 0.352 0.584 1.005 2.366 4.108 4.642 6.251 7.815 9.837 11.345 12.838 14.796 16.266

4 0.091 0.129 0.207 0.297 0.429 0.711 1.064 1.649 3.357 5.385 5.989 7.779 9.488 11.668 13.277 14.860 16.924 18.467

5 0.210 0.280 0.412 0.554 0.752 1.145 1.610 2.343 4.351 6.626 7.289 9.236 11.070 13.388 15.086 16.750 18.907 20.515

6 0.381 0.486 0.676 0.872 1.134 1.635 2.204 3.070 5.348 7.841 8.558 10.645 12.592 15.033 16.812 18.548 20.791 22.458

7 0.598 0.741 0.989 1.239 1.564 2.167 2.833 3.822 6.346 9.037 9.803 12.017 14.067 16.622 18.475 20.278 22.601 24.322

8 0.857 1.038 1.344 1.646 2.032 2.733 3.490 4.594 7.344 10.219 11.030 13.362 15.507 18.168 20.090 21.955 24.352 26.124

9 1.152 1.370 1.735 2.088 2.532 3.325 4.168 5.380 8.343 11.389 12.242 14.684 16.919 19.679 21.666 23.589 26.056 27.877

101.479 1.734 2.156 2.558 3.059 3.940 4.865 6.179 9.342 12.549 13.442 15.987 18.307 21.161 23.209 25.188 27.722 29.588

111.834 2.126 2.603 3.053 3.609 4.575 5.578 6.989 10.341 13.701 14.631 17.275 19.675 22.618 24.725 26.757 29.354 31.264

122.214 2.543 3.074 3.571 4.178 5.226 6.304 7.807 11.340 14.845 15.812 18.549 21.026 24.054 26.217 28.300 30.957 32.909

132.617 2.982 3.565 4.107 4.765 5.892 7.042 8.634 12.340 15.984 16.985 19.812 22.362 25.472 27.688 29.819 32.535 34.528

143.041 3.440 4.075 4.660 5.368 6.571 7.790 9.467 13.339 17.117 18.151 21.064 23.685 26.873 29.141 31.319 34.091 36.123

153.483 3.916 4.601 5.229 5.985 7.261 8.547 10.307 14.339 18.245 19.311 22.307 24.996 28.259 30.578 32.801 35.628 37.697

163.942 4.408 5.142 5.812 6.614 7.962 9.312 11.152 15.338 19.369 20.465 23.542 26.296 29.633 32.000 34.267 37.146 39.252

174.416 4.915 5.697 6.408 7.255 8.672 10.085 12.002 16.338 20.489 21.615 24.769 27.587 30.995 33.409 35.718 38.648 40.790

184.905 5.436 6.265 7.015 7.906 9.390 10.865 12.857 17.338 21.605 22.760 25.989 28.869 32.346 34.805 37.156 40.136 42.312

195.407 5.969 6.844 7.633 8.567 10.117 11.651 13.716 18.338 22.718 23.900 27.204 30.144 33.687 36.191 38.582 41.610 43.820

205.921 6.514 7.434 8.260 9.237 10.851 12.443 14.578 19.337 23.828 25.038 28.412 31.410 35.020 37.566 39.997 43.072 45.315

216.447 7.070 8.034 8.897 9.915 11.591 13.240 15.445 20.337 24.935 26.171 29.615 32.671 36.343 38.932 41.401 44.522 46.797

226.983 7.636 8.643 9.542 10.600 12.338 14.041 16.314 21.337 26.039 27.301 30.813 33.924 37.659 40.289 42.796 45.962 48.268

237.529 8.212 9.260 10.196 11.293 13.091 14.848 17.187 22.337 27.141 28.429 32.007 35.172 38.968 41.638 44.181 47.391 49.728

248.085 8.796 9.886 10.856 11.992 13.848 15.659 18.062 23.337 28.241 29.553 33.196 36.415 40.270 42.980 45.559 48.812 51.179

258.649 9.389 10.520 11.524 12.697 14.611 16.473 18.940 24.337 29.339 30.675 34.382 37.652 41.566 44.314 46.928 50.223 52.620

269.222 9.989 11.160 12.198 13.409 15.379 17.292 19.820 25.336 30.435 31.795 35.563 38.885 42.856 45.642 48.290 51.627 54.052

279.803 10.597 11.808 12.879 14.125 16.151 18.114 20.703 26.336 31.528 32.912 36.741 40.113 44.140 46.963 49.645 53.023 55.476

2810.391 11.212 12.461 13.565 14.847 16.928 18.939 21.588 27.336 32.620 34.027 37.916 41.337 45.419 48.278 50.993 54.411 56.892

2910.986 11.833 13.121 14.256 15.574 17.708 19.768 22.475 28.336 33.711 35.139 39.087 42.557 46.693 49.588 52.336 55.792 58.301

3011.588 12.461 13.787 14.953 16.306 18.493 20.599 23.364 29.336 34.800 36.250 40.256 43.773 47.962 50.892 53.672 57.167 59.703

3514.688 15.686 17.192 18.509 20.027 22.465 24.797 27.836 34.336 40.223 41.778 46.059 49.802 54.244 57.342 60.275 63.955 66.619

4017.916 19.032 20.707 22.164 23.838 26.509 29.051 32.345 39.335 45.616 47.269 51.805 55.758 60.436 63.691 66.766 70.618 73.402

4521.251 22.477 24.311 25.901 27.720 30.612 33.350 36.884 44.335 50.985 52.729 57.505 61.656 66.555 69.957 73.166 77.179 80.077

5024.674 26.006 27.991 29.707 31.664 34.764 37.689 41.449 49.335 56.334 58.164 63.167 67.505 72.613 76.154 79.490 83.657 86.661

Page 99: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione chi quadrato 95

Derivazione

Derivazione della funzione di densità per un grado di libertàSia y = x2, dove x è una variabile casuale normalmente distribuita con media nulla e varianza unitaria (x ~ N(0,1)).

Allora, se , mentre, se.

dove e sono, rispettivamente, la funzione di densità e la funzione di probabilità cumulata.

Si ha quindi: .

Derivazione della funzione di densità per due gradi libertàÈ possibile derivare la distribuzione con 2 gradi di libertà partendo da quella con un grado.

Siano x e y due variabili casuali indipendenti tali che e .Dall'assunto di indipendenza segue che la loro funzione di probabilità congiunta è:

Siano e , abbiamo che:

o

Data la simmetria, possiamo prendere la prima coppia di soluzioni e moltiplicare il risultato per 2.Lo jacobiano è:

Possiamo quindi passare da a :

La distribuzione marginale di è quindi:

Page 100: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione chi quadrato 96

Ponendo , l'equazione diventa:

da cui:

Derivazione della funzione di densità per k gradi di libertàUn campione di k realizzazioni di una variabile normale standard è rappresentabile come un punto in uno spaziok-dimensionale. La distribuzione della somma dei quadrati sarà:

dove è la funzione di densità di una distribuzione normale standard e è una superficie k-1-dimensionalenello spazio k-dimensionale per cui vale:

Tale superficie è una sfera k-1 dimensionale con raggio .

Poiché Q è costante, può essere portato fuori dall'integrale:

L'integrale non è altro che l'area A della sfera moltiplicata per lo spessore infinitesimo della stessa, ovvero:

.

Sostituendo, notando che , e semplificando otteniamo infine:

da cui:

Page 101: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione chi quadrato 97

Note[1] Un documento (http:/ / www. jstor. org/ pss/ 2334525) riguardo al lavoro di Abbe

Voci correlate•• Distribuzione chi quadrato non centrale•• Distribuzione F di Snedecor•• Distribuzione normale•• Distribuzione t di Student•• Ernst Abbe•• Teorema centrale del limite•• Test chi quadro•• Variabili indipendenti•• Varianza

Distribuzione di Fisher-Snedecor

Distribuzione di Fisher-Snedecor

Funzione di densità di probabilità

i parametri m ed n sono indicati come d1 e d2

Funzione di ripartizione

i parametri m ed n sono indicati come d1 e d2

Page 102: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Fisher-Snedecor 98

Parametri (gradi di libertà)

Supporto

Funzione di densità

con la funzione Beta)Funzione di ripartizione

(con la funzione Beta incompleta regolarizzata)Valore atteso se

infinita altrimentiMediana

Moda se se

Varianza per

non definita altrimentiSkewness

Curtosi

Entropia

Funz. Gen. dei Momenti

Funz. Caratteristica

In teoria delle probabilità la distribuzione di Fisher-Snedecor, o F di Snedecor, è una distribuzione di probabilitàcontinua che regola il rapporto "riscalato" tra due variabili aleatorie che seguono due distribuzioni .Viene impiegata nell'analisi della varianza e in generale per l'omonimo test F.Prende il nome dai matematici George W. Snedecor (statunitense) e Ronald Fisher (britannico).

DefinizioneLa distribuzione di Fisher-Snedecor con parametri i numeri naturali governa la variabile aleatoria

,

dove e sono variabili aleatorie con rispettive distribuzioni chi quadrato con ed gradi di libertà,e .

Page 103: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Fisher-Snedecor 99

Caratteristiche

La distribuzione di Fisher-Snedecor di parametri ha funzione di densità di probabilità

,

dove è la funzione Beta.La sua funzione di ripartizione è data dalla funzione Beta incompleta regolarizzata,

.

La distribuzione ha momenti semplici di ordine infiniti per , altrimenti pari a

.

In particolare ha• speranza matematica pari a

• varianza pari a

• indice di asimmetria pari a

• indice di curtosi pari a

La sua moda è se e

se .

Altre distribuzioni

Per definizione, se una variabile aleatoria segue la distribuzione di Fisher-Sneecor di parametri

, allora la sua inversa segue la distribuzione di Fisher-Snedecor di parametri . Questa

relazione permette di esprimere i quantili di una distribuzione in termini dei quantili dell'altra:.

Una generalizzazione di questa distribuzione è la distribuzione di Fisher-Snedecor non centrale, per la quale lavariabile aleatoria nella definizione di può seguire una distribuzione chi quadrato non centrale.

Se è una variabile aleatoria con distribuzione t di Student di parametro , allora segue la distribuzionedi Fisher-Snedecor di parametri .

Se è una variabile aleatoria con distribuzione di Hotelling di parametri , allora segue

la distribuzione di Fisher-Snedecor di parametri .

Se la variabile aleatoria segue la distribuzione di Fisher-Snedecor di parametri , allora

segue la distribuzione Beta .

Page 104: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Distribuzione di Fisher-Snedecor 100

Voci correlate•• Analisi della varianza•• Distribuzione chi quadrato•• Funzione Beta di Eulero

Collegamenti esterni(EN) Eric W. Weisstein, Distribuzione di Fisher-Snedecor [1] su MathWorld.

Note[1] http:/ / mathworld. wolfram. com/ SnedecorsF-Distribution. html

Page 105: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

101

Cima Coppi

Disuguaglianza di ČebyšëvLa disuguaglianza di Čebyšëv è usata soprattutto nell'ambito della teoria probabilistica e più raramente nell'ambitodi serie di dati reali.La disuguaglianza venne pubblicata la prima volta nel 1853 da Irenée-Jules Bienaymé e riscopertaindipendentemente da Pafnutij L'vovič Čebyšëv alcuni anni dopo (pertanto viene anche citata come disuguaglianzadi Bienaymé-Čebyšëv).Nell'ambito della variabili stocastiche (v.s.) afferma che se la v.s. X ha valore atteso μ e la varianza σ² e λ è un realepositivo, allora la probabilità che X assuma un valore compreso tra μ-λσ e μ+λσ è maggiore di 1-1/λ².In altre parole afferma che, dato un carattere di cui sono noti solamente media aritmetica e deviazione standard , possiamo conoscere la frequenza relativa massima delle unità che possono avere valori esterni a un intervallosimmetrico rispetto alla media aritmetica. In altri termini questo teorema ci assicura che, indipendentemente dalladistribuzione della variabile casuale, la probabilità che questa assuma valori distanti dalla media più di volte ladeviazione standard è al massimo

Espresso con una formula:

che equivale a:[1]

Nell'ambito della statistica descrittiva afferma che almeno il (1-1/λ²)·100 percento dei valori sono compresi tra μ-λσe μ+λσ.Fisz dimostrò che per le variabili dotate di media e varianza non è possibile trovare una disuguaglianza migliore diquella di Čebyšëv, a meno che non si impongano dei vincoli alla distribuzione della variabile.Da questa disuguaglianza si deduce che•• almeno il 75% dei valori sono compresi tra μ-2σ e μ+2σ•• almeno l'88% dei valori sono compresi tra μ-3σ e μ+3σ•• almeno il 93% dei valori sono compresi tra μ-4σ e μ+4σ•• almeno il 96% dei valori sono compresi tra μ-5σ e μ+5σ•• almeno il 99% dei valori sono compresi tra μ-10σ e μ+10σindipendentemente da come sono distribuiti i valori.

Page 106: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Disuguaglianza di Čebyšëv 102

Dimostrazione probabilisticaPer ogni evento A, sia IA la variabile casuale indicatore di A, cioè IA è uguale a 1 se l'evento A accade e 0 altrimenti.Allora si ha:

Dalla disuguaglianza di Markov segue poi:

Si ha quindi:

Note[1][1] Si ha infatti:

e:

da cui:

Bibliografia• A. Papoulis (1991), Probability, Random Variables, and Stochastic Processes, 3rd ed. McGraw-Hill. ISBN

0-07-100870-5. pp. 113–114.• G. Grimmett and D. Stirzaker (2001), Probability and Random Processes, 3rd ed. Oxford. ISBN 0-19-857222-0.

Section 7.3.

Voci correlate• Disuguaglianza di Cantelli, che è la corrispondente disuguaglianza nel caso di una sola coda.• Disuguaglianza di Bernstein, nel caso di v.c. limitate• Disuguaglianza di Hoeffding, nel caso di v.c. limitate, con varianza ignota• Statistica, Probabilità• Deviazione standard, Intervallo di confidenza

Page 107: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Disuguaglianza di Markov 103

Disuguaglianza di MarkovIn teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale nonnegativa il cui valore atteso esiste:

Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza delvalore atteso E[x], a condizione che la variabile casuale sia definita non negativa.La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv.

Dimostrazione

Si definisca la variabile casuale:

Chiaramente, . Inoltre:

Voci correlate•• Andrej Andreevič Markov (1856)•• Modello di Markov nascosto

Legge dei grandi numeriLa legge dei grandi numeri, detta anche legge empirica del caso oppure teorema di Bernoulli (in quanto la suaprima formulazione è dovuta a Jakob Bernoulli), descrive il comportamento della media di una sequenza di nvariabili casuali indipendenti e caratterizzate dalla stessa distribuzione di probabilità (n misure della stessagrandezza, n lanci della stessa moneta ecc.) al tendere ad infinito della numerosità della sequenza stessa (n). In altreparole, grazie alla legge dei grandi numeri, possiamo fidarci che la media che calcoliamo a partire da un numerosufficiente di campioni sia sufficientemente vicina alla media vera.In termini generici, per la legge dei grandi numeri si può dire:•• che la media della sequenza è un'approssimazione, che migliora al crescere di n, della media della distribuzione;•• e che, viceversa, si può prevedere che sequenze siffatte mostreranno una media tanto più spesso e tanto più

precisamente prossima alla media della distribuzione quanto più grande sarà n.Un caso particolare di applicazione della legge dei grandi numeri è la previsione probabilistica della proporzione disuccessi in una sequenza di n realizzazioni indipendenti di un evento E: per n che tende a infinito, la proporzione disuccessi converge alla probabilità di E (vedi esempio).

Page 108: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Legge dei grandi numeri 104

Legge forte dei grandi numeriSe, data una successione di variabili casuali indipendenti e identicamente distribuite con media

, si considera la media calcolata

la legge (forte) dei grandi numeri afferma che

ossia la media campionaria converge quasi certamente alla media comune delle .

Legge debole dei grandi numeriSe, data una successione di variabili casuali aventi la stessa media , la stessa varianza finitae indipendenti, si considera la media campionaria

la legge (debole) dei grandi numeri afferma che per ogni :

ossia la media campionaria converge in probabilità alla media comune delle .

EsempioSupponiamo di avere un evento (come il fatto che lanciando un dado esca il sei) con probabilità sconosciuta (sconosciuta perché il dado potrebbe essere truccato, o semplicemente difettoso: non possiamo saperlo in anticipo).Eseguendo n lanci consecutivi otteniamo una stima della probabilità di fare sei con quel dado, data da

dove le X della somma rappresentano l'esito dei lanci e valgono uno se in quel lancio è uscito il sei, o zero se è uscitoun altro numero. La legge dei grandi numeri afferma semplicemente che, tante più prove usiamo per calcolare lastima, tanto più questa sarà vicina, probabilmente, alla probabilità reale dell'evento p.Se la stima X(n) che calcoleremo sarà molto vicina a un sesto, che è la probabilità teorica che esca il sei per un dadoperfetto, potremo essere ragionevolmente certi che il dado in questione non è polarizzato per il sei (per essere sicuriche il dado non sia truccato in nessun modo dovremmo ripetere il test anche per gli altri cinque numeri). Che cosasignifichi ragionevolmente sicuri dipende da quanto vogliamo essere precisi nel nostro test: con dieci proveavremmo una stima grossolana, con cento ne otterremmo una molto più precisa, con mille ancora di più e così via: ilvalore di n che siamo disposti ad accettare come sufficiente dipende dal grado di casualità che riteniamo necessarioper il dado in questione.

Page 109: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Legge dei grandi numeri 105

Con maggior rigoreSia una successione di spazi di probabilità. Si consideri lo spazio prodotto e inesso una successione bernoulliana di eventi (stocasticamente indipendenti e con probabilità costante p)

. Assegnato un elemento si definisce la frequenza di successo in n prove

, dove indica il numero di successi ottenuti in n prove.

Legge debole dei grandi numeri

Dimostrazione

Nelle condizioni sopra enunciate, si vuole dimostrare che:

.Fissato , si consideri la disuguaglianza di Bienaymé-Čebyšëv:

;

poiché è distribuito in modo binomiale, il suo valore atteso è

,e la sua varianza è

;abbiamo allora che il valore atteso e la varianza di sono, rispettivamente:

,

.

Sostituendo nella disuguaglianza, si ottiene:

,

e, passando al limite per ,

Ma la probabilità non può essere negativa:

,da cui la tesi.

Osservazioni

La legge debole dei grandi numeri non assicura che, comunque scelto , quasi certamente a partire da un certoil valore si mantenga minore o uguale a , ovvero che l'insieme

sia -trascurabile. Infatti, esplicitando la definizione di limite,si trova: ma niente sembraassicurare che non diverga per .

Page 110: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Legge dei grandi numeri 106

Legge forte dei grandi numeri

Ciò è invece assicurato, nelle medesime condizioni, dalla proposizione: che,

in effetti, implica sia sia la legge debole deigrandi numeri.Dimostrazione delle due implicazioni

la legge forte può essere formulata, esplicitando la Definizione di limite e passando al complementare, come:

che a sua volta è equivalente, trasformando il quantificatore esistenziale in un'unione, a:

e per monotonia di

da cui, per confronto, la prima implicazione.Trasformando anche gli altri due quantificatori in operazioni insiemistiche, si ha:

ma, si è in presenza dell'intersezione di una successione non crescente di insiemi, dunque per monotonia di , si ha:

e ancora:

da cui anche la seconda implicazione, ricordando che questo è valido per ogni .Dimostrazione della legge forte

si è già visto che l'asserto è equivalente a:

Discretizzando, come consueto nel caso dei limiti, si ha:

Per subadditività

Dunque, se quest'ultima espressione sarà nulla, si sarà dimostrata la legge forte. Essendo non negativa, sidovrà avere:

Page 111: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Legge dei grandi numeri 107

si vuole mostrare che questo è vero considerando la sottosuccessione . Si vuole applicare il lemma diBorel-Cantelli, pertanto si verifica che converga l'espressione

Per la disuguaglianza di Bienaymé-Čebyšëv si trova:

da cui:

Ma questa serie è notoriamente convergente. Pertanto,

Si noti ora che ogni numero naturale n è compreso tra due quadrati consecutivi:

da cui

si noti ora che è la massima differenza possibile tra e , da cui:

pertanto:

ora però si ha , dunque:

passando al limite ( )e applicando il risultato ottenuto per , si ottiene che, quasicertamente:

il che conclude la dimostrazione.

Voci correlate•• Campionamento statistico• Statistica, probabilità•• Distribuzione di Bernoulli

Page 112: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoremi centrali del limite 108

Teoremi centrali del limiteI teoremi centrali del limite sono una famiglia di teoremi di convergenza debole nell'ambito della teoria dellaprobabilità. A tutti i teoremi è comune l'affermazione che la somma (normalizzata) di un grande numero di variabilicasuali è distribuita approssimativamente come una variabile casuale normale standard. Ciò spiega l'importanza chequest'ultima variabile casuale assume nell'ambito della statistica e della teoria della probabilità in particolare.Jarl Waldemar Lindeberg dimostrò nel 1922 il teorema del limite centrale nell'articolo "Eine neue Herleitung desExponentialgesetzes in der Wahrscheinlichkeitsrechnung", dimostrato successivamente e autonomamente da AlanTuring.Infatti il teorema, in parole povere, afferma che se si ha una somma di variabili aleatorie indipendenti eidenticamente distribuite (con densità uguali) con media μ e varianza σ2, allora indipendentemente dalla formadistributiva di partenza, al tendere della dimensione campionaria a infinito la somma tende a distribuirsi come unavariabile casuale normale. In formule:

per

e standardizzando:

dove

è la v.c. media campionaria.

Teorema centrale del limite di Lindeberg-LévyLa più nota formulazione di un teorema centrale del limite è quella dovuta a Lindeberg e Lévy; si consideri unasuccessione di variabili casuali indipendenti e identicamente distribuite, e in particolare tali che esistano,

finiti, i loro momenti di ordine primo e secondo, e sia in particolare e per ogni . Definita allora la nuova variabile casuale:

dove è la media aritmetica degli , si ha che converge in distribuzione a una variabile casuale

normale avente valore atteso 0 e varianza 1, ossia la distribuzione di , al limite per che tende a infinito,coincide con quella di una tale variabile casuale normale.La dimostrazione del teorema fa uso della nozione di funzione caratteristica della , che altro non è che latrasformata di Fourier della funzione di densità (o di massa di probabilità per variabili casuali discrete) della :

dove è l'unità immaginaria, e denota la funzione di densità di probabilità di . Nel caso presente, si ha:

dove l'ultima uguaglianza discende dalla indipendenza degli ; per semplicità di notazione sia ; si

osservi che . Si consideri quindi lo sviluppo di Taylor, centrato in

Page 113: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoremi centrali del limite 109

del valore atteso:

Segue che:

Ma applicando il limite notevole: , si ha:

Nell'espressione sopra si riconosce la funzione caratteristica di una variabile casuale normale standard, così che lafunzione di densità, e dunque la funzione di ripartizione, della , converge a quella di una normale standard altendere di a infinito, come volevasi dimostrare.

Teorema di De Moivre-LaplaceUn corollario importante e usato frequentemente del teorema Centrale del Limite è il seguente:

Se è una v.c. binomiale, che possiamo vedere come somma di v.c. bernoulliane. Allora per:

ovvero una normale con media e varianza .Se standardizziamo:

Questo teorema è molto utile nel caso si vogliano valori approssimati del numero di successi nella ripetizione di unesperimento indipendente dagli esiti passati, visto che la variabile aleatoria binomiale risulta spesso difficile dacalcolare con numeri elevati. L'approssimazione è tanto migliore quanto più è alto il numero di esperimenti.

DimostrazioneIl teorema di De Moivre-Laplace può essere dimostrato più facilmente del teorema Centrale del Limite, con unaprova per la quale è necessaria la conoscenza degli sviluppi di Taylor e dell'Approssimazione di Stirling. Per ilfattoriale di un numero n sufficientemente grande vale la formula di Stirling, secondo cui:

o, equivalentemente:

La funzione di densità di si potrà scrivere allora come:

Page 114: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoremi centrali del limite 110

Sia ora

 and 

  and 

Consideriamo dapprima il primo termine tra parentesi quadre nell'ultima uguaglianza:

Page 115: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoremi centrali del limite 111

E quindi il secondo termine tra parentesi quadrate:

Per cui si ha che:

Consideriamo quindi il logarimo naturale che appare nell'ultima uguaglianza.

Utilizzando le espansioni di Taylor seguenti:-

si ha:

e

Page 116: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoremi centrali del limite 112

per cui

Possiamo ignorare i termini di grado maggiore del secondo, essendo proporzionale a che tende a 0 alcrescere di .Dunque, elevando al quadrato e dividendo per due x, si ha:

Quindi,

che è esattamente l'asserto che volevamo provare - il termine a destra è una distribuzione normale con media evarianza .

Page 117: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teoremi centrali del limite 113

Voci correlate•• Legge dei grandi numeri•• Statistica•• Probabilità•• Variabile casuale•• Variabile casuale normale•• Jarl Waldemar Lindeberg•• Alan Turing•• Disuguaglianza di Berry-Esseen•• Teorema di Laplace-Lyapunov•• Macchina di Galton

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Centrallimit theorem

Processo markovianoUn processo stocastico markoviano o processo di Markov è un processo stocastico nel quale la probabilità ditransizione che determina il passaggio ad uno stato di sistema dipende unicamente dallo stato di sistemaimmediatamente precedente (proprietà di Markov) e non dal come si è giunti a tale stato (in quest'ultima ipotesi siparla di processo non markoviano).Tale processo prende il nome dal matematico russo Andrej Andreevič Markov che per primo ne sviluppò la teoria.Modelli di tipo markoviano vengono anche utilizzati nel progetto di reti di telecomunicazioni; la teoria delle codeche ne consegue trova applicazione in molti ambiti: dalla fila alle poste ai pacchetti in coda in un router.Formalmente questo può essere scritto come

Questa è detta proprietà di Markov, o condizione di "assenza di memoria".

Catene di MarkovUna catena di Markov è un processo di Markov con spazio degli stati discreto, quindi si tratta di un processostocastico che assume valori in uno spazio discreto e che gode della proprietà di Markov. L'insieme di spaziodegli stati può essere finito o infinito (numerabile). Nel primo caso si parla di catena di Markov a stati finiti. Unacatena di Markov può essere tempo-continua o tempo-discreta, in base all'insieme di appartenenza della variabiletempo (continuo o discreto).Formalmente, una catena di Markov è un processo stocastico Markoviano caratterizzato da un parametro ,da un insieme di stati e da una funzione probabilità di transizione .Essendo un processo Markoviano, gode come già detto della proprietà:

Nel caso di catena di Markov a tempo discreto (cioè con l'insieme discreto), si può assumere la notazione piùsemplice:

Page 118: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Processo markoviano 114

Catene di Markov omogeneeUna catena di Markov omogenea è un processo markoviano nel quale la probabilità di transizione al tempo nondipende dal tempo stesso, ma soltanto dallo stato del sistema al tempo immediatamente precedente . Inaltre parole, la probabilità di transizione è indipendente dall'origine dell'asse dei tempi e quindi dipende soltantodalla distanza tra i due istanti temporali.Per le catene omogenee vale la condizione

Più in generale si dimostra che in una catena di Markov omogenea la probabilità di transizione da uno stato a un altroin passi è costante nel tempo:

I sistemi reali che possono essere modellati con catene di Markov omogenee sono rari: è sufficiente pensare alsistema "tempo atmosferico" per capire come la probabilità di transizione da uno stato (per esempio "sole") ad unaltro stato (per esempio "pioggia") dipende dalla stagione, quindi non è possibile modellare questo sistema comecatena di Markov omogenea. Tuttavia, restringendo l'analisi del sistema ad un determinato intervallo di tempo, ilcomportamento di può considerare omogeneo: in questo caso, l'intervallo di tempo potrebbe essere una singolastagione.

RappresentazioneUna catena di Markov omogenea a stati finiti, in cui l'insieme degli stati del sistema è finito e ha elementi,può essere rappresentata mediante una matrice di transizione ed un vettore di probabilità iniziale

.Gli elementi di rappresentano le probabilità di transizione tra gli stati della catena: una catena che si trovi nellostato i ha probabilità di passare allo stato j in un passo immediatamente successivo. In particolare gli elementisulla diagonale principale di , indicano le probabilità di rimanere sullo stesso stato i. Il vettore definiscele probabilità che inizialmente la catena di Markov si trovi in ciascuno degli stati. Una catena di Markovomogenea è univocamente definita dalla coppia .Le probabilità che ad un tempo il sistema si trovi in ognuno degli stati (se al tempo ha la distribuzione diprobabilità ), in questo caso sono date dal vettore così definito:

dove indica la trasposta del vettore .Dalla definizione assiomatica della probabilità discendono le seguenti proprietà per la matrice :

• .

La seconda proprietà equivale a richiedere che la somma degli elementi su una riga sia uguale a 1.Per esempio, e possono essere i seguenti:

Nel caso di una catena di Markov omogenea a stati discreti si può invece adottare la notazione sintetica:

dove (n) non è da intendersi come un esponente bensì come un indice.

Page 119: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Processo markoviano 115

Si ha quindi .

Si hanno le seguenti proprietà:

• .

Catene di Markov aperiodiche

Il periodo di uno stato di una catena di Markov a stati discreti (con finito o infinito numerabile) èdefinito come il minimo numero di step temporali affinché vi sia una probabilità diversa da zero di tornare sullostesso stato, partendo dallo stato al tempo . Formalmente il periodo è definito come segue:

dove MCD indica il massimo comune divisore.Nel caso di una catena di Markov omogenea a stati finiti con un numero di stati, rappresentabile quindi con unamatrice , la definizione si può riformulare così:

.Lo stato è detto aperiodico se il suo periodo è uguale a 1.Una catena di Markov è detta aperiodica se tutti i suoi stati sono aperiodici, altrimenti è detta periodica.

Catene di Markov irriducibiliUna catena di Markov a stati discreti è detta irriducibile se partendo da ogni stato c'è una probabilità maggioredi zero di raggiungere ogni altro stato . Formalmente, una catena di Markov è irriducibile se:

.

Distribuzioni stazionarieData una catena di Markov omogenea a stati discreti, una sua distribuzione stazionaria di probabilità (detta anchedistribuzione di equilibrio) è una distribuzione discreta di probabilità che soddisfa leseguenti:•

• .

Euristicamente, una distribuzione stazionaria è una distribuzione di probabilità che si mantiene costante all'evolversinel tempo della catena di Markov.L'importanza delle distribuzioni stazionarie per le catene di Markov omogenee a stati discreti è data dai seguentiteoremi:• Il teorema di esistenza e unicità afferma che data una catena di Markov omogenea a stati discreti, con probabilità

di transizione e spazio degli stati , se la catena di Markov è irriducibile allora esiste un'unica distribuzionestazionaria per la catena di Markov.

• Il teorema della convergenza afferma che data una catena di Markov omogenea a stati discreti, con probabilità ditransizione e spazio degli stati , se la catena di Markov è irriducibile ed aperiodica la distribuzione diprobabilità al tempo , converge alla distribuzione stazionaria per ogni distribuzione iniziale diprobabilità scelta. Si ha cioè

Page 120: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Processo markoviano 116

.

La convergenza di una catena di Markov a una distribuzione stazionaria, e la possibilità di costruire una catena conuna distribuzione stazionaria scelta sono alla base del funzionamento dell'algoritmo di Metropolis-Hastings.

Catene di Markov ergodicheUna catena di Markov si definisce ergodica se e solo se per ogni istante iniziale e per ogni condizione iniziale diprobabilità esiste ed è indipendente da e da , il limite della probabilità per tempi infiniti

.

ApplicazioniIl motore di ricerca Google assegna un valore all'importanza di un sito web tramite l'algoritmo PageRank:quest'ultimo si basa sull'assegnare una probabilità di transizione da un sito web A a un sito B basata sulla quantità dilink che da A conducono a B. Conoscendo la probabilità di transizione è possibile ottenere la distribuzionestazionaria di probabilità della catena di Markov formata da tutti i siti web. La distribuzione stazionaria assegna unvalore nell'intervallo [0,1] ad ogni sito (corrispondente alla quantità media di tempo spesa sul sito da un gran numerodi utenti dopo un tempo tendente a infinito): tale valore, opportunamente riscalato, costituisce il Page Rank del sito.

Bibliografia• (EN) Olle Häggström (2002), Finite Markov Chains and Algorithmic Applications, Cambridge University press,

ISBN 0-521-81357-3

Voci correlate•• Processo stocastico•• Variabile casuale•• Processo di Wiener•• Modello di Markov nascosto•• Algoritmo di Metropolis-Hastings•• N-gramma•• Teoria ergodica

Page 121: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

117

Pignoni

Calcolo combinatorioIl calcolo combinatorio è il termine che denota tradizionalmente la branca della matematica che studia i modi perraggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio siinteressa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quantisono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera.Più formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggettitratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti:• Se l'ordinamento è importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} è

uguale a {z,x,y}?)• Se si possono avere più ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme può o meno

essere riusato più volte all'interno di una stessa configurazione.

Permutazioni

Permutazioni semplici (senza ripetizioni)Una permutazione di un insieme di oggetti è una presentazione ordinata, cioè una sequenza, dei suoi elementi nellaquale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insiemecon n oggetti, si osservi che il primo elemento della configurazione può essere scelto in n modi diversi, il secondo in(n-1), il terzo in (n-2) e così via sino all'ultimo che potrà essere preso in un solo modo essendo l'ultimo rimasto.Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sonoesattamente n! (n fattoriale):

Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altroesempio può essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anchele parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B:nella parola ATRIO nessuna lettera si ripete.Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti:1! = 1 e 0! = 1.

Permutazioni con ripetizioniIn alcuni casi un insieme può contenere elementi che si ripetono. In questo caso alcune permutazioni di tali elementisaranno uguali tra loro. Indicando con k1, k2 fino a kr il numero di volte che si ripetono rispettivamente gli elementi1, 2 fino a r, dove r ≤ n, le permutazioni uniche (non ripetute) divengono:

Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1!presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di unostesso elemento, ecc.

Page 122: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Calcolo combinatorio 118

La formula vale in realtà per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2fino a kr uguali ad 1 (cioè gli elementi si ripetono una sola volta), otteniamo esattamente la formula dellepermutazioni semplici, perché si ha:

Ad esempio: In quanti modi possiamo anagrammare la parola FARFALLA.Le lettere contenute nella parola sono n=8; gli elementi che si ripetono sono “F” (k1=2) ; “A” (k2=3); “L” (k3=2)Utilizzando la formula, avremo:

DismutazioniSono dette dismutazioni le permutazioni prive di punti fissi, con formula:

Disposizioni

Disposizioni semplici (senza ripetizioni)Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k ≤ n, è una presentazioneordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero diqueste configurazioni si considera che il primo componente di una tale sequenza può essere scelto in n modi diversi,il secondo in (n-1) e così via, sino al k-esimo che può essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,kdi disposizioni semplici di k oggetti estratti da un insieme di n oggetti è dato da:

Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! =120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54.Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di noggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero:

Disposizioni con ripetizioniUna presentazione ordinata di elementi di un insieme nella quale si possono avere ripetizioni di uno stesso elementosi dice disposizione con ripetizioni. Cerchiamo il numero delle possibili sequenze di k oggetti estratti dagli elementidi un insieme di n oggetti, ognuno dei quali può essere preso più volte. Si hanno n possibilità per scegliere il primocomponente, n per il secondo, altrettante per il terzo e così via, sino al k-esimo che completa la configurazione. Ilnumero cercato è pertanto:

Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva chepuò anche essere k > n

Page 123: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Calcolo combinatorio 119

Combinazioni

Combinazioni semplici (senza ripetizioni)Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanzal'ordine dei componenti e non si può ripetere lo stesso elemento più volte. La collezione delle combinazioni di kelementi estratti da un insieme S di n oggetti distinti si può considerare ottenuta dalla collezione delle disposizionisemplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lostesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi disequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza σ si hanno tutte e sole quelleottenibili permutando i componenti della σ. Quindi il numero delle combinazioni semplici di n elementi di lunghezzak si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k:

Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenzanella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinatitotalmente, ovvero associati biunivocamente ai primi interi positivi).Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235,1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456.

Combinazioni con ripetizioniQuando l'ordine non è importante ma è possibile avere componenti ripetute si parla di combinazioni conripetizione. Il numero di combinazioni con ripetizione di n oggetti di classe k è uguale a quello delle combinazionisenza ripetizione di n+k-1 oggetti di classe k ed è quindi uguale a:

.

Ad esempio, vi sono modi di distribuire a 2 bambini distinguibili 4 caramelle indistinguibili,

contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0.Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi lacui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddettoesempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti diclasse k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili.

Voci correlate•• Combinatoria•• Permutazione•• Disposizione•• Combinazione•• Dismutazione (matematica)•• Binomio di Newton

Page 124: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Calcolo combinatorio 120

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/Category:Combinatorics

Coefficiente binomialeIl coefficiente binomiale è definito da

(dove n! è il fattoriale di n) e può essere calcolato anche facendo ricorso al triangolo di Tartaglia. Alla voceCombinazione è dimostrato che esso fornisce il numero delle combinazioni semplici di n elementi di classe k.Per esempio:

è il numero di combinazioni di 5 elementi presi 3 alla volta.

ProprietàIl coefficiente binomiale ha le seguenti proprietà:

• , ovvero:

(proprietà che permette di costruire i coefficienti binomiali con il triangolo di Tartaglia)

EstensioniSi può estendere il coefficiente binomiale al caso che k sia negativo, oppure maggiore di n, ponendo:

oppure

Si può anche estendere il coefficiente ai numeri reali. A tale scopo, può convenire iniziare con l'osservazione che ilcoefficiente binomiale è anche il rapporto tra il numero delle funzioni iniettive da un insieme di cardinalità k in unodi cardinalità n (ovvero il numero delle disposizioni semplici di n oggetti di classe k) ed il numero delle permutazionidi k oggetti:

Si può porre:

Page 125: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Coefficiente binomiale 121

ad esempio,

Con tale convenzione, si ha:

ad esempio:

Voci correlate•• Coefficiente multinomiale•• Coefficiente binomiale simmetrico•• Teorema binomiale•• Fattoriale• Calcolo combinatorio, Combinazione, Permutazione•• Probabilità•• Variabile casuale binomiale•• Statistica

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Binomialcoefficients

Page 126: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema binomiale 122

Teorema binomialeIn algebra il teorema binomiale (o anche formula di Newton, binomio di Newton e sviluppo binomiale) esprimelo sviluppo della potenza n-esima di un binomio qualsiasi con la formula seguente:

in cui il fattore rappresenta il coefficiente binomiale ed è sostituibile con . Tali coefficienti sono

peraltro gli stessi che si trovano nel noto triangolo di Tartaglia.Lo sviluppo vale per ogni coppia di numeri reali o complessi, ma più in generale vale in ogni anello commutativo.Come esempio di applicazione della formula, riportiamo i casi piccoli, n = 2, n = 3 ed n = 4:

Nel caso in cui n sia un numero reale o complesso, la somma finita è sostituito da una serie infinita. Questa formulageneralizzata, nel caso di n reale positivo, fu realizzata da Isaac Newton (da cui il nome).

EsposizioneÈ possibile, secondo il teorema, espandere una qualunque potenza intera di (a + b) in una sommatoria nella forma

dove rappresentano i coefficienti binomiali. Utilizzando la notazione di sommatoria, la stessa formula puòessere scritta:

Una variante di questa formula binomiale può essere ottenuta sostituendo 1 ad "a" e "a" a "b", considerando quindiuna sola variabile. In questa forma, si ha:

o, in maniera equivalente,

Page 127: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema binomiale 123

Prima dimostrazione (induttiva)Il teorema binomiale può essere dimostrato per induzione. Infatti è possibile introdurre per tale teorema un passobase per cui esso risulta banalmente vero

e provare con il passo induttivo la veridicità del teorema per un esponente n qualsiasi. Infatti presa per correttal'espressione

sicuramente vera per +1, si ha

moltiplicando la sommatoria per si ha

da cui, essendo

ed inoltre

si ha che, utilizzando nel primo passaggio una nota proprietà del coefficiente binomiale

essendo infine

Page 128: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema binomiale 124

e

si ha che

e si ottiene l'espressione formale dello sviluppo della potenza successiva del binomio

che conferma la tesi.

Seconda dimostrazione (combinatoria)Se scriviamo come il prodotto

con n fattori, è evidente che il numero delle volte in cui compare nello sviluppo il termine è pari al numerodi combinazioni che si possono ottenere prendendo volte e volte dai fattori del prodotto, numero

che è dato proprio da .

Poiché per la proprietà distributiva il prodotto è dato dalla somma di questi termini al variare di da a , si hasubito la tesi.

Caso di esponente generaleUna dimostrazione possibile del caso è attraverso le serie di Taylor.Nella pratica si usano spesso solo i primi due termini della serie, ossia dove il restoo(x) indica un infinitesimo di ordine superiore al primo.Lo sviluppo completo è

,

dove è il coefficiente binomiale generalizzato, dato da

.

Page 129: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Teorema binomiale 125

Dimostrazione

Lo sviluppo attorno all'origine della funzione è

e, poiché

si ottiene

che è la formula di cui sopra. Troncando la serie al k-esimo termine, l'errore che si ottiene è un infinitesimo di ordine.

Voci correlate•• Trinomio di Newton•• Teorema multinomiale•• Coefficiente binomiale

Coefficiente multinomialeIl coefficiente multinomiale è un'estensione del coefficiente binomiale. Per un numero intero non negativo e unvettore intero non negativo di normauno pari a n, il coefficiente multinomiale è definito come

ed è sempre un numero naturale.

Teorema multinomialeCome generalizzazione del teorema binomiale vale il cosiddetto teorema multinomiale:

ovvero

dove indica la sommatoria di tutte le possibili erruple la cui somma degli elementi corrisponda proprio

a .Una forma più compatta della precedente formula fa uso della notazione multi-indice e della contrazione tensoriale:

con le norme unitarie:

Page 130: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Coefficiente multinomiale 126

e:

ApplicazioniIl coefficiente multinomiale è pari al numero di modi in cui possono essere messi oggetti in scatole, tali che oggetti stiano nella prima scatola, nella seconda, e così via.Analogamente il coefficiente multinomiale dà il numero delle permutazioni di n oggetti, di cui uguali tra loro,

uguali tra loro e così via, potendo un qualsiasi essere uguale a 1, e avendosi così .

Il coefficiente multinomiale viene usato inoltre nella definizione della variabile casuale multinomiale:

una variabile casuale discreta.

EsempioVi sono molti modi di distribuire a 3 giocatori 10 carte ciascuno, mettendone da parte 2, il tutto prelevato da unmazzo di 32 carte (come nel tradizionale gioco di carte tedesco skat). Quanti sono questi modi?

Voci correlate•• Calcolo combinatorio•• Coefficiente binomiale•• Probabilità•• Teorema binomiale•• Variabile casuale multinomiale

Page 131: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

127

Tappe in linea

Problema di Monty Hall

Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto)mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli

cambiando scelta ha il 66,7% di probabilità di vincere l'auto, non cambiandola ne avrebbeil 33,3%.

Il problema di Monty Hall è unfamoso problema di teoria dellaprobabilità, legato al gioco a premiamericano Let's Make a Deal. Prende ilnome da quello del conduttore delloshow, Maurice Halprin, noto con lopseudonimo di Monty Hall.

Nel gioco vengono mostrate alconcorrente tre porte chiuse; dietro aduna si trova un'automobile, mentreciascuna delle altre due nasconde unacapra. Il giocatore può scegliere unadelle tre porte, vincendo il premiocorrispondente. Dopo che il giocatoreha selezionato una porta, ma non l'haancora aperta, il conduttore dello show– che conosce ciò che si trova dietro ogni porta – apre una delle altre due, rivelando una delle due capre, e offre algiocatore la possibilità di cambiare la propria scelta iniziale, passando all'unica porta restante.

Cambiare porta migliora le chance del giocatore di vincere l'automobile? La risposta è sì: cambiando le probabilità disuccesso passano da 1/3 a 2/3.Il problema è anche noto come paradosso di Monty Hall, poiché la soluzione può apparire controintuitiva, ma nonsi tratta di una vera antinomia, in quanto non genera contraddizioni logiche.

Storia del problema e sua soluzione

Il problemaUna famosa formulazione del problema è contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata allarubrica di Marilyn vos Savant nel settimanale Parade:

Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'èun'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco apremi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando unacapra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua sceltaoriginale?

Quella proposta sopra è una formulazione del problema data da Steve Selvin, in una lettera all'American Statistician(febbraio 1975). Così impostato, il problema è in realtà una variazione sul tema del gioco a premi originale; MontyHall in effetti apriva una porta dietro cui si trovava una capra per aumentare la tensione, ma non consentiva aigiocatori di cambiare la propria scelta originale. Come scrisse lo stesso Monty Hall a Selvin:

Page 132: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 128

E se mai dovesse partecipare al mio gioco, le regole sarebbero le stesse per lei - nessuno scambio dopola scelta originale.—(letsmakeadeal.com) [1]

Marilyn vos Savant risolse il problema correttamente; l'episodio fece un certo scalpore, in quanto diversi accademicinon riconobbero la correttezza della soluzione proposta dalla vos Savant finché questa non la spiegò nel dettaglio inun successivo articolo.La successiva lettera di Selvin all'America Statistician (agosto, 1975) battezza il problema come "Problema di MontyHall".Un problema essenzialmente identico appare in ogni modo nella rubrica Mathematical Games di Martin Gardner nel1959, col nome di "Problema dei tre prigionieri".Questo problema era stato ideato dal matematico francese Joseph Louis François Bertrand che lo aveva proposto nelsuo libro Calcul des Probabilités (1889) ed era noto come il Paradosso delle tre scatole di Bertrand.Quella che segue, per concludere, è una formulazione del problema priva di ambiguità, con vincoli espliciticoncernenti il comportamento del conduttore, presentata da Mueser e Granberg:•• Dietro ciascuna di tre porte c'è un'automobile o una capra (due capre, un'automobile in tutto); la probabilità che

l'automobile si trovi dietro una data porta è identica per tutte le porte;•• Il giocatore sceglie una delle porte; il suo contenuto non è rivelato;•• Il conduttore sa ciò che si nasconde dietro ciascuna porta;•• Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la

sua scelta;•• Il conduttore aprirà sempre una porta che nasconde una capra;

•• Cioè, se il giocatore ha scelto una porta che nasconde una capra, il conduttore aprirà la porta che nascondel'altra capra;

•• Se invece il giocatore ha scelto la porta che nasconde l'automobile, il conduttore sceglie a caso una delle dueporte rimanenti;

•• Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha sceltooriginalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta.

Le possibilità di vittoria aumentano per il giocatore se cambia la propria scelta?

SoluzioneLa risposta è sì; le probabilità di trovare l'automobile raddoppiano.[2][3]

La soluzione può essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilità 1/3:•• Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra, la numero 2. Cambiando, il giocatore

vince l'auto.•• Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra, la numero 1. Cambiando, il giocatore

vince l'auto.•• Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra

capra.Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dalmomento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategiasono 2/3.Una strategia di soluzione alternativa è considerare che se si suppone di cambiare, il solo caso in cui si perde è quelloin cui originariamente si è scelta l'automobile e quindi la domanda del conduttore può essere considerata un invito ainvertire le probabilità di successo con quelle di insuccesso.

Page 133: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 129

Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se ilconduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazionidel problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilità;diversi testi di probabilità elementare riportano varianti del problema. Per esempio, se il conduttore offre lapossibilità di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate allastrategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatoreche cambia ha una probabilità di vittoria pari a 2/3 precisamente perché il conduttore deve offrirgli la possibilità dicambiare, e deve rivelare una capra.

Aiuti alla comprensione del problemaL'obiezione più comune alla soluzione è fornita dall'idea che, per varie ragioni, il passato possa essere ignoratoquando si valutano delle probabilità. Dunque, la scelta della prima porta e il ragionamento del conduttore circa qualeporta aprire si possono trascurare; dal momento che si può scegliere tra due porte, la probabilità di scegliere quellagiusta dovrebbe essere pari al 50%.Per confutare ciò possiamo porci una domanda. Ipotizziamo che un giocatore adotti la strategia di non accettare mail'offerta del conduttore, qualunque essa sia. Se le probabilità di vincita all'inizio sono del 33%, ha senso pensare chequeste passino automaticamente al 50% solo perché il conduttore ha chiesto qualcosa che il giocatore non ascoltaneanche? Ovviamente no.Sebbene ignorare il passato funzioni in certi giochi, come ad esempio nel lancio di una moneta, non funzionanecessariamente in tutti i giochi. Un rilevante controesempio è fornito dal conteggio delle carte uscite in certi giochidi carte, che consente ai giocatori di sfruttare a proprio vantaggio l'informazione riguardante eventi passati. Questotipo di informazione è utile nella soluzione del problema di Monty Hall, come illustrato negli esempi che seguono.Infatti, è più facile (probabile) che il giocatore si trovi ad aver scelto (prima scelta nel passato) una capra (aveva duepossibilità su tre per una capra contro una possibilità su tre per l'automobile).Quello che realmente fa la differenza è la conoscenza del futuro o almeno la restrizione dei possibili eventi futuri.Mentre nel lancio della moneta le probabilità di uscita testa o croce non dipendono dai lanci passati, negli esempi dicarte (contare le carte) o del problema di Monty Hall i possibili eventi futuri si "riducono" dopo un preciso episodio.Nel caso del contare le carte, l'uscita di una carta modifica le possibili carte che possono ancora uscire, quindi nemodifica la probabilità. Nel caso del problema di Monty Hall, l'esclusione da parte del conduttore di una sceltacertamente "sconveniente" rende attraente la porta rimanente più interessante della prima porta scelta quando non siaveva nessuna conoscenza.

Page 134: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 130

Diagrammi di Eulero-VennLa probabilità che l'auto sia dietro la porta restante può essere calcolata con l'ausilio del diagramma di Vennillustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilità 1/3 di aver selezionato la portacon l'auto, il che assegna una probabilità pari a 2/3 alle due porte restanti. Si osservi che c'è una probabilità pari a 1di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c'è una solaauto in palio.

Si supponga che il conduttore apra la porta 3. Dal momento che può solo aprire una porta che nasconde una capra, enon apre una porta a caso, questa informazione non ha effetto sulla probabilità che l'auto sia dietro la portaoriginariamente selezionata, che resta pari a 1/3. Ma l'auto non è dietro la porta 3, dunque l'intera probabilità di 2/3delle due porte non selezionate dal giocatore è ora assegnata alla sola porta 2, come mostrato sotto. Un modoalternativo per arrivare a questa conclusione è osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3,aprire la porta 3 implica che l'auto si trova dietro la 2.

Osserviamo che il problema non cambierebbe se il conduttore, anziché aprire una porta, offrisse al giocatore lapossibilità di cambiare la porta scelta con entrambe le altre. In questo caso è evidente che la probabilità è 2/3.Viceversa, la situazione cambierebbe completamente se il presentatore, dopo aver escluso la porta 3, scambiassecasualmente i premi nascosti dietro le porte 1 e 2. In questo caso il giocatore avrebbe probabilità 1/2 di vincere sia semantiene la porta 1, sia se la cambia. Senza questo rimescolamento le probabilità restano 1/3 e 2/3.

Page 135: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 131

Teorema di BayesUn'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Siconsideri, senza ledere la generalità dell'analisi, il caso in cui la porta 3 è stata aperta dal conduttore mostrando unacapra, e che il concorrente abbia selezionato la porta 1.La probabilità che l'automobile si trovi dietro la porta 2 (ovvero la probabilità di trovare l'auto dopo aver cambiato lascelta iniziale) è ove A1 è l'evento che l'auto si trovi dietro alla porta 1 e C3 è l'evento che ilconduttore selezioni una capra dietro la porta 3. La probabilità (a priori, utilizzando il gergo della statisticabayesiana) che l'automobile si trovi dietro la porta 1, che si denota con , è chiaramente 1/3, in quanto l'autoha a priori la stessa probabilità di trovarsi dietro ciascuna porta. La probabilità che il conduttore dello show trovi unacapra dietro la porta 3, , è altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove sicelava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilità che il conduttoreselezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1, , è 1 per ovvi motivi.Pertanto, sfruttando il teorema di Bayes:La probabilità di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato unaporta con dietro la capra è:

Spiegazione del ragionamento intuitivo

Analisi della soluzionePer arrivare al ragionamento intuitivo è necessaria l'analisi sotto un altro aspetto delle parole del conduttore: "Aprouna delle due porte che non hai scelto, in cui vi è una capra. Vuoi cambiare la tua scelta?". Sapendo a priori lasoluzione, le parole dette dal conduttore possono essere tradotte in: "Se hai scelto un'automobile (1/3) ti faccioperdere facendoti scegliere una capra (100%), se invece hai scelto una delle due capre (2/3) ti faccio vincerescegliendo l'automobile (100%). Vuoi cambiare la tua scelta?".Come vediamo, inizialmente i casi sono:•• A: il giocatore sceglie la prima capra, perdendo (1/3);•• B: il giocatore sceglie la seconda capra, perdendo (1/3);•• C: il giocatore sceglie l'automobile, vincendo (1/3);con una probabilità di vincita del 1/3.Cambiando la scelta ci accorgiamo che:•• A: il giocatore aveva scelto la prima capra, la seconda capra viene scoperta, il giocatore sceglie l'automobile

vincendo (1/3);•• B: il giocatore aveva scelto la seconda capra, la prima capra viene scoperta, il giocatore sceglie l'automobile

vincendo (1/3);•• C: il giocatore aveva scelto l'automobile, viene scoperta una delle due capre, il giocatore sceglie la capra

rimanente perdendo (1/3);con una probabilità di vincita di 2/3 (sia A che B), possiamo rilevare che questo accadesolo perché dato che i casi di perdita sono due, eliminandone uno, le possibilità, cambiando la scelta variano da: Ae B perdenti e C vincente, a C perdente e AB vincente.

Perciò, essendo partiti da 3 possibilità iniziali, di cui due uguali, avendo quindi solo 2 risultati finali, le probabilitàpassano dal 1/3 a 2/3 e non dal 1/3 al 50%, cosa che sarebbe accaduta se le situazioni iniziali fossero 3 differenti, inmodo da avere obbligatoriamente 3 risultati finali di modo che l'apertura di una delle tre porte avrebbe eliminato unadelle opzioni finali e iniziali e non solo di quelle iniziali.

Page 136: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 132

Il ragionamento intuitivoLa situazione che d'intuito ci viene a pensare è questa, che purtroppo induce ogni ragionamento logico collegato anon riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi è un secondo concorrente apartecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primoconcorrente ha già vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda dicosa sceglierà il concorrente, vincerà (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primoconcorrente), vi sarà un pareggio (entrambi vinceranno: il primo concorrente vincerà l'automobile e il secondo lamoto) oppure perderà (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a ungioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro un'altra una moto einfine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sacosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere lanumero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c'è un'automobile o una motoo una capra; la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte;•• Il giocatore sceglie una delle porte; il suo contenuto non è rivelato;•• Il conduttore sa ciò che si nasconde dietro ciascuna porta;•• Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la

sua scelta;•• Il conduttore aprirà una delle porte non scelte a caso;

•• Cioè, indipendentemente da ciò che ha scelto il giocatore il conduttore aprirà una porta, eliminando lapossibilità che la condizione finale correlata alla porta appena aperta si verifichi;

•• Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha sceltooriginalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta.

Che cambiamento si ha? Le possibilità di vittoria aumentano?

La soluzione al ragionamento intuitivoLa risposta è sì; le probabilità di trovare l'automobile arrivano al 50%.La differenza con il problema precedente sta nelle probabilità di perdita o di pareggio, che aumentano anch'esse finoal 50%.La soluzione può essere illustrata come segue. Ci sono sei scenari possibili, ciascuno avente probabilità 1/6:•• Il giocatore sceglie la capra.

•• Il conduttore elimina l'automobile. Cambiando, il giocatore pareggia, scegliendo la moto.•• Il conduttore elimina la moto. Cambiando, il giocatore vince, scegliendo l'automobile.

•• Il giocatore sceglie la moto.•• Il conduttore sceglie la capra. Cambiando, il giocatore vince, scegliendo l'auto.•• Il conduttore sceglie l'automobile. Cambiando, il giocatore perde, scegliendo la capra.

•• Il giocatore sceglie l'automobile.•• Il conduttore sceglie la moto. Cambiando, il giocatore perde, scegliendo la capra.•• Il conduttore sceglie la capra. Cambiando, il giocatore pareggia, scegliendo la moto.

Come si può vedere, la situazione iniziale, avendo tre possibilità differenti, impone tre risultati diversi. Perciò questavolta è il conduttore a eliminare una possibilità al giocatore, cosa che potrebbe portare uno svantaggio o unvantaggio a seconda del conduttore, quindi il giocatore dovrebbe soltanto decidere se fidarsi o no.La possibilità di pareggio va considerata a sè stante e non come possibilità di perdita, altrimenti si rischia diconfondere nuovamente le situazioni dei due concorrenti, senza capire la situazione reale.

Page 137: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 133

Varianti

Il conduttore non sa cosa ci sia dietro le porteDopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poiché non sa cosa c'è dietro, conprobabilità 1/3 trova l'auto e il gioco finisce. Con probabilità 2/3 trova invece la capra e può chiedere al concorrentese vuole effettuare il cambio con la porta rimasta chiusa. In questo caso accettare lo scambio non fa aumentare alconcorrente la sua probabilità di vincere che a questo punto è di 1/2 qualunque sia la sua decisione.[4]

Due giocatoriAd alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa".Dietro a una delle tre porte c'è il premio più consistente. Ad ogni giocatore è permesso scegliere una porta (non lastessa) .In questo scenario, si può esaminare una variante del problema. Il presentatore elimina il giocatore che abbia sceltouna porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la caprae poi offre al giocatore rimanente la possibilità di cambiare la propria scelta. Il giocatore dovrebbe effettuare loscambio?La risposta è no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo seentrambi i giocatori avessero scelto una porta con la capra. che probabilità ha questa evenienza? 1/3. Se mantenessela scelta resterebbero 2/3 di probabilità. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio dellepossibilità di vincere.In alternativa, ci sono tre possibili scenari, tutti con uguale probabilità (1/3):•• Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta

comporta perdere.•• Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta

comporta perdere.•• Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori.

Cambiare scelta comporta vincere.Il giocatore 1 è l'unico rimasto nel primo caso, e lo è con probabilità 1/2 nel terzo caso; in questa eventualitàcambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6).Analogamente, nel secondo caso il giocatore 2 è l'unico rimasto, e lo è con probabilità 1/2 nel terzo caso; in questaeventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6).Dunque a prescindere da quale giocatore rimanga, c'è una probabilità pari a 2/3 di vincere se non si cambia scelta.Per rendere più palese la differenza rispetto al caso precedente si può dire che non si può qui ragionare come primadove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilità che abbiaselezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notareche nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilità che abbiainizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso,in termini di probabilità, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dalgiocatore né eliminata dal conduttore.

Page 138: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 134

n porteEsiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatoresceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, può quindicambiare scelta e passare a un'altra porta. Il conduttore aprirà allora un'ulteriore porta, ancora non aperta, chenasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilità dicambiare ancora scelta, e così via. Questo procedimento continua fino a che non restano che due porte non ancoraaperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a chepunto del gioco (sempre che cambi almeno una volta)?La migliore strategia è: restare con la prima scelta sino a che non rimangano solo due porte e a quel puntocambiare. Seguendo questa strategia la probabilità di vincere è . Questa variante del paradosso diMonty Hall si deve a Bapeswara Rao e Rao.

Variante nel gioco del bridgeUna comune variante del problema è nota ai giocatori di bridge da ben prima che l'articolo della Vos Savant fossepubblicato. Tale variante è nota come principio della scelta ristretta.[5]

Versione quantisticaEsiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazioneclassica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccaniciquantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire unaporta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essereespresse in questo linguaggio, e ancora una volta il giocatore può scegliere se restare fedele alla propria sceltainiziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilità di vittoriadoppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non è pienamente casuale in sensoquantistico, il giocatore può fare ancora meglio, e in determinati casi vincere con probabilità pari a uno. Èdisponibile in rete un articolo [6] al riguardo, nonché un'applet [7] che illustra gli effetti così descritti.

Nella letteratura e nel cinema• Questo problema viene citato, con tanto di due dimostrazioni (intuitiva e matematica), nel libro di Mark Haddon

Lo strano caso del cane ucciso a mezzanotte, dove il giovane protagonista propone il quesito ai lettori.[8]

• Un'altra citazione del problema si ha nel telefilm Numb3rs.[9]

• Nel film 21, il professore Mickey Rosa propone il problema al protagonista del film, l'allievo Ben Campbell, chelo risolve brillantemente.

• Anche la scrittrice Scarlett Thomas nel suo libro PopCo cita questo problema, definendolo Dilemma di MontyHall[10]

• Nel libro "I conigli di Schrödinger" di Colin Bruce, viene illustrato il Problema di Monty Hall.[11]

Page 139: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 135

Note[1] http:/ / www. letsmakeadeal. com/ problem. htm[2] (EN) Grinstead, Charles M. and Snell, J. Laurie, Grinstead and Snell’s Introduction to Probability (http:/ / www. math. dartmouth. edu/

~prob/ prob/ prob. pdf) (PDF), 4 luglio 2006, pp. 136-139. URL consultato il 4 luglio 2012.[3] (EN) David Morin, Probability (http:/ / www. people. fas. harvard. edu/ ~djmorin/ probability. pdf), p. 49[4] Rosenthal, Jeffrey S. (2005a). "Monty Hall, Monty Fall, Monty Crawl" (http:/ / probability. ca/ jeff/ writing/ montyfall. pdf). Math Horizons:

September issue,5–7  (in inglese). URL consultato in data 12 luglio 2012.[5] Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm)[6] http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120[7] http:/ / www. imaph. tu-bs. de/ qi/ monty/[8] p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003)[9] Numb3rs - Episodio 1.13, Caccia all'uomo[10] Scarlett Thomas, PopCo Newton Compton Editori (2007)[11] p.75,76,77.Colin Bruce, I conigli di Schrödinger, Raffaello Cortina Editore (2006)

Bibliografia• (EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The

Mathematical Scientist 17(2), 89–94• (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The

Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 1–9.• Joseph Bertrand (1889). Calcul des probabilités• (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180–182.• (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the

Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http:/ /econwpa. wustl. edu:80/ eps/ exp/ papers/ 9906/ 9906001. html (retrieved July 5, 2005).

• (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton,NJ, 192-193. ISBN 0-691-00979-1

• (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67(Febbraio 1975).

• (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134(Agosto 1975).

• (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5

• vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al.,1995]

• (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do youstay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http:/ / www. straightdope. com/classics/ a3_189. html (consultata il 25 luglio 2005).

• (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge UniversityPress, New York, 213-215.

• Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi.• Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X• (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8

Page 140: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Problema di Monty Hall 136

Voci correlate•• Paradosso delle tre carte

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Monty Hallproblem

Collegamenti esterni• Simulazione fino a 100.000 tentativi (http:/ / utenti. quipo. it/ base5/ probabil/ montyhall. htm)• Simulatore giocabile del paradosso (http:/ / www. taravella. eu/ content/ view/ 14/ 27/ )

Paradosso delle tre carteViene detto paradosso delle tre carte un classico problema del calcolo delle probabilità che pur nella sua semplicitàha una soluzione abbastanza controintuitiva: ci sono tre carte, delle quali la prima (A) è rossa su entrambi i lati, laseconda (B) su un lato è rossa e sull'altro è bianca e la terza (C) è bianca su entrambi i lati. Ponendo su un tavolo unadelle tre carte, scelta a caso, ottengo che il lato visibile è di colore rosso. Qual è la probabilità che anche il lato nonvisibile sia di colore rosso?La risposta intuitiva porta solitamente a rispondere che la probabilità ricercata sia pari al 50%, in quanto solo duecarte (la A e la B) possono mostrare il colore rosso e solo una di queste (la A) può mostrare anche sull'altro lato ilcolore rosso; tuttavia si dimostra che la risposta giusta è 2/3.

SoluzioneCi sono in tutto 6 facce, delle quali 3 sono rosse e 3 sono bianche. Denominiamo 1 e 2 le due facce che appartengonoalla carta rossa su entrambi i lati; denominiamo 3 la faccia rossa della carta rossa su un lato e bianca sull'altro. Èpossibile che la faccia visibile all'inizio del gioco sia 1, 2 o 3, con uguale probabilità. Su tre possibili casi, duecomportano che la faccia non visibile sia rossa: 1 e 2. Pertanto la probabilità che il lato non visibile sia rosso è di 2/3.L'intuizione suggerisce la risposta sbagliata perché porta a non distinguere le facce 1 e 2 come eventi distinti.

Dimostrazione assiomatica o frequentistaEstraendo una carta e posandola sul tavolo si possono verificare i seguenti sei casi equoprobabili, che possonocapitare in maniera egualmente frequente1.1. lato visibile = Aa = rosso, lato nascosto = Ab = rosso2.2. lato visibile = Ab = rosso, lato nascosto = Aa = rosso3.3. lato visibile = Ba = rosso, lato nascosto = Bb = bianco4.4. lato visibile = Bb = bianco, lato nascosto = Ba = rosso5.5. lato visibile = Ca = bianco, lato nascosto = Cb = bianco6.6. lato visibile = Cb = bianco, lato nascosto = Ca = biancoescludendo gli ultimi tre casi in quanto il lato visibile è bianco, rimangono tre casi dove il lato visibile è rosso, duedei quali nascondono un lato anch'esso rosso, dunque la probabilità è di 2/3.

Page 141: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Paradosso delle tre carte 137

Dimostrazione con il teorema di BayesLa probabilità condizionata cercata è

Pr(lato invisibile è rosso | lato scoperto è rosso)dove i lati rossi sono: Aa, Ab e Ba (e quelli bianchi: Bb, Ca, Cb), per cui si può scrivere

Pr(Aa+Ab+Ba|Aa+Ab+Ba)che, utilizzando il teorema di Bayes viene riformulata in

= Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) / ( Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) +Pr(Aa+Ab+Ba|Bb+Ca+Cb) * Pr(Bb+Ca+Cb) )

EssendoPr(Aa+Ab+Ba)=1/2, ovvero metà dei lati sono rossiPr(Bb+Ca+Cb)=1/2, e l'altra metà sono bianchiPr(Aa+Ab+Ba|Aa+Ab+Ba) = Pr(Aa|Aa+Ab+Ba) + Pr(Ab|Aa+Ab+Ba) + Pr(Ba|Aa+Ab+Ba) = 1/3 + 1/3 + 0 =2/3

Pr(Aa|Aa+Ab+Ba) = Pr(Aa+Ab+Ba|Aa) * Pr(Aa) / Pr(Aa+Ab+Ba) = 1 * 1/6 * 2 = 2/6 = 1/3Pr(Aa+Ab+Ba|Aa) = Pr(Aa|Aa) + Pr(Ab|Aa) + Pr(Ba|Aa)= 0+1+0 = 1Pr(Aa) = 1/6Pr(Aa+Ab+Ba) = 1/2

Pr(Ab|Aa+Ab+Ba) = 1/3, ottenuto in modo analogoPr(Ba|Aa+Ab+Ba) = 0, comprensibile in modo intuitivo, in quanto se il lato visibile appartiene alla cartaA il retro non può appartenere alla carta B e se il lato visibile è Ba non è possibile che anche il latocoperto sia Ba:

Pr(Aa+Ab+Ba|Ba) = Pr(Aa|Ba) + Pr(Ab|Ba) + Pr(Ba|Ba)= 0 + 0 + 0 = 0in maniera analoga si mostra che

Pr(Aa+Ab+Ba|Bb+Ca+Cb) = Pr(Aa|Bb+Ca+Cb) + Pr(Ab|Bb+Ca+Cb)+ Pr(Ba|Bb+Ca+Cb) = 0 + 0 + 1/3 = 1/3per cui

Pr(lato invisibile è Rosso | lato scoperto è rosso) = 2/3*1/2 / (2/3*1/2 + 1/3*1/2) = 2/3

Le originiQuesto è il testo originale del paradosso, proposto da Warren Weaver nel 1950:

« Giochiamo con tre carte. Una è bianca su entrambi i lati, una è rossa su entrambi i lati e una è bianca da un lato e rossadall'altro. Ogni carta è nascosta in una scatoletta nera. Il giocatore sceglie una delle tre scatolette, estrae la carta e la posa sultavolo in modo che sia visibile un solo lato. Supponiamo che il lato che si vede sia bianco. Il conduttore propone al giocatoredi scommettere alla pari che è bianco anche l'altro lato della carta (se è bianco vince il conduttore, se è rosso vince ilgiocatore). Conviene al giocatore accettare la scommessa? Perché? »

Page 142: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Paradosso delle tre carte 138

Paradosso delle tre scatoleIn realtà, una versione perfettamente analoga del problema era già stata presentata da Joseph Bertrand nel suo libroCalcul des probabilités: ci sono tre scatole, di cui la prima contiene due monete d'oro, la seconda due moneted'argento e la terza una d'oro ed una d'argento: se estraendo una moneta a caso da una scatola a caso ci si ritrova inmano una moneta d'oro, qual è la probabilità che anche l'altra nella scatola lo sia?La soluzione è anche in questo caso 2/3.

Voci correlate•• Problema di Monty Hall• Warren Weaver e Martin Gardner, che hanno descritto questo problema•• Paradosso dei due bambini

Paradosso dei due bambiniViene detto paradosso dei due bambini un celebre quesito della teoria della probabilità, apparentemente semplicema in realtà ambiguo e il cui studio porta ad una risposta controintuitiva. Esso è spesso citato per mettere in evidenzala facilità con la quale nell'ambito della probabilità può nascere confusione anche in contesti che a prima vistasembrano nient'affatto complicati da analizzare.Il nome con cui viene chiamato comunemente questo problema viene dall'inglese "Boy or Girl paradox"; tuttavia iltermine italiano "paradosso" ha un senso più preciso e restrittivo del "paradox" inglese, e non designa problemi comequesto, che tecnicamente è piuttosto un sofisma.

QuesitoIl quesito in questione è, in una delle prime formulazioni (proposta da Martin Gardner sulle pagine del ScientificAmerican): "Il signor Smith ha due bambini. Almeno uno dei due è un maschio. Qual è la probabilità che entrambi ibambini siano maschi?"

La risposta intuitiva è che se, poniamo, è maschio il primo bambino, la probabilità che anche l'altro lo sia è 1/2=50%.In realtà, come riconosciuto da Gardner stesso, la domanda è posta in modo ambiguo (è facile pensare che con"almeno uno" si intenda "sicuramente uno che ho chiaramente individuato - ed eventualmente anche l'altro"), e unapossibile riformulazione - intuitivamente equivalente - che non dia adito ad ambiguità è la seguente:"Il signor Smith ha due bambini. Non sono due femmine. Qual è la probabilità che entrambi i bambini sianomaschi?"

Non è difficile, utilizzando semplici strumenti di probabilità classica, scoprire che la risposta è allora 1/3=33,3%. Diseguito le possibili combinazioni dei figli che rispettano le condizioni date:

Page 143: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Paradosso dei due bambini 139

Figlio maggiore Figlio minore

Femmina Femmina

Femmina Maschio

Maschio Femmina

Maschio Maschio

Si osservi che questo cosiddetto paradosso non ha nulla a che vedere con il fatto che in natura nella grandemaggioranza dei paesi nascano leggermente più maschi che femmine; si assume invece che la probabilità di un figliomaschio sia a priori uguale a quella di una figlia femmina: 1/2.

Dimostrazione assiomatica o frequentistaSu 100 famiglie che hanno esattamente due figli, si osserveranno in media le seguenti quattro combinazioni:1.1. 25 famiglie il cui primo figlio è maschio e il secondo pure2.2. 25 famiglie il cui primo figlio è maschio e il secondo invece femmina3.3. 25 famiglie il cui primo figlio è femmina e il secondo invece maschio4.4. 25 famiglie il cui primo figlio è femmina e il secondo pureLa domanda prende in considerazione i primi tre casi, ovvero non quello in cui ci sono due femmine: si tratta di 75famiglie. Nelle 25 famiglie del primo caso entrambi i figli sono maschi, mentre nelle 25+25=50 famiglie del secondoe terzo caso ci sono un maschio ed una femmina. Pertanto la probabilità che entrambi siano maschi è pari a25/75=1/3.

Una domanda simile con risposta corretta pari a 1/2L'ambiguità è nell'espressione "almeno un bambino", che porta a intendere questo "paradosso" nella seguenteformulazione, in apparenza equivalente:

sapendo che una famiglia ha esattamente due bambini, dei quali il primo è un maschio, quant'è la probabilitàche l'altro bambino sia una femmina?

In questo caso la risposta intuitiva (1/2=50%) è corretta. Infatti in metà delle famiglie (casi 1 e 2) il primo figlio èmaschio e di queste nella metà dei casi (caso 1) anche il secondo è maschio. Di seguito le possibili combinazioni deifigli che rispettano le diverse condizioni poste:

Figlio maggiore Figlio minore

Femmina Femmina

Femmina Maschio

Maschio Femmina

Maschio Maschio

Ma con le parole "almeno un bambino", non stiamo individuando uno dei due figli in particolare (cioè se è il primo oil secondo). Le parole "l'altro bambino" invece ci portano spontaneamente ad immaginare che l'"almeno uno" indichiun bambino specifico (ad esempio che chi ci pone la domanda ne abbia chiaro in mente il volto e se è il primo o ilsecondo) ed a forzare quindi il significato della prima parte della domanda.

Page 144: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Paradosso dei due bambini 140

Un'altra domanda simile con risposta corretta pari a 1/2Un'altra domanda simile è la seguente:

"In un mondo nel quale tutte le famiglie hanno esattamente due bambini (p.es. nell'associazione "Famiglie condue figli"), incontrando un maschietto, quant'è la probabilità che abbia una sorella?"

Anche in questo caso la risposta intuitiva (1/2=50%) è anche quella corretta. Infatti analizzando in modoleggermente diverso l'elenco di cui sopra1.1. 25 famiglie il cui primo figlio (gruppo A1) è maschio e il secondo (gruppo A2) pure2.2. 25 famiglie il cui primo figlio (gruppo B1) è maschio e il secondo (gruppo B2) invece femmina3.3. 25 famiglie il cui primo figlio (gruppo C1) è femmina e il secondo (gruppo C2) invece maschio4.4. 25 famiglie il cui primo figlio (gruppo D1) è femmina e il secondo (gruppo D2) puresi osserva che incontrando un maschietto questo deve appartenere ad uno dei seguenti quattro gruppi:•• 25 (primogeniti) del gruppo A1, che non hanno sorelle•• 25 (secondogeniti) del gruppo A2, che non hanno sorelle (si tratta dei fratelli di bambini del gruppo A1)•• 25 (primogeniti) B1, che hanno una sorella (minore)•• 25 (secondogeniti) C2, che hanno una sorella (maggiore)In totale ci sono dunque 100 maschietti, dei quali 25+25=50 hanno una sorella, di conseguenza la probabilità cercataè effettivamente pari a 50/100=1/2=50%.

Studio scientificoFox & Levav nel 2004 hanno sottoposto ad un test alcuni volontari, ponendo loro una delle seguenti due domande:•• «Il signor Smith dice: "Ho due bambini ed almeno uno è un maschio." Considerando questa informazione, qual è

la probabilità che l'altro bambino sia un maschio?»•• «Il signor Smith dice: "Ho due bambini e non sono entrambi femmine." Considerando questa informazione, qual è

la probabilità che entrambi i bambini siano maschi?»I due studiosi hanno riportato che l'85% delle persone che hanno risposto alla prima domanda, hanno fornito comerisposta 1/2 considerando solo 2 possibili combinazioni, ingannati dalle parole " l'altro bambino ". Alla secondadomanda, solamente il 39% ha risposto 1/2. Gli studiosi hanno così dimostrato che pur essendo (a livello di calcolodelle probabilità) la stessa domanda con gli stessi casi da considerare, la diversa formulazione ha ridotto l'ambiguitàe di conseguenza le risposte errate del 46%.

Note

Voci correlate•• Probabilità condizionata•• Paradosso delle tre carte•• Problema di Monty Hall

Page 145: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Paradosso del compleanno 141

Paradosso del compleanno

Il grafico mostra l'andamento di P(p) al crescere del numero di persone

Il paradosso[1] del compleanno (oproblema del compleanno) è unparadosso di teoria della probabilitàdefinito nel 1939 da Richard vonMises. Il paradosso afferma che laprobabilità che almeno due persone inun gruppo compiano gli anni lo stessogiorno è largamente superiore a quantopotrebbe dire l'intuito: infatti già in ungruppo di 23 persone la probabilità ècirca 0,51; con 30 persone essa supera0,70, con 50 persone tocca addirittura0,97, anche se per arrivare all'eventocerto occorre considerare un gruppo dialmeno 367 persone (per il principiodei cassetti e la possibilità di anni bisestili).

Per effettuare il calcolo, si ricorre alla formula per la probabilità degli eventi indipendenti: per rendere più sempliceil calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ciò non èesatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilità, ma in compenso il fatto che icompleanni non siano equiprobabili la alza.

Il modo più semplice per calcolare la probabilità P(p) che ci siano almeno due persone appartenenti ad un gruppo dip persone che compiano gli anni lo stesso giorno è calcolare dapprima la probabilità P1(p) che ciò non accada. Ilragionamento è questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno),vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considerauna terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e viadicendo. Esprimendo in formule quanto sopra, la probabilità che tutti i compleanni cadano in date diverse è:

e dunque la probabilità del suo evento complementare, cioè che esistano almeno due compleanni uguali, è

Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolarenell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittograficheabbiano la proprietà di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato suN bit sarà reputata insicura quando verranno generati risultati in quanto si ha la probabilità di oltre il 50% di avertrovato una collisione, il risultato evidentemente è ben al di sotto dei elementi necessari suggeriti dall'intuito.

Page 146: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Paradosso del compleanno 142

Note[1][1] Il termine paradosso non è da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poiché la verità

matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilità sia decisamente inferiore al 50%.[2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html). URL

consultato in data 22-04-2009.

Collegamenti esterni• Il paradosso del compleanno (http:/ / www. teacherlink. org/ content/ math/ interactive/ probability/ lessonplans/

birthday/ home. html)

Blackjack

Blackjack

Una partita a BlackjackLuogo origine Francese

Regole

N° giocatori 7 + Banco

Squadre No

Giro Senso orario

Azzardo Sì

Mazzo 2 mazzi di 52 carte

Gerarchia semi No

Gerarchia carte No

Il Black Jack (in italiano chiamato anche Ventuno) è un gioco d'azzardo di carte che si svolge tra il banco,rappresentato dal casinò, e i giocatori. Vincono i giocatori che realizzano un punteggio più alto del banco nonsuperiore a 21.

Page 147: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Blackjack 143

StoriaIl gioco è nato in Francia nel XVII secolo, con il nome di Vingt-et-un (ossia "ventuno"). Una volta approdato negliStati Uniti il gioco del ventuno venne denominato Black Jack (fante nero) con l'introduzione di una variante: qualorail giocatore facesse 21 con un asso e un jack di picche, veniva pagato con un bonus di dieci volte la posta. Anche seattualmente il bonus è stato abolito, il nome comunque è rimasto.

Le carteDi norma il Black Jack viene usato con un sabot formato da 2 mazzi di carte francesi, per un totale di 104 carte. Nelgioco l'asso può valere 11, o 1, le figure valgono 10, mentre le altre carte valgono il loro valore nominale. I semi nonhanno alcuna influenza, o valore. La somma dei punti, al fine del calcolo del punteggio, avviene per semplice calcoloaritmetico.

Svolgimento del giocoUna volta che i giocatori hanno fatto la loro puntata, il banchiere procedendo da sinistra verso destra assegna aciascuno dei giocatori una carta coperta in ogni postazione giocata, assegnando l'ultima al banco. Effettua poi unsecondo giro di carte scoperte, senza però attribuirne una a se stesso. Avvenuta la distribuzione, il dealer legge inordine il punteggio di ciascun giocatore invitandoli a manifestare il loro gioco: essi potranno chiedere carta o stare, aloro discrezione. Se un giocatore supera il 21 risulta perdente e il dealer incasserà la puntata. Una volta che igiocatori hanno definito i loro punteggi il dealer sviluppa il suo gioco seguendo la "regola del banco": egli devetirare carta con un punteggio inferiore o uguale a 16. Una volta superato il 16 si deve fermare. Se oltrepassa il 21 ilbanco "sballa" e deve pagare tutte le puntate rimaste sul tavolo. Una volta definiti tutti i punteggi, il dealer confrontail proprio con quello degli altri giocatori, paga le combinazioni superiori alla sua, ritira quelle inferiori e lascia quellein parità. Il pagamento delle puntate vincenti è alla pari.

Il Black Jack puro

Il Black Jack puro si ottiene quando il giocatore fa 21 con le prime due carte assegnateli dal dealer, e si può fare solocon un Asso di picche (11) e un Jack di picche; questo punteggio batte il banco anche se totalizza 21.

Il Black Jack

Il giocatore che fa 21 con le prime due carte assegnategli dal dealer, cioè riceve un Asso (11) e un dieci o una figura,forma il black jack e ha diritto al pagamento di 3 a 2 (una volta e mezzo la posta, cioè, la somma scommessa x 1,5);se il dealer realizza anche lui il black jack la mano è considerata alla pari.

Il raddoppio della puntata (double down)

I giocatori hanno una particolare opzione di giocata: se con le prime due carte hanno realizzato da 9 a 15 punti,possono raddoppiare la puntata al momento della chiamata ma impegnandosi a chiedere una sola carta, e dopo averricevuto questa carta il giocatore è obbligato a fermarsi.

La divisione (split)

Se nella prima distribuzione il giocatore riceve due carte dello stesso valore può effettuare lo split e cioè:•• separare le due carte e aggiungere un'uguale puntata sulla seconda;•• proseguire il gioco come se il giocatore avesse due prime carte;•• aggiungere una carta su ciascuna carta separata.Nel caso di due Assi il gioco doppio è consentito ma con diritto a una sola chiamata.

Page 148: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Blackjack 144

Strategia per lo split

Gli "split" nella dimensione di gioco britannica non pongono limiti al numero delle divisioni delle carte ugualisebbene venga proibito al giocatore di "splittare" i quattro, i cinque e le figure, che l'istituto di regolamentazione delgioco in Gran Bretagna ha valutato statisticamente come scommesse svantaggiose nei confronti del giocatore. Unbuon giocatore di black jack potrà all'occorrenza "splittare" i quattro e i cinque ma mai dovrebbe azzardare lo split didue figure.

L'assicurazione (insurance)

Quando il banchiere si serve un Asso come carta scoperta, vi è la possibilità che faccia Black Jack con la secondacarta, quindi i giocatori possono ricorrere all'Assicurazione. La posta dell'Assicurazione equivale alla metà dellapuntata di base (quella sulla casella, per esempio: se il giocatore ha puntato 100 l'Assicurazione vale 50). Nel caso ilbanco realizzi Black Jack il giocatore perderà tutta la puntata iniziale, ma verrà risarcito con il doppio del valoredell'assicurazione (2:1): in pratica è come se la mano si concludesse con un "pari". Nel caso il banco non realizzi unBlack Jack l'assicurazione viene comunque persa indipendentemente dal risultato della mano.

Le diverse versioniIn Europa le carte sono scoperte: due per ciascun giocatore, una per il banco. Negli USA inoltre, il banco, oltre allasua carta scoperta, prende subito l'altra, che rimane però coperta.In vari casinò si possono "splittare" (separare) le carte uguali fino a tre volte, eccetto gli assi che possono essereseparati solo una volta. Dopo lo split si può spesso (ma non dappertutto) raddoppiare la puntata. In genere non sipossono raddoppiare le mani soft (un asso con una carta che non sia figura). Esistono tuttavia dei casinò chepermettono di raddoppiare con qualsiasi combinazione iniziale.Tra le varianti di Blackjack troviamo: Classico, Europeo, Spagnolo 21, Vegas Strip, Atlantic City, Blackjack Switch,Multi-mano.

StrategiaLa strategia del gioco varia a seconda delle regole locali e del numero dei mazzi usati. Al di là della scelta separtecipare o meno al gioco, e alla posta puntata nella singola mano e alla possibilità di raddoppiare la posta, l'unicascelta lasciata al giocatore è quella di stabilire se chiedere un'altra carta (e, se le prime due carte sono uguali, dieffettuare uno split, cioè di dividere la propria mano in due).

Strategia BasePer effettuare i calcoli delle probabilità nelle varie situazioni sono stati utilizzati anche alcuni dei primi computer adisposizione delle università. In particolare al MIT sono stati realizzati parecchi studi in questo campo. In base aquesti calcoli risulta ora possibile, basandosi soltanto sulle carte che si hanno in mano sapere quali sono leprobabilità che esca ogni tipo di carta. Basandosi su tali probabilità, è stata calcolata una regola (Strategia Base) chestabilisce quale sia la decisione migliore da effettuare nelle varie circostanze.

Page 149: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Blackjack 145

Mano del giocatore Carta scoperta del Banco

2 3 4 5 6 7 8 9 10 A

Totali hard

17-20 S S S S S S S S S S

16 S S S S S H H SU SU SU

15 S S S S S H H H SU H

13-14 S S S S S H H H H H

12 H H S S S H H H H H

11 Dh Dh Dh Dh Dh Dh Dh Dh Dh H

10 Dh Dh Dh Dh Dh Dh Dh Dh H H

9 H Dh Dh Dh Dh H H H H H

5-8 H H H H H H H H H H

Totali soft

2 3 4 5 6 7 8 9 10 A

A,8 A,9 S S S S S S S S S S

A,7 S Ds Ds Ds Ds S S H H H

A,6 H Dh Dh Dh Dh H H H H H

A,4 A,5 H H Dh Dh Dh H H H H H

A,2 A,3 H H H Dh Dh H H H H H

Coppie

2 3 4 5 6 7 8 9 10 A

A,A SP SP SP SP SP SP SP SP SP SP

10,10 S S S S S S S S S S

9,9 SP SP SP SP SP S SP SP S S

8,8 SP SP SP SP SP SP SP SP SP SP

7,7 SP SP SP SP SP SP H H H H

6,6 SP SP SP SP SP H H H H H

5,5 Dh Dh Dh Dh Dh Dh Dh Dh H H

4,4 H H H SP SP H H H H H

2,2 3,3 SP SP SP SP SP SP H H H H

Legenda:S = Stand (Stare)H = Hit (Carta)Dh = Double (Raddoppio. Se non permesso, chiedere carta)Ds = Double (Raddoppio. Se non permesso, stare)SP = Split (Divisione)SU = Surrender (Resa. Se non permessa, chiedere carta)

Questa strategia si applica con 3 o più mazzi di carte, il banco sta sui 17 soft, raddoppio su tutte le coppie, raddoppiodopo la suddivisione consentito e blackjack che paga 3:2.

Page 150: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Blackjack 146

Contare le carteQuesti calcoli e questa regola si basano soltanto sulle carte in gioco in quel momento. Tuttavia è possibile sviluppareuna ulteriore strategia dovuta al fatto che il numero di carte presenti al tavolo da gioco (cioè il numero dei mazziutilizzati) è fisso e al fatto che le carte vengono mescolate soltanto all'inizio del gioco e si continua a giocare tra unamano e l'altra senza rimescolare le carte, ma continuando ad utilizzare le carte rimanenti nel mazzo. Le cartevengono rimescolate soltanto quando si raggiunge il cartoncino divisorio che di solito è posto intorno alla metà delsabot. Tale carta divisoria determina la percentuale di penetrazione del mazzo, cioè il numero di carte che verrannodistribuite (rispetto alla totalità presente nei mazzi) prima che abbia luogo la mischiata. Più tale percentuale è alta emaggiori saranno i vantaggi per il giocatore.[1]

Risulta pertanto possibile, anche se particolarmente difficile, ricordarsi quali carte sono già uscite e sapere quindiquali rimangono nel mazzo. L'alto numero delle carte utilizzate rende difficile ricordare individualmente le singolecarte; risulta però possibile (anche se rimane difficile) ricordare se dal mazzo sono uscite più carte di basso valoreche carte di alto valore e di conseguenza calcolare la probabilità che dal mazzo venga pescata una carta di valore altoo basso. Tale tecnica viene indicata con il nome di contare le carte.Una situazione con un mazzo di carte con più carte alte che basse è favorevole al giocatore e sfavorevole al banco(perché aumenta la probabilità del banco di superare il 21, dal momento che il banco agisce in modo fisso, checonsiste nel continuare a prendere un'ulteriore carta fintanto che non supera tutti i giocatori o finché non arriva a 17,e per altri motivi). Questa difficile tecnica permette pertanto di conoscere quale sia il momento più propizio pereffettuare puntate più alte.Del Black Jack esistono anche alcune versioni per essere giocate tra tutti giocatori, in cui la parte del mazziere vienealternata tra i vari giocatori. All'interno delle case da gioco invece il ruolo del mazziere è sempre tenuto dalpersonale della casa.

Stu UngarStu Ungar, dotato di un quoziente intellettivo che lo classificava come "genio", e di una straordinaria memoriafotografica, era in grado di contare tutte le carte presenti in un sabot di blackjack composto da sei mazzi di carte. Nel1977 scommise 100.000 dollari con Bob Stupack, proprietario di un casinò a Las Vegas, che sarebbe riuscito acontare tutte le carte di un sabot di blackjack composto da sei mazzi, indovinando le ultime tre carte. Ungar vinse lascommessa.Stu fu condannato nel 1982 dalla Commissione del New Jersey sul Gioco d'Azzardo, per presumibile imbroglio altavolo di blackjack in un casinò di Atlantic City. Il casinò sostenne che Ungar ponesse di nascosto delle fiches extrasulle sue giocate vincenti, per garantirsi una vincita maggiore. Ungar negò sempre con forza l'accaduto.La condanna gli impose di pagare 500 dollari, cifra quasi insignificante per lui, ma allo stesso tempo lo obbligava adammettere di barare, cosa che si rifiutò sempre di fare: Ungar sosteneva che la sua memoria e l'abilità nel contare lecarte (tecnica non illegale) fossero doti naturali, e che per questo non aveva bisogno in alcun modo di barare altavolo da blackjack.Ungar portò la causa in tribunale e vinse, evitando la multa di 500 dollari; dovette, comunque, pagare circa 50.000dollari in spese legali e di viaggio. La sua reputazione restò intatta ma, nella sua biografia, dirà che la stanchezza peri viaggi ed i dibattimenti fu tale da non permettergli di difendere il titolo nelle WSOP.Il suo talento e la sua reputazione erano talmente notevoli da farlo escludere dal gioco nei casinò. Era virtualmenteimpossibilitato a giocare a blackjack sia a Las Vegas che in qualunque altro posto.

Page 151: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Blackjack 147

CuriositàIl film 21 si basa sullo sfruttamento di questo metodo per ottenere vittorie sicure.

Note[1] Penetrazione del mazzo (http:/ / www. blackjack-online. bz/ contare-carte/ #penetrazione)

Voci correlate•• 21 (film)•• Edward O. Thorp

Poker

Poker

Luogo origine Statunitense[1]

Regole

N° giocatori 3, 4, 5, 6 (versione italiana)[1]

Squadre No

Giro Senso orario

Azzardo Sì

Mazzo 52 carte in numero variabile dipendente dal numero dei giocatori[1]

Gerarchia semi Cuori, Quadri, Fiori, Picche

Gerarchia carte A, K, Q, J, 10, 9, 8, 7, 6, 5, 4, 3, 2

David Sklansky alle World Series diPoker del 1979

« Se non riesci a individuare il pollo al tavolo da poker nella prima mezz'ora, allora il pollo sei tu. »

Page 152: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Poker 148

Il poker è una famiglia di giochi di carte nella quale alcune varianti sono classificabili come gioco d'azzardo, altrecome poker sportivo. Tali giochi sono caratterizzati da un sistema di combinazioni formate con le carte di ciascungiocatore (il cui confronto determina il vincitore di ogni mano) e da un meccanismo di puntate successive che offremolte possibilità tattiche e di influenza sugli altri giocatori, consentendo in particolare di ritirarsi con perditecontenute dalle mani che non si ritiene di poter vincere.Il grande successo del poker è dovuto al fatto che l'abilità del giocatore è molto più importante rispetto ad altri giochid'azzardo, al punto da consentire l'esistenza di giocatori professionisti: la fortuna è ovviamente determinante per lesingole mani ma la valutazione delle probabilità, l'osservazione del comportamento degli altri giocatori al fine diintuire le loro combinazioni e l'esecuzione di bluff per indurli in errore fanno la differenza nell'arco di una partita.Se le puntate sono costituite da denaro vero si tratta di cash game, ossia di gioco d'azzardo.A partire dall'inizio degli anni novanta si è aperta per i giocatori la possibilità di giocare a Poker online, cioècollegandosi mediante Internet a sale da Poker organizzate e sedendosi a tavoli virtuali ai quali si gioca contro altrepersone connesse dal proprio computer domestico. Tale sistema di gioco è cresciuto progressivamente negli annisuccessivi, e costituisce oggi la principale modalità con la quale il poker è praticato a livello mondiale.

Il giocoIl poker è giocato in una moltitudine di specialità e varianti, ma tutte seguono una medesima logica di gioco.Le carte vengono distribuite in senso orario e allo stesso modo cambia il mazziere (dealer). Egli viene generalmentesegnalato con un bottone che diventa unico elemento per identificarlo e determinare, quindi, le puntate obbligatorie oi turni di gioco.Per ogni mano uno o più giocatori devono porre una puntata obbligatoria (cip) che serve alla creazione di un piattoiniziale che i giocatori potranno contendersi. Il mazziere distribuisce le carte, coperte o scoperte, in base alle regoledella specialità giocata. Quindi cominciano, sempre secondo le regole della specialità giocata, i giri di scommesse,nel quale a turno, ogni giocatore ha facoltà di "parlare", ossia di eseguire un'azione. Si gioca sempre in senso orario.Le possibilità principali sono le seguenti:• puntare (bet): il primo giocatore che apre il giro di scommesse mette una certa somma nel piatto;• bussare o passare/dare la parola (check): il primo giocatore che apre il giro di scommesse può decidere al

momento di non puntare, il giocatore successivo a colui che ha passato deciderà se puntare o passare e così valeanche per gli altri giocatori. Se tutti i giocatori passano il giro di scommesse è chiuso. Un giocatore non puòpassare se il giocatore precedente ha puntato;

• vedere o chiamare (call): dopo che il giocatore ha puntato, gli altri giocatori sono obbligati a puntare almenoaltrettanto oppure uscire dalla mano.

• rilanciare (raise): un giocatore può scommettere una somma maggiore del minimo richiesto per restare in gioco,ovviamente tutti gli altri giocatori sono tenuti a vedere o lasciare;

• lasciare (fold): un giocatore lascia qualora non sia intenzionato a vedere la puntata o il rilancio, ovvero consegnale carte al mazziere e rinuncia al piatto, perdendo quanto aveva scommesso in precedenza. Un giocatore puòlasciare anche se ha possibilità di passare, ma questa scelta non viene mai presa in considerazione perché non haalcun senso.

Alla fine dell'ultimo turno di puntate resta un solo giocatore (ha fatto l'unica puntata e tutti gli altri hanno passato, o ha rilanciato e gli altri rimasti hanno lasciato) o più giocatori che hanno puntato tutti la stessa somma (vedendo la prima puntata o un rilancio successivo); in questo secondo caso, tipicamente più raro, avviene lo showdown: si mostrano le carte dei giocatori e si confronta il punto di ciascuno: vince il punto di maggior valore a seconda della variante. Normalmente il valore corrisponde alla forza della mano. Alcuni giochi, come l'Omaha 8 e lo Stud 8, prevedono la ripartizione del piatto in parti uguali fra la mano col valore più alto e quella col valore più basso. In altri giochi, fra cui Razz, 2-7 Single Draw e 2-7 Triple Draw, il piatto viene assegnato al giocatore che ha la mano

Page 153: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Poker 149

più bassa. Il giocatore che è in possesso del punto di maggior valore vince la mano e ha diritto di impossessarsi dellefiches (o dei contanti) dei giocatori che hanno lasciato in precedenza e di quelli che sono stati sconfitti alloshowdown. Nel caso in cui due o più giocatori fossero in possesso dello stesso punto (caso molto raro), il piattoviene diviso (split pot) in parti uguali ed ognuno dei suddetti giocatori ha diritto ad una parte del piatto.Normalmente, durante le partite di poker vige la regola delle "chip al tavolo" secondo la quale, durante una mano,possono essere puntate esclusivamente le chip presenti sul tavolo sin dall'inizio della mano in questione. Neconsegue che un giocatore non in grado di coprire una puntata o un rilancio effettuato da un avversario, in quantonon possiede abbastanza chip, è costretto ad abbandonare la mano. Quando un giocatore ha puntato tutte le propriechip nel piatto, esso è considerato all-in; ulteriori puntate che il giocatore non è in grado di coprire, nel caso in cuinella mano fossero coinvolti più di due giocatori, andranno a costituire un secondo piatto per il quale competerannosolo i giocatori che vi hanno puntato, quindi il giocatore precedentemente in all-in ne è escluso.[2] In ordinecronologico, il piatto primario prende il nome di "Main Pot", mentre i piatto secondari, che vanno quindi a costituirsisuccessivamente, sono detti "Side Pot".Le specialità del poker possono essere raggruppate in tre categorie:Draw poker

Ogni giocatore riceve cinque (nel poker tradizionale) o più carte tutte coperte. I giocatori possono cambiareuna o più carte per una o più volte.

Stud pokerI giocatori ricevono le carte una alla volta, alcune coperte altre scoperte. La maggior differenza tra lo stud e ildraw poker è l'impossibilità di cambiare le carte.

Community card pokerOgni giocatore riceve un determinato numero di carte coperte (due nel Texas Hold'em o quattro nell'Omaha) epuò utilizzare un determinato numero di carte comuni per comporre il proprio punto.

Varianti del pokerOgni specialità del poker può avere diverse varianti di gioco:• a limite fisso (limit betting): sono possibili solo tre rilanci per round di scommessa, purché vi siano più di 2

giocatori; inoltre i rilanci stessi sono bloccati con un limite. La scommessa minima è raddoppiata solitamente conil terzo giro di scommessa.

• limite al piatto (pot limit betting): diffuso in Europa, al giocatore è impedito di rilanciare una cifra superiore alvalore del piatto in quel momento. Serve per evitare che i piatti si ingrossino nel primo giro di scommessa.

• senza limiti (no limit): non ci sono limiti di scommessa.• misto (mixed): si alternarno momenti con variante senza limite e a limite fisso.•• high-low split

Page 154: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Poker 150

Storia

Doyle Brunson, due volte campione del mondo (1976,1977, secondo nel 1980)

Phil Hellmuth Jr, campione del mondo nel 1989,detiene il primato di braccialetti WSOP vinti:11

Le origini del gioco del poker sono tuttora oggetto di dibattito.Assomiglia molto a un gioco persiano ed è stato probabilmenteinsegnato ai colonizzatori francesi di New Orleans dai marinaipersiani. Il nome deriva, probabilmente, dal termine francesepoque (ingannare), che deriva a sua volta dal tedesco pochen. Nonè chiaro se il poker derivi direttamente da giochi con quei nomi,tuttavia viene considerato un insieme di tutti questi giochi che nehanno influenzato lo sviluppo fino al poker che conosciamo aigiorni nostri.

La più antica testimonianza si ha dall'attore inglese Joseph Crowel,che lo segnala nel New Orleans, giocato con un mazzo di 20 cartee da 4 giocatori che scommettono su chi ha la combinazionevincente. Il primo libro è di Green Jonathan H., An Exposure ofthe Arts and Miseries of Gambling (G.B. Zieber, Filadelfia, 1843)che ne descrive la diffusione da lì fino al Mississippi, dove il giocoera un comune passatempo.Subito dopo questa diffusione si inizia ad usare il mazzo francesecon 54 carte e si ha l'introduzione del colore. Durante la guerracivile americana si hanno numerose aggiunte e le prime variantidel gioco, draw poker, stud poker e community card poker),seguite da numerose altre come il razz (variante in cui vince ilpunto più basso) o lo Hi-Lo (variante in cui a vincere il piatto sono2 o più giocatori). La diffusione del gioco negli altri continenti èattribuito ai militari americani.

Nel primo novecento il gioco più diffuso è il 7 card stud, ma dopogli anni 50 si impongono i poker a carte comunitarie, in primis ilTexas Hold'em seguito dall'Omaha.

La nuova modalità di gioco, il torneo, comincia a diffondersi neicasino americani dopo il primo WSOP (mondiale di poker che sisvolge tutti gli anni a Las Vegas) e di lì a poco si ha anche l'uscitadei primi libri di strategia come Super/System di Doyle Brunson(ISBN 1-58042-081-8) e The Book of Tells di Mike Caro (ISBN0-89746-100-2), seguito poco dopo da The Theory of Poker diDavid Sklansky (ISBN 1-880685-00-0).

Negli USA la popolarità del poker ha un'impennata senza precedenti durante i primi anni del XXI secolo, conl'avvento del poker on-line e l'introduzione della telecamera per le carte coperte utilizzata durante i maggiori eventi,ciò che ha contribuito a far diventare il gioco uno sport spettacolare. Gli spettatori possono ora seguire ecomprendere l'azione dei giocatori durante i maggiori eventi trasmessi, come il WSOP o il WPT (World PokerTour), che hanno riscosso enorme successo nella TV satellitare e via cavo. Questa tendenza sta avendo riscontroanche in Europa in cui l'European Poker Tour è giunto alla sua ottava edizione[3] contribuendo all'enorme diffusionea cui si assiste anche in Italia, dove sono sorte le prime associazioni come Italian Rounders. Nel giugno 2006, ilCasinò di Sanremo è stata la prima casa da gioco italiana ad ospitare un torneo di Texas Hold'em Poker; ha poiospitato la tappa italiana dell'European Poker Tour.

Page 155: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Poker 151

La formula di gioco utilizzata in questi casi è quella del torneo (per la formula del torneo vedi poker sportivo): ilgiocatore paga l'iscrizione e riceve delle fiches (chiamate chip) con le quali gioca; finite le fiches il giocatore èeliminato, ad eccezione dei tornei dove è consentito il rebuy. Gli ultimi ad essere eliminati sono i primi classificatidel torneo, e si dividono l'ammontare del montepremi (alimentato dalle iscrizioni).Negli ultimi anni le WSOP, il WPT e l'European Poker Tour hanno avuto una notevole crescita anche grazie ainumerosi satelliti organizzati on line, i quali permettono a chiunque di accedere a questi eventi che una volta eranoprerogativa di pochi a causa dei costi molto elevati. I campioni del mondo del 2003 e 2004, rispettivamente ChrisMoneymaker e Greg Raymer, hanno vinto la loro partecipazione al mondiale (Main Event WSOP) giocando unsatellite on line.Anche in Italia il poker in TV ha attecchito: Sportitalia, Sky, Italia 1, 7 Gold e POKERItalia24 (sul digitale terrestre)trasmettono partite di poker che riscuotono un notevole successo tra i telespettatori.Tra i campioni italiani di maggior spessore troviamo Max Pescatori vincitore di due braccialetti alle WSOP, uno nel2006 e uno nel 2008[4], Luca Pagano che detiene il record delle presenze a premio nell'EPT (ben 18, di cui 6 tavolifinali)[5], Dario Alioto vincitore del torneo di Omaha alle WSOP Europe del 2007[6] e Dario "Caterpillar" Minieri,vincitore dell'evento $2.500 No Limit Hold'Em alle WSOP del 2008[7]. Oltre Pescatori, Alioto e Minieri, l'unicoaltro italiano ad aver vinto un braccialetto alle WSOP è Valter Farina, che si è aggiudicato l'evento $1.500 SevenCard Stud nel 1995. Viene spesso contrassegnato con la bandiera italiana agli eventi internazionali Jeff Lisandro,vincitore di ben cinque braccialetti, ma in realtà il giocatore è australiano, e ha origini italiane.

Note[1] Giochi di carte, di Marina Bono, 1ª edizione luglio 2010, pag. 116, ed. KeyBook, ISBN 978-88-6176-254-1.[2] Regole del poker (http:/ / www. pokerstars. it/ poker/ rules/ ). PokerStars[3] EPT Official Page (http:/ / www. europeanpokertour. com/ ). European Poker Tour[4] The Hendon Mob - Max Pescatori (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=3195& sort=place& dir=asc). The Hendon

Mob[5] The Hendon Mob - Luca Pagano (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=326). The Hendon Mob[6] The Hendon Mob - Dario Alioto (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=50080). The Hendon Mob[7] The Hendon Mob - Dario Minieri (http:/ / pokerdb. thehendonmob. com/ player. php?a=r& n=53606& sort=place& dir=asc). The Hendon

Mob

Voci correlate•• Regole e meccanica del poker•• Punti del poker•• Teorema fondamentale del poker•• Specialità e varianti del poker•• Poker sportivo•• WSOP•• European Poker Tour•• Federazione Italiana Gioco Poker•• Cash game•• Gioco•• Giochi con le carte•• Giocatore professionista di poker•• Skill games•• PokerTH•• Lista di videogiochi di poker

Page 156: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Poker 152

Altri progetti

• Wikibooks contiene testi o manuali: http:/ / it. wikibooks. org/ wiki/ Texas Hold'em• Wikizionario contiene la voce di dizionario: http:/ / it. wiktionary. org/ wiki/ poker• Wikiquote contiene citazioni: http:/ / it. wikiquote. org/ wiki/ Poker• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Poker

Collegamenti esterni• Poker (http:/ / www. dmoz. org/ World/ Italiano/ Giochi/ Carte/ Poker) su Open Directory Project ( Segnala (http:/ /

www. dmoz. org/ public/ suggest?cat=World/ Italiano/ Giochi/ Carte/ Poker) su DMoz un collegamento pertinente

all'argomento "Poker")

• Federazione Italiana Gioco Poker (http:/ / www. figp. it)

Roulette

La roulette

La roulette è un gioco d'azzardo di origine italiana (la girella)introdotto in Francia nel XVIII secolo.

Consiste in un disco, diviso in 37 (o 38, nella roulette americana)settori numerati da 0 a 36 e colorati alternativamente in rosso enero, mentre lo zero (0), come il doppio zero (00) quando èpresente, è normalmente colorato di verde o in bianco (inpochissimi casi); il disco viene fatto ruotare nella sua sede dalgestore del banco (il croupier) che successivamente vi lancia unapallina, originariamente in avorio, oggi in resina o teflon: lapallina viene fatta ruotare in senso opposto a quello della roulette,e si ferma cadendo in uno dei settori numerati, determinando ilnumero vincente.

LinguaggioLa lingua comunemente usata dai croupiers durante il gioco della roulette è il francese, nel quale vengonopronunciate le frasi che regolano ogni fase del gioco:•• Faites vos jeux (apertura del tavolo, dopo il pagamento delle vincite precedenti)•• Les jeux sont faits (al lancio della pallina)•• Rien ne va plus (fine delle puntate, quando l'uscita del numero è imminente')•• l'annuncio del numero uscito, come nel seguente esempio: "27, rouge, impair et passe", seguito dall'indicazione

delle puntate vincenti dei giocatori (plein, cheval, ecc.) o da "rien au numéro" se non vi sono vincite.

Page 157: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Roulette 153

Tipologie di roulette

Tavolo della roulette francese

Vi possono essere tre tipi di tavolo:• roulette francese, il tavolo classico, con i numeri da 0 a 36. È la

tipologia più diffusa; si differenzia dalle altre due tipologie perché,nel caso dell'uscita dello 0, le puntate sulle chance semplici vengonoimprigionate per la mano in corso se poi esce un numerocorrispondente alla chance puntata in precedenza, la puntata vienerimessa in libertà e si comporterà come una nuova puntata che puòquindi vincere o perdere (regola dell'en prison). C'è inoltre unaderoga convenzionalmente utilizzata in quasi tutti i casinò europei:quando esce lo 0 le puntate sulle chance semplici si possonodividere con il banco. Ad esempio ho puntato 20 pezzi su rosso edesce zero ritiro dal tavolo 10 pezzi ed il banco incamera ladifferenza.

• roulette inglese, come la roulette francese, ma senza la regoladell'en prison. Il tappeto di gioco è diverso per due motivi:

nel tavolo francese ci sono tre croupier a far svolgere il gioco mentre inquello inglese e americano uno; ci sono gli annunci (vicini dello zero, serie 5/8 e gli orfanelli) e sul tappeto èrappresentato il cilindro con i tre settori degli annunci;• roulette americana, si differenzia dalle precedenti due per la presenza di una trentottesima casella: il doppio zero

(00), anch'essa verde; come nella roulette inglese, non esiste la regola dell'en prison e ci sono quattro tipi diannunci e tutti giocano in pieno:

GOLD (5,7,11,17,20,22,26,30,32,34) SILVER (00,1,3,10,13,15,24,25,27,36) AMERICANA(6,8,9,12,18,19,21,28,29,31) SMALL (0,2,4,14,16,23,33,35)

Puntate e sistemi di giocoLe combinazioni su cui è possibile puntare sono svariate, ognuna delle quali è quotata 36/n-1:1, essendo n la quantitàdi numeri compresi nella combinazione scelta:

• Plein, singoli numeri in cui, in caso di vittoria, si vince 35 volte la somma puntata• Cheval, cavalli, o coppie di numeri in cui, in caso di vittoria, si vince 17 volte la somma puntata• Transversale Pleine, terzine in cui, in caso di vittoria, si vince 11 volte la somma puntata• Carrè, quartine in cui, in caso di vittoria, si vince 8 volte la somma puntata• Transversale Simple, sestine in cui, in caso di vittoria, si vince 5 volte la somma puntata

Page 158: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Roulette 154

Sistemi di gioco

• Douzaine, dozzine (prima, seconda o terza) in cui, in caso divittoria, si vince 2 volte la somma puntata

• Colonne, colonne (prima, seconda o terza colonna del tavolo) incui, in caso di vittoria, si vince 2 volte la somma puntata

Puntate Semplici

Ci sono poi 3 ulteriori tipologie di puntata, chiamate ChanchesSimples, che in caso di vittoria, restituiscono 1 volta la somma puntatae sono:

• Pair ou Impair, o anche Even or Odd, ovvero numeri pari odispari

• Manque ou Passe, ovvero i numeri da 1 a 18 o quelli da 19 a 36• Rouge ou Noir, ovvero i numeri rossi o neri

Esistono poi sistemi di gioco codificati a livello internazionale, i più comuni sono: i vicini dello zero, la serie 5/8 egli orfanelli.

• Zero e i vicini dello zero ("zéro et les voisins du zéro") sono una serie di 17 numeri ubicati sul cilindro alladestra e alla sinistra dello zero tra il 22 e il 25 compresi, e si possono giocare con un totale di 9 fiches. I numeriin questione sono 0-2-3, 4-7, 12-15, 18-21, 19-22, 25-26-28-29, 32-35 con due fiches sullo 0-2-3 e sul carrè25-29.

• La serie 5/8 ("tiers du cylindre" o più semplicemente "tiers") è composta da 12 numeri giocabili con 6 fichessu 6 cavalli, i numeri sono 5-8, 10-11, 13-16, 23-24, 27-30, 33-36, e sono ubicati, sul cilindro, in manieradiametralmente opposta ai "vicini dello zero".

• Gli orfanelli (o "orphelins"), così chiamati proprio perché non facenti parte di nessuna delle due serie sopraesposte, sono gli 8 numeri rimanenti, ossia 1, 6-9, 14-17, 17-20, 31-34 (l'1 pieno, gli altri a cavallo), si possonogiocare con 5 fiches e sono ubicati, in parte sul lato sinistro ed in parte sul lato destro del cilindro, che perconsuetudine viene rappresentato con lo "0" in alto.

In Scozia si usa giocare la "tier press", che altro non è che la tier normale (5-8-10-11-13-16-23-24-27-30-33-36) conl'aggiunta dei pieni dei primi quattro numeri (ossia 5-8-10-11) per un totale di 10 fiches.Altra celebre e diffusa puntata è quella denominata "nassa". Come gli orfanelli, si effettua puntando 5 fiches, chevanno a coprire 8 numeri vicini dello zero: il 26 e il 19 pieni e i cavalli 0-3, 12-15, 32-35. È considerata la giocataridotta rispetto al sistema "vicini dello zero" e offre il 21.6% di probabilità di vincita.

StatisticaLa roulette, come tutti i giochi d'azzardo nei quali è presente un banco, garantisce al banco stesso una percentualematematica di vantaggio sul giocatore, che in questo caso risulta essere del 2,70% circa, una percentuale tuttosommato esigua rispetto a giochi tipo il Lotto od il Totocalcio dove la stessa è addirittura del 60% circa. Non ci sonosistemi di gioco che garantiscano una vincita sicura. Nel 1985 Olivier Doria ipotizzò un sistema basato sull'incrociodi parabole dirette in senso opposto. E cioè piazzando una telecamera che calcolasse, al momento del lancio, lavelocità della pallina alla partenza e, simultaneamente la velocità della ruota in senso opposto, si sarebbe potutocalcolare il settore della roulette nel quale la pallina avrebbe avuto più probabilità di atterrare.Se si gioca un numero singolo, le probabilità di vincita calcolate sono del 2,702703% per i tavoli francese e inglese,e del 2,63158% per il tavolo americano; in caso di vincita il banco paga 35 volte la posta giocata.

Page 159: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Roulette 155

Voci correlate•• Casa da gioco•• Gioco d'azzardo•• Baratteria (gioco)

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Roulette

Page 160: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

156

Hors Catégorie

Continuità assolutaIn matematica, il concetto di continuità assoluta si applica a due concetti distinti.

Continuità assoluta delle funzioni realiIn matematica, una funzione a valori reali di una variabile reale si dice assolutamente continua se per ogni numeropositivo piccolo a piacere esiste un numero positivo tale che per ogni sequenza finita o infinita di intervalli

disgiunti tali che:

allora:[1]

Ogni funzione assolutamente continua risulta a variazione limitata e uniformemente continua e, di conseguenza,continua. Ogni funzione lipschitziana è assolutamente continua, mentre non è vero il viceversa. La funzione diCantor, ad esempio, è continua in tutto il suo dominio, ma non è assolutamente continua.

Teorema fondamentale del calcolo integrale di LebesgueDato per ipotesi che una funzione sia a variazione limitata, l'assoluta continuità è condizione necessaria e sufficientealla validità del teorema fondamentale del calcolo integrale.

Una funzione definita sull'intervallo compatto a valori in è assolutamente continua se possiede unaderivata definita quasi ovunque e integrabile secondo Lebesgue tale che:

In modo equivalente, esiste una funzione su integrabile secondo Lebesgue tale che:

Tale definizione di assoluta continuità è detta teorema fondamentale del calcolo integrale di Lebesgue. Se leprecedenti condizioni equivalenti sono verificate si ha:

quasi ovunque.

Page 161: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Continuità assoluta 157

Continuità assoluta delle misureSe e sono misure sulla stessa sigma-algebra, la misura si dice assolutamente continua rispetto a se

per ogni insieme A per il quale . Questa situazione viene presentata con la scrittura.[2]

In modo equivalente, per ogni esiste tale che:

per ogni insieme E della sigma-algebra tale che:[3]

ProprietàSe esiste un insieme B tale per cui:

per ogni insieme E della sigma-algebra, allora tale misura si dice concentrata su B.Misure concentrate su insiemi rispettivamente disgiunti sono dette mutuamente singolari. In particolare, se e sono mutuamente singolari si scrive .Un teorema di particolare importanza nell'ambito della continuità assoluta delle misure afferma che se e sonodue misure limitate, allora esiste un'unica coppia di misure positive tali che:

La decomposizione:

è detta decomposizione di Lebesgue di relativamente a , ed è unica.[4]

Il teorema di Radon-Nikodym afferma inoltre che esiste un'unica funzione tale che:

per ogni insieme E della sigma-algebra. Il teorema stabilisce, in particolare, che esiste una funzione misurabile avalori in , denotata con:

tale che per ogni insieme misurabile A si ha:

La funzione si dice derivata di Radon-Nikodym di rispetto .

Page 162: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Continuità assoluta 158

Collegamento fra continuità assoluta delle funzioni reali e delle misureUna misura μ sui sottoinsiemi di Borel della retta reale è assolutamente continua rispetto alla misura di Lebesgue see solo se la funzione

è una funzione reale assolutamente continua.

Note[1] W. Rudin, op. cit., Pag. 165[2] W. Rudin, op. cit., Pag. 121[3] W. Rudin, op. cit., Pag. 125[4] W. Rudin, op. cit., Pag. 122

Bibliografia• Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341

IntegraleIn analisi matematica, l'integrale è un operatore che, nel caso di una funzione di una sola variabile, associa allafunzione l'area sottesa dal suo grafico entro un dato intervallo nel dominio. Si tratta dell'operazione inversa a quelladi derivazione.

Cenni storiciL'idea di base del concetto di integrale era nota ad Archimede di Siracusa, vissuto tra il 287 ed il 212 a.C., ed eracontenuta nel metodo da lui usato per il calcolo dell'area del cerchio o del segmento di parabola, detto metodo diesaustione.Nel XVII secolo alcuni matematici trovarono altri metodi per calcolare l'area sottesa al grafico di semplici funzioni,e tra di essi figurano ad esempio Fermat (1636) e Nicolaus Mercator (1668).Nel diciassettesimo e diciottesimo secolo Newton, Leibniz, Johann Bernoulli scoprirono indipendentemente ilteorema fondamentale del calcolo integrale, che ricondusse tale problema alla ricerca della primitiva di una funzione.La definizione di integrale per le funzioni continue in tutto un intervallo, introdotta da Pietro Mengoli ed espressacon maggiore rigore da Cauchy, venne posta su base diversa da Riemann in modo da evitare il concetto di limite, eda comprendere classi più estese di funzioni. Nel 1875 Gaston Darboux mostrò che la definizione di Riemann puòessere enunciata in maniera del tutto simile a quella di Cauchy, purché si intenda il concetto di limite in modo un po'più generale. Per questo motivo si parla di integrale di Cauchy-Riemann.

Page 163: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 159

Notazione

Il simbolo che rappresenta l'integrale nella notazione matematica fu introdotto da Leibniz alla fine del XVII

secolo. Il simbolo si basa sul carattere ſ (esse lunga), lettera che Leibniz utilizzava come iniziale della parola summa,in latino somma, poiché questi considerava l'integrale come una somma infinita di addendi infinitesimali.

Il simbolo di integrale nella letteratura (dasinistra) inglese, tedesca e russa.

Esistono leggere differenze nella notazione dell'integrale nelleletterature di lingue diverse: il simbolo inglese è piegato verso destra,quello tedesco è dritto mentre la variante russa è piegata verso sinistra.

Introduzione euristica

Si consideri una funzione reale di variabile realedefinita su un intervallo chiuso e limitato dell'asse delle ascisse.Quando si procede a calcolare l'integrale di in un intervallo, èdetta funzione integranda e l'intervallo è detto intervallo diintegrazione. Il valore dell'integrale della funzione calcolatonell'intervallo di integrazione è pari all'area (con segno) della figura che ha per bordi il grafico di , l'asse delleascisse e i segmenti verticali condotti dagli estremi dell'intervallo di integrazione agli estremi del grafico dellafunzione. Il numero reale che esprime tale area viene chiamato integrale della funzione esteso all'intervallo diintegrazione.Se il grafico della funzione è costituito da uno o più segmenti, la figura si può scomporre in rettangoli o trapezi, dicui si conoscono le aree: la somma algebrica di tali aree è l'integrale cercato. Un tale approccio è utilizzato, adesempio, nell'integrale di Riemann, in cui il calcolo dell'area può essere eseguito suddividendo la figura in sottilistrisce verticali assimilabili a rettangoli: calcolando l'area di ciascun rettangolo e sommando i risultati così ottenuti sipuò avere un'approssimazione del valore dell'area della figura, e suddividendo in strisce sempre più sottili siottengono approssimazioni sempre migliori dell'integrale cercato. A partire da una tale descrizione informale, èpossibile costruire un modello rigoroso suddividendo un intervallo di integrazione in intervalli del tipo

, con , e . Per ciascun intervallo si considera un punto la cuiimmagine è , e si costruisce il rettangolo che ha per base l'intervallo e per altezza . L'areadella figura costituita da tutti i rettangoli così costruiti è data dalla somma di Cauchy-Riemann:

Se al diminuire dell'ampiezza degli intervalli i valori così ottenuti si concentrano in un intorno sempre piùpiccolo di un numero , la funzione è integrabile sull'intervallo ed è il valore del suo integrale.Affinché il valore dell'integrale non dipenda dalla suddivisione degli intervalli utilizzata si pone la condizione che lacurva sia uniformemente continua all'interno del singolo intervallo in cui è stato suddiviso l'intervallo diintegrazione. Ponendo , se vale la continuità uniforme si possono infatti considerare due punti

e interni all'intervallo . Il numero di tali intervalli di ampiezza è pari a:

e le altezze dei rettangoli relativi a ed differiscono della quantità . Da ciò discende che, se sipone come la più grande delle quantità , la differenza di valutazione dell'area del genericorettangolo conseguente alla scelta del punto o del punto è al massimo . La differenza di valutazionedella somma di rettangolini è quindi al massimo pari a:

Page 164: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 160

Tale discrepanza di valutazione diminuisce al tendere a zero dell'ampiezza del generico intervallo in cui è suddiviso, e questo motiva la scelta di una funzione uniformemente continua.

DefinizioneLa prima definizione rigorosa ad essere stata formulata di integrale di una funzione su un intervallo è l'integrale diRiemann, formulato da Bernhard Riemann.L'integrale di Lebesgue è una generalizzazione dell'integrale di Riemann, e per mostrarne la relazione è necessarioutilizzare la classe delle funzioni continue a supporto compatto, per le quali l'integrale di Riemann esiste sempre.Siano e due funzioni continue a supporto compatto su . Si può definire la loro distanza nel seguentemodo:[1]

Munito della funzione distanza, lo spazio delle funzioni continue a supporto compatto è uno spazio metrico. Ilcompletamento di tale spazio metrico è l'insieme delle funzioni integrabili secondo Lebesgue.[2][3]

In letteratura esistono diversi altri operatori di integrazione, tuttavia essi godono di minore diffusione rispetto a quellidi Riemann e Lebesgue.

Integrale di Riemann

Sia l'insieme delle funzioni limitate e continue a tratti sull'intervallo , e tali da essere continue dadestra:

Si definisca la norma:

Sia una partizione di e la funzione indicatrice dell'i-esimo intervallo dellapartizione .L'insieme delle possibili partizioni dell'intervallo costituisce uno spazio vettoriale normato, connorma data da:

L'insieme è denso in . Si definisce la trasformazione lineare limitata nelseguente modo:[4]

Si dimostra che un operatore lineare limitato che mappa uno spazio vettoriale normato in uno spazio normatocompleto può essere sempre esteso in modo unico ad un operatore lineare limitato che mappa il completamento dellospazio di partenza nel medesimo spazio di arrivo. Poiché i numeri reali costituiscono un insieme completo,l'operatore può quindi essere esteso ad un operatore che mappa il completamento di in .

Si definisce integrale di Riemann l'operatore , e si indica con:[5]

Page 165: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 161

Integrale di LebesgueSia una misura su una sigma-algebra di sottoinsiemi di un insieme . Ad esempio, può essere unn-spazio euclideo o un qualche suo sottoinsieme Lebesgue-misurabile, la sigma-algebra di tutti isottoinsiemi Lebesgue-misurabili di e la misura di Lebesgue.Nella teoria di Lebesgue gli integrali sono limitati a una classe di funzioni, chiamate funzioni misurabili. Unafunzione è misurabile se la controimmagine di ogni insieme aperto del codominio è in , ossia se èun insieme misurabile di per ogni aperto .[6] L'insieme delle funzioni misurabili è chiuso rispetto alleoperazioni algebriche, ed in particolare la classe è chiusa rispetto a vari tipi di limiti puntuali di successioni.Una funzione semplice è una combinazione lineare finita di funzioni indicatrici di insiemi misurabili.[7] Siano inumeri reali o complessi i valori assunti dalla funzione semplice e sia:

Allora:[7]

dove è la funzione indicatrice relativa all'insieme per ogni i.L'integrale di Lebesgue di una funzione semplice è definito nel seguente modo:

Sia una funzione misurabile non negativa su a valori sulla retta reale estesa. L'integrale di Lebesgue di sull'insieme rispetto alla misura è definito nel seguente modo:[8]

dove l'estremo superiore è valutato considerando tutte le funzioni semplici tali che . Il valoredell'integrale è un numero nell'intervallo .L'insieme delle funzioni tali che:

è detto insieme delle funzioni integrabili su secondo Lebesgue rispetto alla misura , o anche insieme dellefunzioni sommabili, ed è denotato con .Anche l'integrale di Lebesgue è un funzionale lineare, e considerando una funzione definita su un intervallo ilteorema di Riesz permette di affermare che per ogni funzionale lineare su è associata una misura di Borelfinita su tale che:[9]

In questo modo il valore del funzionale dipende con continuità dalla lunghezza dell'intervallo di integrazione.

Page 166: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 162

Integrale in più variabiliSia:

un vettore nel campo reale. Un insieme del tipo:

è detto k-cella. Sia definita su una funzione continua a valori reali, e si definisca:

Tale funzione è definita su ed è a sua volta continua a causa della continuità di . Iterando il procedimentosi ottiene una classe di funzioni continue su che sono il risultato dell'integrale di rispetto alla variabile

sull'intervallo . Dopo k volte si ottiene il numero:

Si tratta dell'integrale di su rispetto a , e non dipende dall'ordine con il quale vengono eseguite le kintegrazioni.In particolare, sia . Allora si ha:

Inoltre, sia una funzione a supporto compatto e si ponga che contenga il supporto di . Allora è possibilescrivere:

Nell'ambito della teoria dell'integrale di Lebesgue è possibile estendere questa definizione a funzioni di carattere piùgenerale.Una proprietà di notevole importanza dell'integrale di una funzione in più variabili è la seguente. Siano:

• una funzione iniettiva di classe definita su un aperto e tale che la sua matricejacobiana sia diversa da 0 ovunque in .

• una funzione a supporto compatto continua definita su e tale che contenga il supporto di .Allora si ha:

L'integrando ha un supporto compatto grazie all'invertibilità di , dovuta all'ipotesiper ogni che garantisce la continuità di in per il teorema della funzione inversa.

Page 167: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 163

Continuità e integrabilitàUna condizione sufficiente ai fini dell'integrabilità è che una funzione definita su un intervallo chiuso e limitato siacontinua. Una funzione continua definita su un compatto, e quindi continua uniformemente per il teorema diHeine-Cantor, è dunque integrabile.

Assoluta integrabilità

Una funzione si dice assolutamente integrabile su un intervallo aperto del tipo se su tale intervallo èintegrabile . Viceversa, non tutte le funzioni integrabili sono assolutamente integrabili: un esempio di funzione

di questo tipo è .

Il teorema sull'esistenza degli integrali impropri all'infinito garantisce che una funzione assolutamente integrabilesia integrabile su un intervallo del tipo .

Proprietà degli integraliDi seguito si riportano le proprietà principali dell'operatore integrale.

Linearità dell'integrale

Siano f e g due funzioni continue definite in un intervallo [a, b] e siano . Allora:

Additività

Sia f continua e definita in un intervallo e sia . Allora:

Monotonia (o teorema del confronto)

Siano f e g due funzioni continue definite in un intervallo e tali che in . Allora:

Valore assolutoTale teorema si potrebbe considerare come un corollario del teorema del Confronto. Sia f integrabile in un intervallo[a, b], allora si ha:

Page 168: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 164

Teorema della media

Se è continua allora esiste tale che:

Calcolo differenziale e calcolo integraleIl teorema fondamentale del calcolo integrale, grazie agli studi ed alle intuizioni di Leibniz, Newton, Torricelli eBarrow, stabilisce la relazione esistente tra calcolo differenziale e calcolo integrale.

Funzione Integrale

Sia una funzione definita su un intervallo . Se la funzione è integrabile su ogni intervallochiuso e limitato contenuto in , al variare dell'intervallo varia il valore dell'integrale. Si ponga

, dove è fissato e l'altro estremo è variabile: l'integrale di su diventa allora una funzionedi . Tale funzione si dice funzione integrale di o integrale di Torricelli, e si indica con:

La variabile di integrazione è detta variabile muta, e varia tra e .

Teorema fondamentale del calcolo integraleLa prima parte del teorema è detta primo teorema fondamentale del calcolo, e garantisce l'esistenza della primitivaper funzioni continue. La seconda parte del teorema è detta secondo teorema fondamentale del calcolo, e consente dicalcolare l'integrale definito di una funzione attraverso una delle sue primitive.

Sia una funzione integrabile. Si definisce la funzione nel seguente modo:

La prima parte del teorema afferma che è una funzione continua in . Se inoltre è una funzione continuaallora è differenziabile in e si ha:

dove è la derivata di . Più precisamente, se è continua in un punto allora è differenziabile in talpunto, e vale la precedente relazione.La seconda parte del teorema non assume la continuità di , una funzione che ammette unaprimitiva su . Se è integrabile si ha:

e tale relazione è detta formula fondamentale del calcolo integrale.

Page 169: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 165

Infinite PrimitiveNel caso in cui si ha:

allora, poiché la derivata di una funzione costante è nulla:

dove è una qualunque costante in e denota l'operazione di derivazione. Quindi, se una funzione ammette primitiva allora esiste un'intera classe di primitive del tipo . Viceversa, tutte leprimitive di sono della forma .Infatti, siano e due primitive di e si consideri la funzione . Laderivata prima di è data da:

Quindi si mantiene costante su tutto l'intervallo , e ciò implica che:

La condizione sufficiente per l'esistenza di una primitiva è data dal fatto che se è continua in , alloraammette una (e dunque infinite) primitive per il primo teorema fondamentale del calcolo integrale.

Integrale improprioUn integrale improprio è un limite della forma:

oppure:

Un integrale è improprio anche nel caso in cui la funzione integranda non è definita in uno o più punti interni deldominio di integrazione.

Integrale indefinitoIl problema inverso a quello della derivazione consiste nella ricerca di tutte le funzioni la cui derivata sia uguale auna funzione assegnata. Questo problema è noto come ricerca delle primitive di una funzione.

La totalità delle primitive di una funzione si chiama integrale indefinito di tale funzione. Il simbolo:

denota l'integrale indefinito della funzione in . La funzione è detta anche in questo caso funzione

integranda.Ogni funzione continua in un intervallo ammette sempre integrale indefinito, ma non è detto che sia derivabile inogni suo punto. Se è una funzione definita in un intervallo nel quale ammette una primitiva allora l'integraleindefinito di è:

dove è una generica costante reale.

Page 170: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 166

Metodi di integrazioneIl caso più semplice che può capitare è quando si riconosce la funzione integranda essere la derivata di una funzionenota . In casi più complessi esistono numerosi metodi per trovare la funzione primitiva. In particolare, tra letecniche più diffuse per la semplificazione della funzione integranda vi sono le seguenti due:• Se l'integranda è il prodotto di due funzioni, l'integrazione per parti riduce l'integrale alla somma di due integrali,

di cui uno calcolabile immediatamente grazie alla formula fondamentale del calcolo integrale.• Se l'integranda è trasformazione di una derivata nota attraverso una qualche funzione derivabile, l'integrazione per

sostituzione riporta il calcolo all'integrale di quella derivata nota, modificato per un fattore di proporzionalità chedipende dalla trasformazione in gioco.

Stima di somme tramite integraleUn metodo che consente di ottenere la stima asintotica di una somma è l'approssimazione di una serie tramite il suointegrale. Sia una funzione monotona non decrescente. Allora per ogni e ogni intero

si ha:

Infatti, se la proprietà è banale, mentre se si osserva che la funzione è integrabile in ogni intervallochiuso e limitato di , e che per ogni vale la relazione:

Sommando per si ottiene dalla prima disuguaglianza:

mentre dalla seconda segue che:

Aggiungendo ora e alle due somme precedenti si verifica la relazione.

Integrali di Denjoy, Perron, Henstock e altriSono state sviluppate altre definizioni di integrale, per diversi scopi. I tre qui nominati condividono la validità delteorema fondamentale del calcolo integrale in una forma più generale di Riemann e Lebesgue.Il primo in ordine cronologico ad essere definito è stato l'integrale di Denjoy, definito per mezzo di una classe difunzioni che generalizza le funzioni assolutamente continue. Successivamente, solo due anni dopo, Perron ha dato lasua definizione, con un metodo che ricorda le funzioni maggioranti e minoranti di Darboux. In ultimo, RalphHenstock (e indipendentemente, Jaroslaw Kurzweil) ha dato una terza definizione equivalente, detta anche integraledi gauge, che sfrutta una leggera generalizzazione della definizione di Riemann, la cui semplicità rispetto alle altredue è probabilmente il motivo per cui questo integrale è più noto con il nome del matematico inglese che con quellidi Denjoy e Perron.

Page 171: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 167

Integrale di ItoL'integrale di Ito fa parte dell'analisi di Itō per i processi stocastici.

In letteratura è introdotto utilizzando varie notazioni: una di queste è sicuramente: dove è il

processo di Wiener. L'integrale non è definito come un integrale ordinario, in quanto, il processo di Wiener havariazione totale infinita, in particolare gli strumenti canonici di integrazione di funzioni continue non sonosufficienti. Pertanto si cerca in questa pubblicazione di definire formalmente l'integrale di Itô (o integrale stocastico).L'utilizzo principale di tale strumento matematico è nel calcolo differenziale di equazioni in cui sono coinvolti,appunto, integrali stocastici, che inseriti in equazioni volte a modellizzare un particolare fenomeno (moto aleatoriodelle particelle, prezzo delle azioni nei mercati finanziari ecc.) rappresentano il contributo aleatorio sommabile(rumore) dell'evoluzione del fenomeno stesso.

Esempi di calcolo di un integrale• In base alle informazioni fornite dal primo teorema fondamentale del calcolo integrale possiamo effettuare il

calcolo di un integrale cercando una funzione la cui derivata coincide con la funzione da integrare. A questoscopo possono essere d'aiuto le tavole d'integrazione.

Così per effettuare il calcolo dell'integrale della funzione vista in precedenza attraverso la ricerca diuna primitiva si ricorre alla formula

la cui derivata coincide proprio con .

Prendendo in considerazione la (già esaminata precedentemente) funzione ed integrandola si ottiene

Mentre per quanto concerne l'integrale definito nel compatto si ha, in forza del secondo teorema fondamentaledel calcolo integrale

esattamente (ovviamente) lo stesso risultato ottenuto in precedenza.• Supponiamo di fissare un sistema di riferimento cartesiano attraverso le rette ortogonali ed orientate delle ascisse

e delle ordinate. Supponiamo ora che su tale sistema di assi sia definita una retta la cui equazione esplicita è. Si vuole calcolare l'integrale di tale retta definita sul compatto situato sull'asse delle

ascisse.Supponiamo per semplicità che i punti a e b si trovino sul semiasse positivo delle ascisse e siano entrambi positivi.

Allora l'area sottesa alla retta considerata nel compatto è pari all'area di un trapezio che "poggiato" inorizzontale sull'asse delle ascisse è caratterizzato da un'altezza pari a , base maggiore e base minore

. L'area di tale figura è data, come noto dalla geometria elementare, dalla formula ,

ovvero .

Nell'ottica del calcolo dell'integrale di questa retta definita nel compatto effettuiamo una partizione di taleintervallo, dividendolo in n parti uguali

Page 172: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 168

Nel generico intervallo scegliamo come punto arbitrario il punto più esterno (ma andrebbe benequalsiasi punto dell'intervallo), considerando la funzione nel generico punto interno all'intervallo

.

Si avrà quindi , e la somma integrale di Riemann diventa

nella quale la progressione aritmetica restituisce un'espressione delle somme di Riemann pari a

Per passare dalle somme integrali di Riemann all'integrale vero e proprio è ora necessario, in conformità con ladefinizione di integrale, il passaggio al limite di suddette somme. Ovvero:

Calcolando il limite per , dato che , s'ottiene

dalla quale, eseguendo la somma si ricava

la quale è esattamente l'area del trapezio costruito dalla retta sul piano insieme all'asse delle ascisse.

Note[1] W. Rudin, op. cit., Pag. 68[2] Si pone in tale contesto che due funzioni uguali quasi ovunque siano coincidenti.[3] W. Rudin, op. cit., Pag. 69[4] Reed, Simon, op. cit., Pag. 10[5] Reed, Simon, op. cit., Pag. 11[6] W. Rudin, op. cit., Pag. 8[7] W. Rudin, op. cit., Pag. 15[8] W. Rudin, op. cit., Pag. 19[9] W. Rudin, op. cit., Pag. 34

Bibliografia• (EN) Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341• Michael Reed; Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2a ed., San

Diego, California, Academic press inc., 1980. ISBN 0125850506• Gustavo Bessiére Il calcolo differenziale ed integrale, reso facile ed attraente (Editore Ulrico Hoepli Milano)

ISBN 88-203-1011-2

Page 173: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Integrale 169

Voci correlate•• Derivata•• Funzione sommabile•• Integrale di Riemann•• Integrale di Lebesgue•• Integrale sui cammini•• Metodi di integrazione•• Passaggio al limite sotto segno di integrale•• Primitiva (matematica)

Tavole di integrali•• Integrali più comuni•• Integrali definiti

Integrali indefiniti•• di funzioni razionali•• di funzioni irrazionali•• di funzioni trigonometriche•• di funzioni iperboliche•• di funzioni esponenziali•• di funzioni logaritmiche•• di funzioni d'arco•• di funzioni d'area

Altre tipologie di integrali•• Integrale multiplo

•• Integrale doppio•• Integrale triplo

•• Integrale di linea•• Integrale di superficie•• Integrale funzionale

Collegamenti esterni• The Integrator - Calcolo formale di primitive (http:/ / integrals. wolfram. com/ index. jsp) (Wolfram Research)• Interactive Multipurpose Server (http:/ / wims. unice. fr/ wims/ en_home. html) (WIMS)• Marshall Evans Munroe, Misura e integrazione (http:/ / www. treccani. it/ enciclopedia/

misura-e-integrazione_(Enciclopedia-Novecento)/ ), da Enciclopedia del Novecento, Istituto dell'Enciclopediaitaliana Treccani

• Integrale (http:/ / www. treccani. it/ enciclopedia/ integrale/ ), Enciclopedia on line Treccani

Page 174: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Convoluzione 170

ConvoluzioneIn matematica, in particolare nell'analisi funzionale, la convoluzione è un'operazione tra due funzioni che genera unaterza funzione che viene vista come la versione modificata di una delle due funzioni di partenza. È paragonabile allacorrelazione incrociata.Viene utilizzata in vari campi della fisica, della statistica, dell'elettronica, dell'analisi d'immagini e della graficacomputerizzata, soprattutto per operazioni di filtraggio nei sistemi lineari tempo invarianti (in questo caso l'OUT èdato dalla convoluzione tra il segnale IN e la risposta all'impulso del sistema, la cui trasformata di Laplace o latrasformata di Fourier è detta funzione di trasferimento e funzione di risposta in frequenza rispettivamente).

Definizione IntuitivaLa convoluzione temporale di due funzioni è la somma, ripetuta quanto si voglia nel tempo, cioè in istanti diversi,dei prodotti: del valore della funzione qualsiasi nel momento qualsiasi, per il valore di una seconda funzionequalsiasi in un momento precedente o successivo al momento qualsiasi, per la misura dell'intervallo temporale chepassa dal momento qualsiasi al momento precedente o successivo al momento qualsiasi.

DefinizioneSi considerino due funzioni , dove è a supporto compatto e è integrabilesecondo Lebesgue su ogni compatto di . Si definisce convoluzione di e la funzione definita nel seguentemodo:[1]

dove denota l'integrale definito su tutto l'insieme dei numeri reali, risultano ora chiare le limitazioni poste alle

funzioni e , in quanto se così non fosse non potremmo assicurare che l'integrale sia un numero reale.È cioè l'integrale del prodotto delle due funzioni dopo che una delle funzioni di partenza è stata rovesciata e traslata,e si può considerare una forma di trasformata integrale.

L'ultimo passaggio si può dimostrare con semplici calcoli: si consideri , operando la sostituzionenella prima formula si ottiene la seconda ritornando a chiamare con il nome di .Per funzioni discrete, si può usare la versione discreta della convoluzione:

ProprietàLa convoluzione soddisfa le seguenti proprietà:•• Commutatività

•• Associatività

•• Distributività

•• Associatività per moltiplicazione per scalare

Page 175: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Convoluzione 171

per ogni numero reale (o complesso) .•• Regola di differenziazione

dove con si è denotata la derivata di o, nel caso discreto, l'operatore differenziale

.

Teorema di convoluzioneIl teorema di convoluzione afferma che

dove F(f) indica la trasformata di Fourier di f. Altre versioni di questo teorema funzionano per la trasformata diLaplace, trasformata di Laplace bilatera e la trasformata di Mellin.La trasformata della convoluzione di due funzioni equivale al prodotto delle trasformate delle due funzioni stesse.

EstensioneLa convoluzione di f e g si scrive ed è definita come l'integrale del prodotto delle due funzioni dopo che unadelle due sia stata simmetrizzata rispetto all'asse delle ordinate e sia stata traslata. In questo modo, la convoluzione èun metodo particolare di trasformata integrale:

L'intervallo di integrazione dipende dal dominio su cui sono definite le funzioni. Nel caso di integrazione su unintervallo finito, f e g sono spesso considerate periodiche in entrambe le direzioni, in modo tale che il termine g(t −τ) non implichi una violazione dell'intervallo. L'uso dei domini periodici è spesso chiamato convoluzione circolare;naturalmente, è sempre possibile l'estensione con aggiunta di zeri: utilizzando l'estensione con gli zeri o dominiinfiniti, la convoluzione è detta lineare, specialmente nel caso discreto sotto descritto.Se e sono due variabili casuali indipendenti con densità di probabilità f e g rispettivamente, allora la densitàdi probabilità della somma è data dalla covoluzione f g[2].Per le funzioni discrete, si può utilizzare la versione discreta della convoluzione, data da

Moltiplicando due polinomi, i coefficienti del prodotto sono dati dalla convoluzione della sequenza originale deicoefficienti in questo senso (utilizzando l'estensione con zeri come ricordato sopra).Generalizzando i casi sopra citati, la convoluzione può essere definita per ogni coppia di funzioni integrabili definitesu un intervallo localmente compatto.Una generalizzazione diversa avviene per la convoluzione delle distribuzioni.

Page 176: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Convoluzione 172

Convoluzione su gruppiSe G è un gruppo scelto in modo appropriato e la cui misura corrisponde al valore m (per esempio, uno gruppo diHausdorff localmente compatto con la misura di Haar e se f e g sono valori reali o complessi dell' m-integrale di G,allora la loro convoluzione può essere definita da:

ApplicazioniLa convoluzione e le relative operazioni sono usate in diverse applicazioni dell'ingegneria e della matematica.• In statistica, una media mobile pesata è una convoluzione.

• Anche la distribuzione di probabilità della somma di due variabili casuali indipendenti corrisponde allaconvoluzione di ognuna delle loro distribuzioni.

• In ottica, molte specie di "blur" sono descritte tramite la convoluzione. Un'ombra (ad esempio l'ombra su untavolo che si vede quando gli si interpone un oggetto innanzi la fonte luminosa) è la convoluzione della formadella fonte di luce che sta proiettando l'ombra dell'oggetto illuminato e l'oggetto stesso. Una foto fuori fuoco è laconvoluzione dell'immagine a fuoco con la forma del diaframma. Il termine fotografico per tale effetto è bokeh.

• Analogamente, nell'elaborazione digitale delle immagini, i filtri convoluzionali assumono un importante compitonegli algoritmi di calcolo dei margini e dei processi correlati.

• Nell'elaborazione digitale dei segnali, il filtraggio di frequenza può essere semplificato convolvendo due funzioni(dati con un filtro) nel dominio del tempo, il che equivale a moltiplicare i dati con un filtro nel dominio difrequenza.

• In acustica lineare, un'eco è la convoluzione del suono originale con una funzione geometrica che descrive i varioggetti che stanno riflettendo il segnale sonoro.

• Nella riverberazione artificiale (elaborazione digitale dei segnali (DSP), audio professionale), la convoluzione èutilizzata per codificare la risposta ad impulso di una stanza reale ad un segnale audio digitale.

• In ingegneria elettrica e in altre discipline, l'output (risposta) di un sistema lineare (stazionario, o tempo- ospazio-invariante) è la convoluzione di un input (eccitazione d'ingresso) con la risposta impulsiva del sistema(ovvero la risposta quando l'eccitazione d'ingresso è la funzione Delta di Dirac). Vedi teoria dei sistemi linearitempo-invarianti e elaborazione digitale dei segnali.

• Nella spettroscopia a fluorescenza determinata a tempo, il segnale di eccitazione può essere trattato come unacatena di impulsi delta, e la fluorescenza misurata è data dalla somma dei decadimenti esponenziali di ogniimpulso delta.

• In fisica, ogni volta che è presente un sistema lineare con un "principio di sovrapposizione", è utilizzatal'operazione di convoluzione.

• Questo è il termine fondamentale del problema nelle equazioni di Navier-Stokes correlate al problemamatematico del millennio di Clay e al premio associato di un milione di dollari.

Page 177: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Convoluzione 173

Note[1] W. Rudin, op. cit., Pag. 170[2] J. Jacod;P. Protter, op. cit., Pag. 117

Bibliografia• Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341• (EN) Jean Jacod; Philip Protter, Probability Essentials, Springer, 2000. ISBN 3540438718

Collegamenti esterni• Convolution (http:/ / rkb. home. cern. ch/ rkb/ AN16pp/ node38. html#SECTION000380000000000000000), su

The Data Analysis BriefBook (http:/ / rkb. home. cern. ch/ rkb/ titleA. html)• http:/ / www. jhu. edu/ ~signals/ convolve/ index. html Applet Java sulla convoluzione.• http:/ / www. jhu. edu/ ~signals/ discreteconv2/ index. html Applet Java per la convoluzione di funzioni tempo

discrete.• http:/ / www3. deis. unibo. it/ Staff/ Research/ CCaini/ corsoCEA/ convoluzione. xls Un foglio elettronico per

visualizzare in modo interattivo il prodotto di convoluzione fra due segnali, nell’esempio un impulso edun’esponenziale monolatera. Tramite un cursore il tempo può essere fatto variare da -∞ a +∞; in corrispondenza diogni valore viene evidenziata la funzione integrando ed il risultato del prodotto di convoluzione (tramite unmarker)

Voci correlate•• Deconvoluzione•• Convoluzione di Dirichlet•• Mollificatore

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/Category:Convolution

Page 178: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Sigma-algebra 174

Sigma-algebraIn matematica, una σ-algebra (pronunciata sigma-algebra) o tribù (termine introdotto dal francese Bourbaki) su diun insieme , è una famiglia di sottoinsiemi di che ha delle proprietà di stabilità rispetto ad alcune operazioniinsiemistiche, in particolare l'operazione di unione numerabile e di passaggio al complementare. La struttura diσ-algebra è particolarmente utile nelle teorie della misura e probabilità ed è alla base di tutte le nozioni dimisurabilità, sia di insiemi che di funzioni. Essa è un caso particolare di algebra di insiemi e, rispetto a quest'ultima,è utilizzata molto più ampiamente in Analisi (per via delle numerose proprietà che le misure definite su σ-algebrehanno rispetto alle operazioni di passaggio al limite).Le σ-algebre che ricorrono più spesso in matematica sono le σ-algebre boreliane e la σ-algebra di Lebesgue. Anchestoricamente queste due classi di σ-algebre hanno motivato lo sviluppo del concetto stesso di σ-algebra, nato acavallo di XIX secolo e XX secolo col fine di formalizzare la teoria della misura[1]. Esso, infatti, precisa l'ideaeuristica di evento o insieme misurabile. Molte importanti strutture astratte, al centro dei progressi della matematicadell'ultimo secolo, sono definibili mediante σ-algebre [2].

Definizione e prime proprietàDato un insieme , si definisce σ-algebra su una famiglia di sottoinsiemi di tale che:[3]

• L'insieme appartiene a .• Se un insieme è in , allora il suo complementare è in .• Se gli elementi di una famiglia numerabile di insiemi sono in , allora la loro unione:

appartiene a .Se è una σ-algebra su , allora si dice spazio misurabile e gli elementi di sono detti insiemi misurabili in

.[3]

Una σ-algebra, in particolare, è un'algebra di insiemi, poiché la terza condizione sopraindicata implica la stabilità perunione finita richiesta nella definizione di struttura di algebra. In tal caso si richiede la stabilità anche per unioninumerabili, da cui l'identificativo σ, un'abbreviazione per successione.Dalla definizione segue che:[4]

• L'insieme vuoto appartiene a , essendo il complementare di .• Una σ-algebra è stabile per intersezione numerabile. Infatti, se per ogni , allora:

• Se gli insiemi e appartengono a , allora:

Date due σ-algebre , su di uno stesso insieme , si dice che è meno fine di se è contenuta in ,ovvero se ogni sottoinsieme appartenente ad appartiene anche a . La relazione essere meno fine didefinisce un ordinamento parziale sull'insieme delle σ-algebre su di un dato insieme .Dati due insiemi e , dove e sono le rispettive sigma-algebre, la sigma-algebra ècostituita da sottoinsiemi del prodotto cartesiano , ed è la più piccola sigma-algebra che contiene

.

Page 179: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Sigma-algebra 175

Strutture definite utilizzando σ-algebreLa nozione di σ-algebra fornisce la possibilità di costruire strutture matematiche più complesse a partire da essa. Leseguenti strutture fondamentali, largamente studiate durante il XX secolo, stanno alla base della teoria della misura edell'integrale di Lebesgue.

Spazio misurabile

Uno spazio misurabile è una coppia costituita da un insieme non vuoto ed una σ-algebra su . Glielementi di sono detti insiemi misurabili di .[3] Gli spazi misurabili formano una categoria, i cui morfismi sonole funzioni misurabili. L'insieme è chiamato a volte spazio campionario, soprattutto nelle applicazioni inerenti allastatistica e la probabilità.

Spazio di misura

Si definisce spazio di misura uno spazio misurabile dotato di una misura positiva definita sulla σ-algebracostituita da sottoinsiemi misurabili di .[5] Un tale spazio si rappresenta con una terna .

Se lo spazio di misura si dice finito. Se inoltre può scriversi come unione numerabile di insiemi:

di misura finita, cioè tali che , allora lo spazio misurabile si dice σ-finito.

Funzioni misurabili

Sia uno spazio misurabile e uno spazio topologico. Un'applicazione viene dettamisurabile o -misurabile se la controimmagine di ogni elemento di è in , ossia se è uninsieme misurabile di per ogni aperto V di :[3]

Utilizzando il linguaggio della teoria delle categorie si può definire una funzione misurabile come un morfismo dispazi misurabili.

Sistema dinamico

Sia uno spazio misurabile, un semigruppo e, per ogni , sia un'applicazionemisurabile con la proprietà che . In altri termini, è un'azione misurabile di su . La terna

è detta sistema dinamico.

Principali risultatiData una famiglia qualunque di σ-algebre, si verifica che la loro intersezione:

è ancora una σ-algebra. Essa è la più grande σ-algebra contenuta in tutte le algebre , ossia se per ogni, allora .

Pertanto, data una famiglia qualsiasi di sottoinsiemi di , si può considerare la σ-algebra generata da comel'intersezione di tutte le σ-algebre contenenti . Dunque, dalla definizione stessa di σ-algebra generata da segueche essa è la più piccola σ-algebra contenente . Questa osservazione è molto utilizzata per la costruzione dimisure, in quanto consente di definire una σ-algebra semplicemente fornendo una famiglia di insiemi che lagenerano. La σ-algebra generata da un insieme è spesso denotata .

Nel caso di famiglie finite , tale σ-algebra si può enumerare esplicitamente ponendo:

Page 180: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Sigma-algebra 176

e chiudendo la famiglia rispetto alle operazioni di unione e complementare.

Un π-sistema è una famiglia non vuota di sottoinsiemi di stabile per intersezione: se allora. Analogamente, una famiglia di sottoinsiemi di è detta un λ-sistema se:

• .• è chiusa per passaggio al complementare, ovvero se allora .• è stabile per unioni numerabili disgiunte: se gli insiemi per sono a due a due disgiunti,

allora:

.

In tale contesto, è possibile dimostrare in maniera elementare il teorema π-λ di Dynkin, che afferma che su unqualunque insieme non vuoto, se un π-sistema è contenuto in un λ-sistema , allora l'intera σ-algebragenerata da è contenuta in . Ossia .Tale teorema è molto spesso utilizzato in teoria della misura [6]. Ad esempio, ne segue che è sufficiente assegnare ivalori di una misura su di un λ-sistema contenente un π-sistema per costruire lo spazio di misura

. Infatti, proprio per il teorema π-λ di Dynkin, la misura è ben definita su tutto .

Esempi ed applicazioni• Dato un qualunque insieme non vuoto , la famiglia di sottoinsiemi è una σ-algebra. Anche la

famiglia costituita da tutti i sottoinsiemi di (insieme delle parti) è una σ-algebra. Queste sonorispettivamente la più piccola e la più grande σ-algebra su ; ossia se è una σ-algebra su , allora

. In genere, queste due σ-algebre sono dette improprie o banali.• Ogni algebra di insiemi composta da un numero finito di elementi è una σ-algebra, in quanto non ci sono famiglie

di insiemi con un numero infinito di elementi (si vedano gli esempi alla voce algebra di insiemi).• Dato un qualunque insieme non vuoto , la famiglia composta da tutti i sottoinsiemi di che hanno cardinalità

numerabile o il cui complementare abbia cardinalità numerabile è una σ-algebra. Essa è distinta dall'insieme delleparti di se e solo se è non numerabile.

• Consideriamo l'insieme dei numeri reali (o, più in generale, ) con la usuale topologia euclidea (ossia èla famiglia dei sottoinsiemi aperti di ). Si definisce σ-algebra boreliana la σ-algebra generata da , ingenere denotata con . Gli elementi di sono detti boreliani, e si può dimostrare che essi hanno lacardinalità del continuo (dunque, i sottoinsiemi boreliani sono pochi rispetto a tutti i sottoinsiemi della retta realeche hanno un cardinalità superiore a quella dei reali stessi). Sulla σ-algebra boreliana si possono definire moltedelle misure (sull'asse reale) comunemente utilizzate. È anche interessante notare che la nozione di σ-algebra ènata storicamente proprio dalla generalizzazione di questa costruzione.

• Più in generale, la costruzione di σ-algebra boreliana si può effettuare su qualunque spazio topologico semplicemente ponendo . Questa σ-algebra è utilizzata per costruire misure in spazi più generalidella retta reale. Ad esempio, la misura di Haar su gruppi topologici localmente compatti è definita propriomediante la σ-algebra boreliana del gruppo. Analogamente, la nozione di dualità tra funzioni continue e misure sudi uno spazio topologico si costruisce (in spazi sufficientemente regolari) proprio equipaggiando lo spazio con lasua σ-algebra boreliana.

• Nel caso in cui , è talvolta utilizzata una σ-algebra molto più ampia di quella boreliana: la σ-algebra di Lebesgue. Essa è definita come il completamento della σ-algebra boreliana rispetto alla misura di Borel, ed è fondamentale per la costruzione della celebre misura di Lebesgue. La σ-algebra di Lebesgue ha cardinalità

Page 181: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Sigma-algebra 177

superiore a quella del continuo: naturalmente essa è contenuta nell'insieme delle parti dei numeri reali (si veda ilprimo esempio sopra). È tuttavia lecito chiedersi se vi siano sottoinsiemi dei numeri reali che non appartangonoalla σ-algebra di Lebesgue (tali sottoinsiemi sono anche detti insiemi non misurabili secondo Lebesgue). Ebbene,l'esistenza di tali sottoinsiemi è legata all'assioma della scelta, ovvero essi si possono costruire se e solo se siassume tale assioma.

Note[1] Un breve resoconto dello sviluppo storico della teoria della misura e dell'integrazione si trova in Boyer History of Mathematics, cap. 28.[2] Per un'introduzione alle idee della teoria della misura (come appunto quella di σ-algebra), ed alle loro applicazioni si veda Billingsley

Probability and measure. Una presentazione generale, ma più astratta, è data anche in Cohn, Measure Theory. Un classico testo introduttivo èHalmos Measure Theory.

[3] W. Rudin, op. cit., Pag. 8[4] W. Rudin, op. cit., Pag. 10[5] W. Rudin, op. cit., Pag. 16[6] Alcune esempi sono dati in Vestrup, The Theory of Measures and Integration cap. 3 e cap. 11

Bibliografia• Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970. ISBN 0070542341• Patrick Billingsley, Probability and measure, 3rd edition, New York, John Wiley & Sons, 1995. ISBN

0-471-00710-2.• Carl B. Boyer, History of Mathematics, 2nd edition, New York, John Wiley & Sons, 1989. ISBN 0-471-54397-7• Donald L. Cohn, Measure Theory, Boston, Birkhäuser, 1980. ISBN 0-8493-7157-0• Paul R. Halmos, Measure Theory, New York, Springer-Verlag, 1974. ISBN 0-387-90088-8• Eric M. Verstrup, The Theory of Measures and Integration, Hoboken, John Wiley & Sons, 2003. ISBN

0-471-24977-7

Voci correlate•• Algebra di insiemi•• Algebra di Borel•• Algebra di Baire•• Delta algebra•• Funzione misurabile•• Insieme misurabile•• Spazio di probabilità•• Spazio misurabile•• Spazio di misura•• Spazio campionario

Page 182: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Algoritmo di Metropolis-Hastings 178

Algoritmo di Metropolis-HastingsL'algoritmo di Metropolis-Hastings serve a generare dei numeri x1, x2, .., xn che presentano una distribuzione p(x)fissata a priori.Il metodo si basa sulla generazione di numeri di 'test' che vengono accettati o rigettati in modo da ottenere ladistribuzione voluta. Il metodo sarà presentato nel caso di una sola variabile casuale continua; esso può esserefacilmente esteso al caso di distribuzioni di probabilità P(x1, x2, ..., xN) di un numero qualsiasi di variabili.L'algoritmo di Metropolis è realizzabile utilizzando un generatore di numeri casuali con distribuzione uniforme in [0,1]. La procedura è la seguente:1. Preso, per convenzione, l'ultimo valore xi della variabile random nella sequenza si sceglie un valore di prova x*

diverso da xi tra tutti i valori possibili della variabile random. Nel caso delle variabili random continue si puòprendere x* = xi +δx dove δx è un numero distribuito uniformemente nell'intervallo [−δ, δ];

2. Si calcola il rapporto w = ;

3. Se w ≥ 1 si accetta il nuovo valore x* = xi+14. Se invece w < 1 il nuovo valore deve essere accettato con probabilità w. Si genera quindi un numero random r

distribuito uniformemente nell'intervallo [0, 1);5. Se r ≤ w si accetta il nuovo valore x* = xi+1 ;6. Se invece r > w il nuovo valore viene rigettato dal momento che xi+1 = xi.Per generare una sequenza di N elementi basta ripetere queste operazioni N volte a partire da un valore iniziale x0.Per avere una buona stima della p(x) è necessario generare sequenze molto lunghe. La scelta del valore di δ puòessere cruciale, se è troppo grande solo una piccola parte dei valori di prova proposti verrà accettato. Se invece ilvalore di δ è troppo piccolo quasi tutti i valori di prova proposti saranno accettati.Di conseguenza, essendo δ dipendente dalla forma di p(x), deve essere di volta in volta scelto; per la sua stima si puòprocedere per approssimazione successiva in modo che, fissato un delta, il numero di valori accettati sia un terzo deltotale. Anche la scelta del valore iniziale è molto importante, in genere conviene partire da valori di x tali che p(x)assuma valori massimi in modo da avere una buona statistica nelle zone più probabili.

Voci correlate•• Processo markoviano•• Nicholas Constantine Metropolis

BibliografiaW.K Hastings, Monte Carlo sampling methods using Markov chains and their applications, Biometrikam, 1970; 57:97-109

Page 183: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 179

Metodo Monte Carlo

visualizzazione scientifica di una simulazione estremamente grandedi un problema di Instabilità di Rayleigh-Taylor - Lawrence

Livermore National Laboratory

Il Metodo Monte Carlo fa parte della famiglia deimetodi statistici non parametrici. È utile per superare iproblemi computazionali legati ai test esatti (adesempio i metodi basati sulla distribuzione binomiale ecalcolo combinatorio, che per grandi campionigenerano un numero di permutazioni eccessivo).

Il metodo è usato per trarre stime attraversosimulazioni. Si basa su un algoritmo che genera unaserie di numeri tra loro incorrelati, che seguono ladistribuzione di probabilità che si suppone abbia ilfenomeno da indagare. L'incorrelazione tra i numeri èassicurata da un test chi quadrato.

La simulazione Monte Carlo calcola una serie direalizzazioni possibili del fenomeno in esame, con ilpeso proprio della probabilità di tale evenienza,cercando di esplorare in modo denso tutto lo spazio deiparametri del fenomeno. Una volta calcolato questocampione casuale, la simulazione esegue delle 'misure'delle grandezze di interesse su tale campione. Lasimulazione Monte Carlo è ben eseguita se il valore medio di queste misure sulle realizzazioni del sistema convergeal valore vero.Le sue origini risalgono alla metà degli anni 40 nell'ambito del Progetto Manhattan. I formalizzatori del metodo sonoEnrico Fermi, John von Neumann e Stanisław Marcin Ulam[1], il nome Monte Carlo fu inventato in seguito daNicholas Constantine Metropolis in riferimento alla nota tradizione nei giochi d'azzardo del mini stato omonimo nelsud della Francia, l'uso di tecniche basate sulla selezione di numeri casuali è citato già in un lavoro di Lord Kelvindel 1901 ed in alcuni studi di William Sealy Gosset[1].L'algoritmo Monte Carlo è un metodo numerico che viene utilizzato per trovare le soluzioni di problemi matematici,che possono avere molte variabili e che non possono essere risolti facilmente, per esempio il calcolo integrale.L'efficienza di questo metodo aumenta rispetto agli altri metodi quando la dimensione del problema cresce.Un primo esempio di utilizzo del metodo Monte Carlo è rappresentato dall'esperimento dell'ago di Buffon e forse ilpiù famoso utilizzo di tale metodo è quello di Enrico Fermi, quando nel 1930 usò un metodo casuale per problemi ditrasporto neutronico[1].

Page 184: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 180

Descrizione generale

Il metodo Monte Carlo può essere illustrato comeuna Battaglia navale. Prima un giocatore fa alcunicolpi a caso. Successivamente il giocatore applica

alcuni algoritmi (es. la corazzata è di quattropunti nella direzione verticale o orizzontale).

Infine, sulla base dei risultati del campionamentocasuale e degli algoritmi il giocatore può

determinare le posizioni probabili delle navi deglialtri giocatori.

Un altro esempio particolare dell'utilizzo del Metodo Monte Carlo èl'impiego del metodo nell'analisi scacchistica. Negli ultimi anni i piùforti programmi scacchistici in commercio, implementano delleopzioni d'analisi che utilizzano "Monte Carlo analisi". Per valutare unaposizione, si fanno giocare al computer migliaia di partite partendodalla posizione da analizzare, facendo eseguire al PC delle mosse"random" (una scelta casuale tra le mosse più logiche). La media deirisultati ottenuti in queste partite è un'indicazione plausibile dellamossa migliore. (Fonte: Chessbase [2]).

Non c'è un solo metodo Monte Carlo; il termine descrive invece unaclasse di approcci molto utilizzati per una larga categoria di problemi.Tuttavia, questi approcci tendono a seguire un particolare schema:1. Definire un dominio di possibili dati in input.2.2. Generare input casuali dal dominio con una certa distribuzione di

probabilità determinate.3.3. Eseguire un calcolo deterministico utilizzando i dati in ingresso

(input).4.4. Aggregare i risultati dei calcoli singoli nel risultato finale.

Integrazione

I metodi deterministici di integrazione numerica operano considerandoun numero di campioni uniformemente distribuiti. In generale, questometodo lavora molto bene per funzioni di una variabile. Tuttavia, perfunzioni di vettori, i metodi deterministici di quadratura possono esseremolto inefficienti. Per integrare numericamente una funzione di unvettore bidimensionale, sono richieste griglie di punti equispaziati sullasuperficie stessa. Per esempio una griglia di 10x10 richiede 100 punti. Se il vettore è a 100 dimensioni, la stessaspaziatura sulla griglia dovrebbe richiedere 10100 punti– questo potrebbe essere troppo dispendiosocomputazionalmente. Le 100 dimensioni non hanno un significato irragionevole, poiché in molti problemi di fisica,una "dimensione" è equivalente a un grado di libertà.

I metodi di Monte Carlo forniscono una soluzione a questo problema di crescita esponenziale del tempo. Finché lafunzione in questione ha un buon comportamento, può essere valutata selezionando in modo casuale i punti in unospazio 100-dimensionale, e prendendo alcune tipologie di medie dei valori della funzione in questi punti. Per ilteorema del limite centrale, questo metodo mostrerà ordine di convergenza ; per esempio quadruplicando ilnumero dei punti equispaziati dimezza l'errore, nonostante il numero delle dimensioni.Una caratteristica di questo metodo è quella di scegliere i punti in modo casuale, ma vengono scelti con maggiorprobabilità i punti che appartengono alle regioni che contribuiscono maggiormente al calcolo dell'integrale rispetto aquelli che appartengono a regioni di basso contributo. In altre parole, i punti dovrebbero essere scelti secondo unadistribuzione simile in forma alla funzione integranda. Comprensibilmente, fare ciò è difficile tanto quanto risolverel'integrale, ma ci sono altri metodi di approssimazione possibili: a partire da quelli che costruiscono una funzioneintegrabile simile a quella da integrare, fino ad arrivare ad una delle procedure adattive.Un simile approccio implica l'uso di low-discrepancy sequences piuttosto del metodo quasi-Monte Carlo. I metodi Quasi-Monte Carlo spesso possono essere più efficienti come metodi di integrazione numerica poiché la successione

Page 185: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 181

di valori generata riempie meglio l'area e le successive valutazioni possono far convergere più velocemente lasimulazione alla soluzione.

EsempioSi voglia stimare il rendimento mensile di un titolo azionario. Il titolo esiste da cinque anni, quindi si hanno adisposizione solo 60 rendimenti mensili. Supponiamo che i rendimenti si distribuiscano seguendo una variabilecasuale normale.Calcoliamo:• Media campionaria• Scarto quadratico medio campionario, su base giornaliera (che poi si adatterà con la formula della radice quadrata

del tempo al periodo mensile.)Con un modello di regressione lineare cercheremo di stimare la media a un mese. Successivamente, si andranno agenerare attraverso l'algoritmo Monte Carlo una serie di medie "sperimentali" che saranno ricavate da unadistribuzione normale (perché si è ipotizzato che i rendimenti seguano questa distribuzione) con media pari allamedia stimata e scarto quadratico medio pari allo scarto quadratico medio campionario a un mese.Una strategia per procedere e stimare la vera media del fenomeno, a questo punto, può essere quella di ricavare lamedia generale di tutte le medie sperimentali ottenute. I dati ottenuti forniscono stime tanto migliori quantomaggiore è il numero delle prove fatte.Il metodo é molto usato in varie discipline. Tra le possibili applicazioni: fisica statistica e ingegneria, dove si prestamolto bene a risolvere problemi legati, ad esempio, alla fluidodinamica; in economia e finanza per prezzare i derivatie le opzioni non standard; in informatica, per simulare l'illuminazione naturale; in chimica computazionale il MonteCarlo quantistico è un metodo per la determinazione della struttura elettronica; ecc…È molto potente se usato in combinazione con altri metodi non parametrici come il resampling.

Discussione analiticaPer un modello stocastico sia θ la quantità da determinarsi. Si esegua una simulazione, generando la variabilecasuale X1 in modo che θ sia il valore atteso di X1. Consideriamo una seconda simulazione, generando una variabilecasuale X2 tale che il suo valore atteso sia sempre θ. Proseguiamo con k simulazioni, generando fino a k variabilicasuali Xk con E[Xk] = θ. Come stimatore di θ possiamo prendere la media aritmetica delle k variabili casualigenerate, cioè

in quanto è ovviamente E[X] = θ. Qual è il valore più appropriato di k? Supponiamo di avere n variabili aleatorieindipendenti, X1, ..,Xn aventi la stessa distribuzione. Sia σ2 la varianza della variabile Xi e θ il valore atteso (E[Xi] =θ, Var(Xi) = σ2). La media campionaria X viene definita da

Il suo valore atteso è:

Quindi X è uno stimatore non distorto (cioè con valore atteso uguale a quello del parametro) di θ. La sua varianza,usando la formula di Bienaymé è:

Page 186: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 182

Pertanto X è una variabile aleatoria con media θ e varianza σ2/n; ne segue che X è uno stimatore efficiente quandoσ/√n è piccolo. Fissata una tolleranza per σ2/n ed avendo stimato σ2 si può in tal modo stimare n.Si può imporre che il valore atteso ottenuto con lo stimatore stia dentro un ben definito intervallo di confidenza. Sipuò a tale scopo utilizzare una conseguenza del teorema del limite centrale. Sia X1, X2, …, Xn …, una successione divariabili casuali indipendenti e distribuite identicamente aventi la media finita μ e la varianza finita σ2. Allora

dove Φ(x) è la funzione di distribuzione di una variabile casuale normale standard,

Quando n>>1 il teorema del limite centrale ci dice che la variabile

è approssimativamente distribuita come una variabile aleatoria normale unitaria, indicata con N(0,1), cioè con mediazero e varianza 1. Sia ora zα, dove 0< α <1, quel numero tale che, per una variabile normale unitaria, si abbia P(Z >zα ) = α Allora, dal teorema del limite centrale si ha che , asintoticamente per n grande

Che afferma che la probabilità che la media θ sia compresa nell'intervallo

è (1 - α). Perciò, assegnato 1-α e conoscendo σ, si può stimare il minimo valore di n necessario.Nasce quindi il problema di come stimare la varianza σ2 = E[(X - θ)2]Definizione. La varianza del campione S2 è definita da

Vale il seguente risultato.Proposizione. E[S2]= σ2 Infatti si ha:

ne segue

Per una variabile aleatoria si ha:

E quindi

Inoltre

Ne segue

Page 187: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 183

Supponiamo ora di avere n variabili aleatorie indipendenti X1, X2, …, Xn aventi la stessa funzione di distribuzione Fe di volere stimare il parametro θ(F) (per evidenziare che tale quantità deve essere calcolata rispetto alla funzione didistribuzione F). Sia g(X1, X2, …, Xn) lo stimatore proposto per θ(F); se questo non corrisponde al valore medio, ilmetodo precedentemente esposto per stimare la varianza dello stimatore non si può applicare. Vediamo come si puòstimare l'errore quadratico medio che si commette quando si usa questo stimatore:

Dove il pedice F significa che il valore d'aspettazione viene calcolato rispetto alla funzione di distribuzione F che peril momento è incognita.Un metodo per stimare tale quantità è quello del bootstrap, utilizzando la funzione di distribuzione empirica Fe(x)definita da:

La legge forte dei grandi numeri afferma che per n molto grande, con probabilità 1, Fe(x) tende a F(x). Allora unvalore approssimato di EQM(F) è dato da (approssimazione di bootstrap):

Va rilevato, da un punto di vista operativo, che il dimensionamento della simulazione si supera facilmente grazie allacrescente disponibilità di potenza di calcolo. In altre parole, procedendo all'uso del metodo su calcolatore, saràsufficiente generare una serie di prove di ampiezza sicuramente ridondante per assicurarsi la significatività dellastima.

Esempio: determinare il valore π

Sia M un punto di coordinate (x,y) con 0<x<1 e 0<y<1.Scegliamo casualmente i valori di x e y.

Sia allora il punto M appartiene al disco di centro(0,0) di raggio 1.La formula per determinare l'area di un disco è il raggio elevato alquadrato per π. Nell'esempio il raggio è pari a uno e quindi l'areadi interesse è 1*π = π. Il punto può cadere solo in uno dei quattroquadranti del disco e quindi la probabilità che cada all'interno deldisco è π/4.Facendo il rapporto del numero dei punti che cadono nel disco conil numero dei tiri effettuati si ottiene un'approssimazione delnumero π/4 se il numero dei tiri è grande.Eseguendo numericamente l'esempio si ottiene un andamentopercentuale dell'errore mostrato nel grafico sottostante.

Page 188: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 184

Andamento % dell'errore tra il pi-greco teorico e il pi-greco calcolato. Il programma ha eseguito 1370 milioni di lanci. Si noti che all'inizio l'errore èmolto elevato ma rapidamente tende a decrescere. Essendo un metodo statistico ci possono essere dei temporanei innalzamenti dell'errore ma la

tendenza è la sua diminuzione all'aumento dei lanci.

Esempio: determinare la superficie di un lagoQuesto è un esempio classico della divulgazione del metodo Monte-Carlo. Sia data una zona rettangolare o quadratadi cui la lunghezza dei lati è conosciuta. Al centro di quest'area si trova un lago la cui superficie è sconosciuta.Grazie alle misure dei lati della zona, si conosce l'area del rettangolo. Per determinare l'area del lago, si chiede aduna truppa armata di tirare X colpi di cannone in modo aleatorio su questa zona. Contiamo in seguito il numero N dipalle che sono restate sulla terra, possiamo quindi determinare il numero di palle che sono cadute dentro il lago:X-N. È sufficiente quindi stabilire un rapporto tra i valori:

Per esempio, se il terreno ha superficie di 1000 m2, e supponiamo che l'armata tiri 500 palle e che 100 proiettili sonocaduti dentro il lago allora la superficie del lago è di: 100*1000/500 = 200 m2.

Naturalmente, la qualità della stima migliora aumentando il numero dei tiri ed assicurandosi che l'artiglieria non miri sempre lo stesso posto ma copra bene la zona. Questa ultima ipotesi coincide con l'ipotesi di avere un buon

Page 189: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 185

generatore di numeri aleatori, questa condizione è indispensabile per avere dei buoni risultati con il metodo MonteCarlo. Un generatore distorto è come un cannone che tira sempre nello stesso punto: le informazioni che genera sonoridotte.

Note[1][1] Carlo Jacoboni e Paolo Lugli, The Monte Carlo Method for Semiconductor Device Simulation - Springer-Verlag[2] http:/ / www. chessbase. com/ newsdetail. asp?newsid=5075

Bibliografia• W.K Hastings, Monte Carlo sampling methods using Markov chains and their applications, Biometrikam, 1970;

57: 97-109• Bernd A. Berg, Markov Chain Monte Carlo Simulations and Their Statistical Analysis (With Web-Based Fortran

Code), World Scientific 2004, ISBN 981-238-935-0.• P. Kevin MacKeown, Stochastic Simulation in Physics, 1997, ISBN 981-3083-26-3• Harvey Gould & Jan Tobochnik, An Introduction to Computer Simulation Methods, Part 2, Applications to

Physical Systems, 1988, ISBN 0-201-16504-X• C.P. Robert and G. Casella. "Monte Carlo Statistical Methods" (second edition). New York: Springer-Verlag,

2004, ISBN 0-387-21239-6• Makers of commercial packages which implement Monte Carlo algorithms in include Palisade Corporation

(@Risk) (http:/ / www. palisade. com), Decisioneering (Crystal Ball) (http:/ / www. decisioneering. com) andVanguard Software (DecisionPro) (http:/ / www. vanguardsw. com/ decisionpro/monte-carlo-simulation-software. htm)

•• Mosegaard, Klaus., and Tarantola, Albert, 1995. Monte Carlo sampling of solutions to inverse problems. J.Geophys. Res., 100, B7, 12431-12447.

• Tarantola, Albert, Inverse Problem Theory ( free PDF version (http:/ / www. ipgp. jussieu. fr/ ~tarantola/ Files/Professional/ SIAM/ index. html)), Society for Industrial and Applied Mathematics, 2005. ISBN 0-89871-572-5

• Morin, L. Richard, Monte Carlo Simulation in the Radiological Sciences, CRC Press, ISBN 0-8493-5559-1.

Voci correlate•• FLUKA•• Metodo Monte Carlo Dinamico•• Tissue simulation toolkit

Altri progetti

• Wikibooks contiene testi o manuali: http:/ / it. wikibooks. org/ wiki/ Implementazioni_di_algoritmi/Metodo_Monte_Carlo

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/Category:Monte-Carlo method

Page 190: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Metodo Monte Carlo 186

Collegamenti esterni• http:/ / epicws. epm. ornl. gov/ rsic. html ORNL Radiation Safety Information Computational Center (RSICC)• http:/ / www. nea. fr/ html/ dbprog/ NEA Data Bank Computer Program Services• Monte Carlo techniques applied in physics (http:/ / www. princeton. edu/ ~achremos/ Applet1-page. htm)• http:/ / homepages. nyu. edu/ ~sl1544/ articles. html Simon Leger, Article on Monte Carlo techniques applied to

finance• Pricing using Monte Carlo simulation (http:/ / knol. google. com/ k/ giancarlo-vercellino/

pricing-using-monte-carlo-simulation/ 11d5i2rgd9gn5/ 3#), a practical example, by Giancarlo Vercellino• http:/ / homepages. nyu. edu/ ~sl1544/ MonteCarloNuls. pdf Simon Leger, Introduction aux techniques de Monte

Carlo appliquees a la finance et introduction aux techniques plus avancees.• http:/ / www. fluka. org/ A particle physics MonteCarlo simulation package• Chessbase (http:/ / www. chessbase. com/ newsdetail. asp?newsid=5075) tutorial analisi scacchistica con il

Metodo Montecarlo

Software Statistici• MCMCpack Package R (http:/ / cran. r-project. org/ web/ packages/ MCMCpack/ index. html)

Page 191: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

187

Defaticamento

StatisticaLa statistica è una disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno incondizioni di non determinismo o incertezza ovvero di non completa conoscenza di esso o parte di esso. Studia imodi (descritti attraverso formule matematiche) in cui una realtà fenomenica - limitatamente ai fenomeni collettivi -può essere sintetizzata e quindi compresa. La statistica studia come raccogliere i dati e come analizzarli per ottenerel'informazione che permetta di rispondere alle domande che ci poniamo. Si tratta di avanzare nella conoscenzapartendo dall'osservazione e dall'analisi della realtà in modo intelligente e obiettivo. È l’essenza del metodoscientifico.[1]

La statistica, per molti etimologicamente legata a status (inteso come stato politico, così come stato delle cose: statusrerum) fu definita e proposta dal filosofo tedesco Achenwall nel XVIII secolo come scienza deputata a raccoglieredati utili per governare meglio. Oggi la statistica è utile ovunque sia necessaria una delle seguenti condizioni:•• procedere ad una raccolta ordinata, ad una stesura comprensibile e ad una elaborazione dei dati più svariati;•• scoprire eventuali leggi che regolano i dati spesso solo in apparenza disordinati ed operarne il confronto;• definire una variabile di riferimento che assuma diversi valori definibili in un certo intervallo di variazione.Con il termine statistica, nel linguaggio di tutti i giorni, si indicano anche semplicemente i risultati numerici (lestatistiche richiamate nei telegiornali, ad esempio: l'inflazione, il PIL etc.) di un processo di sintesi dei dati osservati.La statistica è in qualche modo legata alla teoria della probabilità rientrando entrambe nel più vasto ambito dellateoria dei fenomeni aleatori, ma mentre la teoria della probabilità si occupa di fornire modelli teorici probabilisticiovvero distribuzioni di probabilità adattabili ai vari fenomeni aleatori reali definendo i parametri della variabilealeatoria in questione, la statistica parte da un campione aleatorio per descrivere le sue proprietà statistiche oppurerisalire o inferire al modello probabilistico sotteso e alla stima dei suoi parametri (media, varianza, deviazionestandard, moda, mediana).

Importanza e applicazioniIl metodo e le tecniche statistiche, tipicamente teoriche, assumono importanza fondamentale in molti altri ambitiapplicativi di studio quale ad esempio la fisica (fisica statistica) qualora per manifesta complessità di analisi si debbarinunciare ad avere informazioni di tipo deterministico su sistemi fisici complessi o a molti gradi di libertàaccettandone invece una sua descrizione statistica. Tra queste discipline ci sono anche l'economia, che si appoggiafortemente alla statistica (statistica economica, statistica aziendale ed econometria, oltre alla teoria dei giochi e delledecisioni) nella descrizione qualitativa (serie storiche) e quantitativa (modelli statistici) dei fenomenisocio-economici che incorrono all'interno del sistema economico; e alla psicologia, che si appoggia alla statisticanella ricerca delle caratteristiche e degli atteggiamenti degli individui e le loro differenze (psicometria). La statisticaè uno strumento essenziale nella ricerca medica. La biostatistica fornisce infatti gli strumenti per tradurre l’esperienzaclinica e di laboratorio in espressioni quantitative, tese a individuare se, e in che misura, un trattamento o unaprocedura abbia avuto effetto su un gruppo di pazienti.[2] Un'altra applicazione estremamente comune nella società èquella dei sondaggi, analisi di mercato e in generale qualunque analisi di dati campionari.

Page 192: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Statistica 188

Cenni storiciLa misura quantitativa dei fenomeni sociali ha una storia antica.[3] In Egitto si rilevava l'ammontare dellapopolazione già ai tempi della prima dinastia e durante la seconda si rilevavano vari beni a fini fiscali. Durante ledinastie successive si tenevano elenchi delle famiglie dei soldati, dei dipendenti statali, delle merci. Sotto laventesima dinastia si tenevano liste delle abitazioni e dei loro abitanti.In Israele il primo censimento fu fatto ai tempi del soggiorno nel Sinai (da cui il libro dei Numeri della Bibbia) e altrine seguirono. Anche l'immenso impero cinese ha sempre curato i censimenti, che nell'epoca dei Ming avevanocadenza decennale. Non si hanno invece notizie di censimenti nella Grecia antica, ma venivano registrati ogni anno inati dell'anno precedente.La rilevazione dei cittadini e dei loro beni ebbe grande importanza nella Roma antica. Il primo censimento fuordinato da Servio Tullio e si ebbero poi censimenti con periodicità quinquennale dalla fine del VI secolo a.C.,decennale a partire da Augusto.La caduta dell'impero romano comportò la sospensione di tali attività per secoli, fino alla ricostituzione di organismistatali da parte dei Carolingi. Il sorgere dei Comuni, poi delle signorie, delle repubbliche marinare e degli Statinazionali comportò una progressiva frammentazione non solo politica, ma anche amministrativa. Già dal XII secolosi ebbero rilevazioni statistiche in Italia, da Venezia alla Sicilia, con obiettivi prevalentemente fiscali. Ebbero poicrescente importanza le registrazioni su nascite, matrimoni e morti effettuate dalle parrocchie, iniziate in Italia ed inFrancia fin dal XIV secolo.L'esigenza di quantificare i fenomeni oggetto di studio, ossia di analizzarli e descriverli in termini matematici, fu unatendenza tipica del XVII secolo: non fu solo l'Universo ad essere concepito come un grande libro "scritto in caratterimatematici" - come aveva affermato Galileo Galilei -, ma si diffuse anche la convinzione che fosse possibile studiarela società tramite strumenti di tipo quantitativo.In genere, le origini della statistica nella concezione più moderna, si fanno risalire a quella che un economista ematematico inglese, William Petty (1623 - 1687), chiamò "aritmetica politica", ovvero "l'arte di ragionare mediantele cifre sulle cose che riguardano il governo"; tra le cose che maggiormente stavano a cuore al governo, del resto, vierano l'entità della popolazione e la quantità di ricchezza che essa aveva a sua disposizione, dalle quali dipendeva inultima analisi la forza degli Stati in competizione tra loro. Demografia e calcolo del reddito nazionale furono quindigli ambiti in cui si esercitò la creatività dei primi "aritmeti politici".Nel primo campo un autentico precursore fu John Graunt (1620 - 1674), un mercante londinese, che tramite lo studiodei registri di mortalità, riuscì per primo a rilevare l'approssimativa costanza di certi rapporti demografici e acostruire una prima e rudimentale "tavola della mortalità". Le sue Natural and Political Observations on the Bills ofMortality risalente al 1662 possono essere considerate a buon diritto come l'opera fondatrice della demografia. Ilmetodo statistico elaborato da Graunt per il settore demografico fu poi ripreso da William Petty, che nel suo FuveEssays on the Political Arithmetic del 1690 espose i principi fondamentali della nuova disciplina.Nei medesimi anni, venne data alle stampe l'opera di un altro grande aritmeta politico, Gregory King (1648 - 1712),il quale nelle sue Natural and Political Observations and Conclusion upon the State and Condition of Englandrisalente al 1698 formulò una stima della popolazione e del reddito totale dell'Inghilterra, giungendo a conclusioniritenute abbastanza verosimili. In Francia un tentativo simile venne effettuato dal ministro del re Luigi XIV edeconomista Sebastien de Vauban (1633 - 1707), che stimò la popolazione del Regno di Francia intorno ai ventimilioni di abitanti - valutazione condivisa dagli storici attuali.Ai problemi statistici si interessarono anche alcune delle menti più brillanti dell'epoca: il fisico olandese ChristiaanHuygens (1629 - 1695) elaborò delle tavole di mortalità, l'astronomo inglese Edmund Halley (1656 - 1742) avanzòuna serie di ipotesi sul numero di abitanti dei vari Paesi europei, mentre in Germania il grande filosofo GottfriedLeibniz (1646 - 1716) suggerì la creazione di un ufficio statale di statistica.

Page 193: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Statistica 189

Nel frattempo, in concomitanza con lo sviluppo di queste prime ed ancora rudimentali metodologie demografiche, cisi cominciò a porre questo tipo di problemi anche per quanto concerneva la storia precedente: ciò indusse a guardarein modo critico e diffidente ai dati forniti da quegli autori del passato che avevano cercato di quantificare il numerodi abitanti di un territorio, le dimensioni di un esercito, i morti per un'epidemia, ecc. Un contributo importante, sottoquesto profilo, venne da uno dei più grandi pensatori del XVIII secolo, lo scozzese David Hume (1711 - 1776) il cuiOf the Populousness of Ancient Nations diede inizio alla demografia storica. In tale testo Hume rilevò come le cifretramandateci dagli antichi fossero particolarmente inaffidabili, non solo perché le loro stime non avevano basi solide,ma anche perché i numeri di ogni tipo contenuti negli antichi manoscritti sono stati soggetti ad un'alterazione moltomaggiore di qualsiasi altra parte del testo, in quanto ogni altro tipo di alterazione modifica il senso e la grammaticaed è quindi più facilmente individuata dal lettore e dal trascrittore. In Italia venne creato un Ufficio StatisticoNazionale nel 1861, che poi diventò ISTAT nel 1926.

Statistica descrittiva e inferenzialeLa scienza statistica è comunemente suddivisa in due branche principali:•• statistica descrittiva• statistica inferenziale.

La statistica descrittivaLa statistica descrittiva ha come scopo quello di sintetizzare i dati attraverso i suoi strumenti grafici (diagrammi abarre, a torta, istogrammi, boxplot) e indici (indicatori statistici, indicatori di posizione come la media, di variazionecome la varianza e la concentrazione, di correlazione, ecc.) che descrivono gli aspetti salienti dei dati osservati,formando così il contenuto statistico.

La statistica inferenzialeLa statistica inferenziale (inferenza vuol dire trarre delle conclusioni logiche a partire dai dati disponibili) ha comeobiettivo, invece, quello di stabilire delle caratteristiche dei dati e dei comportamenti delle misure rilevate (variabilistatistiche) con una possibilità di errore predeterminata. Le inferenze possono riguardare la natura teorica (la leggeprobabilistica) del fenomeno che si osserva. La conoscenza di questa natura permetterà poi di fare una previsione (sipensi, ad esempio, che quando si dice che "l'inflazione il prossimo anno avrà una certa entità" deriva dal fatto cheesiste un modello dell'andamento dell'inflazione derivato da tecniche inferenziali). La statistica inferenziale èfortemente legata alla teoria della probabilità. Sotto questo punto di vista descrivere in termini probabilistici ostatistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverloin termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. Lastatistica inferenziale si suddivide poi in altri capitoli, di cui i più importanti sono la teoria della stima (stimapuntuale e stima intervallare) e la verifica delle ipotesi.

La statistica esplorativaIntorno al 1950, a questi due primi capitoli della statistica, se ne affiancò un terzo• la statistica esplorativaad opera di John Wilder Tukey. In questo approccio i dati risultati da un esperimento vengono indagati attraversometodi di sintesi (grafica e numerica) al fine di formulare ipotesi riguardo alla legge di probabilità sottesa alfenomeno studiato (questa è la differenziazione con la statistica inferenziale, in cui è sempre sottesa un'ipotesiriguardo alla legge di probabilità di cui i dati sono la controparte osservabile). Lo sviluppo naturale poi dellastatistica esplorativa è il data-mining (che agisce nel Data warehouse).La ricerca esplorativa è mirata a:

Page 194: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Statistica 190

1.1. sviluppare una più precisa formulazione di un problema definito in via preliminare anche in modo piuttosto vago;2.2. formulare ipotesi sulle possibili variabili che agiscono nel contesto in cui si sviluppa il problema;3.3. stabilire priorità sulle questioni da affrontare e studiare;4.4. identificare e formulare le alternative di scelta possibili;5.5. raccogliere informazioni sul problema, che serviranno poi per condurre una ricerca di tipo conclusivo.In sostanza gli scopi principali di questo tipo di ricerca consistono nella formulazione di congetture o affermazioni(ipotesi molto generali e non ancora formalizzate per un trattamento statistico) riguardo, ad esempio, alla relazionefra due o più variabili.La formulazione di questo tipo di ipotesi spesso scaturisce dall’impiego di specifiche e prestabilite procedure, quali:la ricerca di fonti secondarie; indagini presso informatori-chiave (es. esperti); focus group, la compilazione di casi distudio.

Note[1] Pere Grima. La certezza assoluta e altre finzioni. I segreti della statistica. RBA Italia (Mondo matematico 13); 2011.[2] Stanton A. Glantz. Statistica per discipline biomediche. McGraw-Hill; 2007. ISBN 9788838639258.[3][3] Le informazioni che seguono sono tratte dal Leti.

L'Associazione nazionale statistici è l'associazione che ha lo scopo della tutela degli statistici e la divulgazione dellacultura statistica.

Bibliografia• Massimiliano Gallo, L’esame di statistica, UNI Service, Trento, 2009, ISBN 978-88-6178-338-6.• S. Borra, A. Di Ciaccio. Statistica: metodologie per le scienze economiche e sociali, Milano, McGraw-Hill, 2008,

ISBN 978-88-386-6428-1.•• M. K. Pelosi, T. M. Sandifer, P. Cerchiello, P. Giudici. "Introduzione alla Statistica", Milano, McGraw-Hill,

2008, ISBN 978-88-386-6516-5.• D. Piccolo. Statistica. Bologna, Il Mulino, 2000.• G. Leti. Statistica descrittiva. Bologna, Il Mulino, 1983.• G. Landenna, D. Marasini, P. Ferrari. Teoria della stima. Bologna, Il Mulino, 1997.• G. Landenna, D. Marasini, P. Ferrari. La verifica di ipotesi statistiche. Bologna, Il Mulino, 1998.• G. Landenna, D. Marasini, P. Ferrari. Probabilità e variabili casuali. Bologna, Il Mulino, 1997.• Yuri A. Rozanov (1995): Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN

0-7923-3764-6• Mark J. Schervish (1997): Theory of Statistics, Springer, ISBN 0-387-94546-6• Jun Shao (1999): Mathematical statistics, Springer, ISBN 0-387-98674-X• Vijay K. Rohatgi, A. K. Md. Ehsanes Saleh (2002): An introduction to Probability and Statistics, 2nd edition,

J.Wiley, ISBN 0-471-34846-5• Alberto Rotondi, Paolo Pedroni, Antonio Pievatolo (2005): Probabilità, statistica e Simulazione, Springer, ISBN

88-470-0262-1• A.M. Mood, F.A. Graybill, D.C. Boes (1991): Introduzione alla statistica, McGraw Hill Italia, ISBN

88-386-0661-7• Leti G. (1983): Statistica descrittiva, Il Mulino, ISBN 88-15-00278-2• Rizzi A. (1992): Inferenza Statistica, UTET, ISBN 88-7750-014-X• Vitali O. (1993): Statistica per le scienze applicate, Cacucci editore, ISBN 600-04-1098-0• Mondani A. (1991): Corso di statistica descrittiva, LED Edizioni Universitarie, ISBN 978-88-791-600-28• A. M. Gambotto Manzone, B. Consolini: Nuovo Matematica Generale e Applicata con gli strumenti informatici -

Modulo 6 - Statistica e calcolo delle probabilità, Tramontana, ISBN 978-88-233-02-889.

Page 195: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Statistica 191

Voci correlate

Storia e personaggi

•• Storia della statistica• Statistici celebri, tra i quali gli italiani Cantelli, Castelnuovo, de Finetti,

Gini, Perozzo

Istituti

•• EUROSTAT•• Istituto Internazionale di Statistica•• ISTAT•• Sistema Statistico Nazionale

Probabilità

Campionamento statistico

•• Spazio campionario•• Stima•• Stimatore•• Variabile (statistica)

Indicatori di posizione

•• Valore atteso•• Media•• Moda•• Mediana

Indicatori di dispersione

•• Varianza•• Disuguaglianza di

Čebyšëv•• Indice di concentrazione•• Indice di diversità•• Indice di

Laakso-Taagepera•• Propagazione degli errori

Branche

•• Econometria•• Geostatistica•• Statistica multivariata

•• Analisi delle componentiprincipali

•• Statistica economica•• Statistica medica•• Statistica non parametrica•• Analisi testuale•• Qualità

Altri concetti chiave e sottodiscipline

•• Contenuto statistico•• Data warehouse•• Indicatore statistico•• Segreto statistico•• Rappresentazioni grafiche in

statistica

•• Analisi della varianza•• Correlazione•• Ipotesi nulla

•• Test di verifica d'ipotesi•• Legge dei grandi numeri•• Legge degli eventi rari•• Regressione lineare•• Variabile casuale

Indicatori di forma

•• Curtosi•• Simmetria

Altri progetti• Wikisource contiene opere originali: http:/ / it. wikisource. org/ wiki/ Categoria:Statistica• Wikizionario contiene la voce di dizionario: http:/ / it. wiktionary. org/ wiki/ statistica• Wikiversità contiene informazioni: http:/ / it. wikiversity. org/ wiki/ Materia:Statistica

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Statistics• Wikiquote contiene citazioni: http:/ / it. wikiquote. org/ wiki/ Statistica

Collegamenti esterni• Eurostat (http:/ / epp. eurostat. ec. europa. eu/ portal/ page/ portal/ eurostat/ home/ )• ISTAT (http:/ / www. istat. it/ )• Società Italiana di Statistica - SIS (http:/ / www. sis-statistica. it/ )• SIEDS, Società Italiana di Economia Demografia e Statistica (http:/ / www. sieds. it/ )• Associazione Nazionale Statistici - ANASTAT (http:/ / www. statistici. org/ )• Unione statistica dei comuni italiani (http:/ / www. usci. it/ )• Statistiche online (http:/ / stat. altervista. org) - Sito che permette di eseguire online calcoli statistici su una serie

di dati.• Sardegna Statistiche (http:/ / www. sardegnastatistiche. it) Regione Sardegna• (EN) (IT) Codice Java per calcoli statistici (http:/ / freejavacodex. altervista. org/ Statistics. html) - Codici Java

openSource

Page 196: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Statistica 192

• Statistica (http:/ / search. dmoz. org/ cgi-bin/ search?search=Statistica& all=yes& cs=UTF-8& cat=World/Italiano) su Open Directory Project ( Segnala (http:/ / www. dmoz. org/ public/ suggest?cat=) su DMoz un collegamento

pertinente all'argomento "Statistica")

Inferenza statisticaL'inferenza statistica è il procedimento per cui si inducono le caratteristiche di una popolazione dall'osservazione diuna parte di essa, detta campione, selezionata solitamente mediante un esperimento casuale (aleatorio). Da un puntodi vista filosofico, si tratta di tecniche matematiche per quantificare il processo di apprendimento tramite l'esperienza.Si considereranno principalmente campioni casuali semplici di dimensione n > 1, che possono venire interpretaticome n realizzazioni indipendenti di un esperimento di base, nelle medesime condizioni. Dal momento che siconsidera un esperimento casuale, si coinvolge il calcolo delle probabilità. Nell'inferenza statistica c'è, in un certosenso, un rovesciamento di punto di vista rispetto al calcolo delle probabilità. Nell'ambito di quest'ultimo, noto ilprocesso di generazione dei dati sperimentali (modello probabilistico) siamo in grado di valutare la probabilità deidiversi possibili risultati di un esperimento. Nella statistica il processo di generazione dei dati sperimentali non ènoto in modo completo (il processo in questione è, in definitiva, l'oggetto di indagine) e le tecniche statistiche siprefiggono di indurre le caratteristiche di tale processo sulla base dell'osservazione dei dati sperimentali da essogenerati.

EsempioData un'urna con composizione nota di 6 palline bianche e 4 palline rosse, utilizzando le regole del calcolo delleprobabilità possiamo dedurre che se estraiamo una pallina a caso dall'urna, la probabilità che essa sia rossa è 0,4. Siha invece un problema di inferenza statistica quando abbiamo un'urna di cui non conosciamo la composizione,estraiamo n palline a caso, ne osserviamo il colore e, a partire da questo, cerchiamo di inferire la composizionedell'urna.

Due approcciNell'ambito dell'inferenza statistica, si distinguono due scuole di pensiero, legate a diverse concezioni, ointerpretazioni, del significato della probabilità:• Inferenza classica, o frequentista;• Inferenza bayesiana.La prima è legata agli storici contributi di R. Fisher, K. Pearson, e rappresenta la posizione maggioritaria. Laseconda, allo stato attuale (2005) ancora minoritaria ma in crescita, è fondata sull'uso del risultato del teorema diBayes ai fini dell'inferenza statistica.

Inferenza frequentista e bayesiana a confrontoSia l'approccio frequentista che l'approccio bayesiano hanno in comune anzitutto gli assiomi della probabilità nonchétutta la parte statistico-matematica. Anche il teorema di Bayes ha validità per entrambi gli approcci così come il fattoche in entrambi i casi si parla solitamente di statistica parametrica. Ciò che cambia è il significato da dare al concettodi probabilità, all'atteggiamento nel confronto dell'idea di una probabilità soggettiva e di conseguenza l'utilizzo el'importanza che si dà al teorema di Bayes.Nell'ambito dell'inferenza statistica queste differenze si manifestano, da un lato, sul come e se utilizzare informazioninote prima di "vedere" i dati e di come quantificare tali informazioni e, dall'altro, vi sono approcci differenti sulcome interpretare i risultati.

Page 197: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Inferenza statistica 193

Un esempio sul come lo stesso esperimento venga visto dai due approcci può essere il seguente problema scolastico.In un'urna contenente palline identiche tra di loro salvo per il colore, una ignota percentuale π è di colore nero.Estraendo 100 volte una pallina che viene subito dopo riposta nell'urna succede ad esempio che per 30 volte lapallina fosse nera.In entrambi gli approcci la variabile casuale utilizzata è la variabile casuale binomiale:Il tipico approccio frequentista basato sull'intervallo di confidenza derivante dalle idee di Neyman porta a stabilireper il valore ignoto di π un intervallo di confidenza p.es. al 95% compreso tra 0,21 e 0,39. La confidenza al 95% nonsta ad indicare che π è compreso con una probabilità del 95% tra 0,21 e 0,39 (si tratterebbe di una affermazionetipicamente bayesiana), ma indica che a partire dalle ipotesi, il metodo utilizzato, nel 95% dei casi fa delleaffermazioni corrette, nel senso che il vero valore sarà veramente nell'intervallo calcolato. Questo approcciosottolinea che il valore ignoto π o è compreso nell'intervallo oppure non lo è, ma non dà valori probabilistici a questoessere compreso. Una stima puntuale sia dei minimi quadrati che della massima verosimiglianza porterebbe astimare il valore di π con la stima p=30/100=0,3.L'approccio bayesiano invece formalizza anzitutto l'idea che si ha su come potrebbe essere forse, probabilmente ilvero valore π, costruendo una variabile casuale discreta o continua sui possibili valori di π. Nel caso particolare checi si voglia mettere in condizione di totale ignoranza, verrebbe considerata una Variabile casuale uniforme discreta o,vista la numerosità campionaria relativamente elevata (100 estrazioni), una variabile casuale rettangolarenell'intervallo compreso tra zero e uno. Scegliendo la rettangolare come distribuzione a priori si otterrebbe laseguente distribuzione a posteriori del parametro π:

Il valore massimo, e dunque il più probabile, è dato anche in questo caso da k/n=30/100=0,3, valore già vistonell'approccio frequentista, con la differenza che questo è a posteriori il valore più probabile, vista le nostre idee apriori e i risultati dell'esperimento. Utilizzando la distribuzione a posteriori si può affermare che la probabilità chel'ignoto parametro π abbia un valore tra 0,216 e 0,393 è pari a 0.95 vale a dire a 95%, mentre i valori compresinell'intervallo tra 0,21 e 0.39 hanno la probabilità del 95,3%.Riassumendo questo esempio: nell'approccio frequentista si fanno affermazioni su quante volte si dice il vero usandola tecnica usata, mentre nell'approccio bayesiano si attribuisce una probabilità di verità direttamente ad un intervallo.Questa differenza è a livello pratico spesso ignorata, ma dal punto di vista teorico è sostanziale. Si aggiunga il fattoche l'approccio bayesiano è in grado di utilizzare informazioni già in possesso, modificando la probabilità a priori eottenendo così delle probabilità a posteriori diverse.

Breve storia dell'inferenza statisticaNella storia della statistica, l'inferenza ha conosciuto due grandi periodi. Il primo cominciò alla fine del '800 e sisviluppò in maniera decisiva nella prima metà del XX secolo con i lavori di R. Fisher, K. Pearson, Jerzy Neyman,Egon Pearson e Abraham Wald con le fondamentali idee riguardanti la verosomiglianza, la potenza dei test diverifica d'ipotesi, gli intervalli di confidenza e altre.Il secondo grande periodo, tuttora in corso, è stato possibile grazie alla crescente potenza di calcolo dei computer,disponibili a prezzi sempre più abbordabili. Ciò ha permesso di allontanarsi da ipotesi comode dal punto di vistamatematico ma non sempre adeguate alla realtà mettendo in pratica idee anche antiche come quella bayesiana chetrova applicazioni pratiche solo in presenza della potenza di calcolo dei computer, come pure le tecniche diricampionamento dei dati come il metodo Monte Carlo, bootstraping, metodo jackknife ecc. legati a personaggi qualiJohn von Neumann, Stanisław Marcin Ulam, Bradley Efron, Richard von Mises e altri.

Page 198: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Inferenza statistica 194

Temi legati all'inferenza statisticaI seguenti temi costituiscono una lista, non necessariamente esaustiva, di argomenti ricompresi nell'inferenzastatistica:• Stima, per punti o per intervalli;• Test di verifica d'ipotesi;• Previsione.

Voci correlate•• Inferenza bayesiana•• Winsorizzazione

Collegamenti esterni• Corso di statistica applicata alla microbiologia [1]

Note[1] http:/ / www. iperserver. it/ mediawiki/ index. php/ Pagina_Principale

Campionamento statisticoIn statistica il campionamento statistico (che si appoggia alla teoria dei campioni o teoria del campionamento), staalla base dell'inferenza statistica, la quale si divide in due grandi capitoli: la teoria della stima e la verifica d'ipotesi.In particolare una rilevazione si dice campionaria quando è utile per fare inferenza ossia per desumere dal campionestesso un'informazione relativa all'intera popolazione.

Campione e censimentoLe indagini censuarie, al contrario, riguardano l'intera popolazione e pur essendo più affidabili riguardo al parametrooggetto d'indagine soffrono di:•• Maggiori costi•• Tempi più lunghi•• Minore accuratezza e minori risorse concentrate sul controllo della qualità della rilevazione (quello che si

guadagna in estensione si perde in profondità)Quindi mentre l'indagine censuaria fornisce il valore vero dei parametri di interesse (proporzioni, percentuali, medie,totali,...) quella campionaria restituisce una sua stima al quale è associato un certo grado di fiducia (ovveroun'incertezza) quantificabile quando la formazione del campione risponde a determinati criteri di tipo probabilistico.Il campionamento si usa quando si vuole conoscere uno o più parametri di una popolazione, senza doverneanalizzare ogni elemento: questo per motivi di costi intesi in termini monetari, di tempo, di qualità o di disagio operché analizzare un elemento lo distrugge rendendo inutilizzabile l'informazione ottenuta.

Page 199: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Campionamento statistico 195

Scelta del campioneModalità di selezione del campione sono:• Scelta di comodo (campionamento per quote o convenience sampling).• Scelta ragionata (campionamento ragionato o judgmental sampling).• Scelta casuale (campionamento casuale o random sampling).• Scelta probabilistica (campionamento probabilistico o probabilistic sampling).Nella pratica quotidiana dei sondaggi di opinione e delle ricerche di mercato vengono usati tutti e quattro gliapprocci.La scelta di un tipo di campionamento avviene in base alle proprietà degli stimatori di alcuni parametri oppure pertener conto di problemi di costo, mobilità o altro.Concetti chiave sono:•• base di campionamento•• popolazione d'analisi e popolazione di rilevazione• Piano di campionamento e disegno di campionamento•• Errore di campionamento

StoriaBenché già nel '700 si sia notato il vantaggio nell'esaminare un sottinsieme della popolazione per generalizzare irisultati alla popolazione complessiva, è solo dalla fine dell'800 che la discussione sulla "scientificità" delcampionamento viene posta in modo esplicito alla comunità statistica.Già agli inizi del '900 si vanno delineando le caratteristiche che un campione deve avere, ovvero che deve esserescelto in maniera casuale, e nell'arco di pochi anni compaiono i primi studi che mettono in evidenza che il campionenon deve essere necessariamente un campione semplice ma può essere più complesso, per esempio stratificando.Importanti autori che hanno fatto la storia della teoria dei campioni sono stati tra gli altri:• Pierre-Simon de Laplace (che fece uso dei moltiplicatori per stimare il totale di una popolazione);• Adolphe Quételet (che accetta di generalizzare alla popolazione complessiva il tasso di analfabetismo osservato

tra i delinquenti, ma rifiuta di generalizzare la percentuale di maschi tra i neonati);• Anders Nicolai Kiaer che nel 1895 avvia la discussione di merito in seno all'Istituto Internazionale di Statistica;• Ladislaus Bortkiewicz che con un suo intervento introduce seriamente la teoria della probabilità nella discussione

sul campionamento;• Arthur Bowley che sviluppa il campionamento casuale, la stratificazione, e formula la varianza della stima del

totale nel caso del campionamento semplice e nel caso del campionamento stratificato;• Aleksandr A. Čuprov, suo padre Aleksandr I. Čuprov, A. G. Kovalevskij e Jerzy Neyman che descrivono il

campionamento stratificato, e, per quanto riguarda A. A. Čuprov e J. Neyman, anche scoprendo in modoindipendente l'allocazione ottima.

Nel 1925, durante il congresso di Roma, l'Istituto Internazionale di Statistica accetta definitivamente comescientifico il metodo campionario, distinguendo il campionamento casuale dal campionamento ragionato.Altri autori importanti nella ricerca teorica ed applicata sul campionamento furono George Gallup e William G.Cochran.

Page 200: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Campionamento statistico 196

Bibliografia•• S. Brasini, M. Freo, F. Tassinari, G. Tassinari, Statistica aziendale e analisi di mercato, 2002, Manuali, Il Mulino,

Bologna•• M. Barisone, R. Mannheimer, I sondaggi, 1999, Il Mulino, Bologna•• M. Chiaro, I sondaggi telefonici, 1996, CISU, Roma

Box-plotIn statistica il box-plot, detto anche box and whiskers plot(diagramma a scatola e baffi) o semplicemente boxplot, è unarappresentazione grafica utilizzata per descrivere la distribuzione di uncampione tramite semplici indici di dispersione e di posizione.

Viene rappresentato (orientato orizzontalmente o verticalmente)tramite un rettangolo diviso in due parti, da cui escono due segmenti. Ilrettangolo (la "scatola") è delimitato dal primo e dal terzo quartile, q1/4 e q3/4, e diviso al suo interno dalla mediana,q1/2. I segmenti (i "baffi") sono delimitati dal minimo e dal massimo dei valori.

In questo modo vengono rappresentati graficamente i quattro intervalli ugualmente popolati delimitati dai quartili.

Rappresentazioni alternativeEsistono scelte alternative per rappresentare il box-plot; tutte concordano sui tre quartili per rappresentare ilrettangolo ma differiscono per la lunghezza dei segmenti, solitamente scelti più corti per evitare valori troppo"estremi", che vengono solitamente rappresentati solo come dei punti.Comunemente i segmenti possono venire delimitati da particolari quantili, solitamente della forma qα e q1-α, comeq0,1 e q0,9.Altre alternative, che tuttavia possono portare a tracciare i segmenti all'interno del rettangolo, o a farli terminare oltrei valori estremi del campione, delimitano i segmenti con:• la media più o meno la deviazione standard;• i valori (5q1/4-3q3/4)/2 e (5q3/4-3q1/4)/2, in modo che entrambi i segmenti siano lunghi 3/2 volte la lunghezza del

rettangolo.

Voci correlate•• Mediana•• Quartile•• Scarto interquartile

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Box plots

Page 201: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Istogramma 197

Istogramma

Esempio di istogramma

L'istogramma è la rappresentazione graficadi una distribuzione in classi di un caratterecontinuo.

È costituito da rettangoli adiacenti le cuibasi sono allineate su un asse orientato edotato di unità di misura (l'asse ha l'unità dimisura del carattere e può tranquillamenteessere inteso come l'asse delle ascisse).L'adiacenza dei rettangoli dà conto dellacontinuità del carattere. Ogni rettangolo habase di lunghezza pari all'ampiezza dellacorrispondente classe; l'altezza invece ècalcolata come densità di frequenza, ovveroessa è pari al rapporto fra la frequenza(assoluta) associata alla classe e l'ampiezzadella classe.

L'area della superficie di ogni rettangolo coincide con la frequenza associata alla classe cui il rettangolo si riferisce eper tale caratteristica gli istogrammi rappresentano un tipo di areogramma. La somma delle aree dei rettangoli èuguale alla somma delle frequenze dei valori appartenenti alle varie classi.

Volendo si può scegliere di rappresentare nell’istogramma le frequenze relative (anziché le semplici frequenzeassolute) delle varie classi.Dividendo le frequenze relative di un istogramma per l'ampiezza di ciascuna classe si attuerà un processo dinormalizzazione dell'istogramma ottenendo così un istogramma di densità la cui somma delle aree delle ampiezze diciascuna classe rappresentata sarà uguale ad 1.Nell'ipotesi che la numerosità dei valori osservati tenda a infinito, e contemporaneamente l'ampiezza delle classitenda a zero, l'istogramma converge, a sua volta, a una stima (seppur distorta) della legge di probabilità che regolal'esperimento casuale da cui si osserva il carattere.Gli istogrammi non devono essere confusi con i grafici a colonne: questi ultimi infatti, a differenza dei primi, hannoaltezza proporzionale alla frequenza e sono costituiti da rettangoli separati tra loro.Gli istogrammi vengono spesso utilizzati nella fotografia digitale e nel fotoritocco per analizzare la luminosità diun'immagine.L'istogramma è uno dei sette strumenti della qualità, si costruisce partendo dalla massima escursione tra i datidividendola per gli intervalli desiderati.

Page 202: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Istogramma 198

Voci correlate•• Areogramma•• Ortogramma

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/Category:Histograms

Collegamenti esterni• (EN) Un metodo per la selezione dell'intervallo di classe di un istogramma [1]

• (EN) Un altro metodo per eseguire la stima delle distribuzioni, la Kernel Density Estimation [2]

• Generatore di grafici [3]

Note[1] http:/ / 2000. jukuin. keio. ac. jp/ shimazaki/ res/ histogram. html[2] http:/ / research. cs. tamu. edu/ prism/ lectures/ pr/ pr_l7. pdf[3] http:/ / it. pictovia. com/

QuantileIn statistica il quantile di ordine α è un valore qα che divide la popolazione in due parti, proporzionali ad α e (1-α) ecaratterizzate da valori rispettivamente minori e maggiori di qα.

Calcolo dei quantiliNel caso di una densità di probabilità la funzione di ripartizione F è continua e il quantile di ordine α è definito daF(qα)=α. Questo quantile può non essere unico se la funzione di densità è nulla in un intervallo, ovvero se lafunzione di ripartizione è costante ed assume il valore α per più di un valore qα; ciononostante per ognuno di questivalori la popolazione viene correttamente divisa in due parti proporzionali ad α e (1-α).Nel caso di una densità discreta il quantile di ordine α è un valore qα nel quale la frequenza cumulata raggiunge osupera α, ovvero tale che la somma delle frequenze fino a quel valore sia almeno α e che la somma delle frequenzeda quel valore sia al più 1-α. In questo caso, oltre alla non unicità del quantile si può avere una divisione nonproporzionale ad α e 1-α (del resto una popolazione finita non può essere divisa che in un numero finito di modi).Nel caso di una distribuzione in classi di valori si usa talvolta "supporre" che i valori siano distribuiti in modouniforme all'interno di ciascuna classe, in modo da calcolare il quantile (per interpolazione) su una funzione diripartizione continua.In particolare il quantile di ordine 0 è un qualunque valore inferiore al minimo della popolazione; similmente ilquantile di ordine 1 è un qualunque valore superiore al massimo della popolazione.I quantili possono anche venire utilizzati per indicare delle classi di valori: ad esempio l'insieme della popolazione"entro il terzo decile" indica quel 30% di popolazione con i valori più bassi.

Page 203: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Quantile 199

Particolari quantiliI quantili di ordini "semplici", espressi come frazioni, vengono anche chiamati con altri nomi. I quantili di ordini 1/n,2/n, ..., (n-1)/n dividono la popolazione in n parti ugualmente popolate; il quantile di ordine α=m/n è detto m-esimon-ile.• La mediana è il quantile di ordine 1/2.• I quartili sono i quantili di ordini 1/4, 2/4 e 3/4.Altri particolari quantili sono:• I quintili, di ordine m/5, dividono la popolazione in 5 parti uguali.• I decili, di ordine m/10, dividono la popolazione in 10 parti uguali.• I ventili, di ordine m/20, dividono la popolazione in 20 parti uguali.• I centili, di ordine m/100, dividono la popolazione in 100 parti uguali. Vengono anche chiamati percentili,

esprimendo l'ordine in percentuale: m/100=m%.A causa della scrittura in frazioni, alcuni quantili hanno più di un nome: il secondo quartile è la mediana (2/4=1/2),ogni quintile è anche un decile (m/5=2m/10) e così via. Per lo stesso motivo il primo ed il terzo quartile sonorispettivamente le mediane della metà inferiore e della metà superiore della popolazione.I ventili e i centili esprimono livelli di confidenza molto utilizzati: 1%, 5%, 95%, 99%.La media aritmetica dei ventili dal primo al diciannovesimo è detta media ventile ed è uno stimatore robusto dellamedia. I ventili sono anche utilizzati per definire indici di asimmetria e curtosi.

Bibliografia• Sheldon M. Ross, 3.3.1 Percentili campionari [1] in Introduzione alla statistica [2], Apogeo Editore, 2008. ISBN

9788850326228• Richard A. Johnson, 2.6 Quartili e percentili [3] in Probabilità e statistica per Ingegneria e Scienze [4], Pearson,

2007. ISBN 978-88-7192-348-2• Sheldon M. Ross, 2.3.3 Percentili campionari e box plot [5] in Probabilità e statistica per l'ingegneria e le scienze

[6], Apogeo Editore, 2008. ISBN 9788850325801• Francesca Cristante; Adriana Lis; Marco Sambin, III.3.9 Prime misure di posizione: percentili [7] in Statistica per

psicologi [8], Firenze, Giunti Editore, 2001. ISBN 88-09-02176-2

Voci correlate•• Funzione di ripartizione•• Quartile•• Mediana (statistica)•• Variabile casuale

Note[1] http:/ / books. google. it/ books?id=aMqf1U2DUEUC& pg=PA85& hl=it#v=onepage[2] http:/ / books. google. it/ books?id=aMqf1U2DUEUC& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage[3] http:/ / books. google. it/ books?id=0rQ45nxmFw8C& pg=PA35& hl=it#v=onepage[4] http:/ / books. google. it/ books?id=0rQ45nxmFw8C& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage[5] http:/ / books. google. it/ books?id=7Q8oKde1jXwC& lpg=PA28& hl=it& pg=PA28#v=onepage[6] http:/ / books. google. it/ books?id=7Q8oKde1jXwC& printsec=frontcover& hl=it#v=onepage[7] http:/ / books. google. it/ books?id=VDJh4bZce8wC& lpg=PA208& hl=it& pg=PA208#v=onepage[8] http:/ / books. google. it/ books?id=VDJh4bZce8wC& printsec=frontcover& hl=it& source=gbs_ge_summary_r& cad=0#v=onepage

Page 204: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Quartile 200

QuartileIn statistica, i quartili sono valori che ripartiscono una popolazione in 4 parti ugualmente popolate.Sono i quantili q1/4 (primo quartile), q2/4=q1/2 (mediana) e q3/4 (terzo quartile). In altri termini, la frequenzacumulata fino ai tre quartili è circa 25%, 50% e 75% rispettivamente.Il secondo quartile è anche detto mediana, e divide la popolazione in due parti ugualmente popolate, delle quali ilprimo ed il terzo quartile sono le mediane.I quartili di un campione ordinato X0, ..., Xn, sono "vicini" ai valori di ordini [n/4], [n/2] e [3n/4].La differenza tra il terzo ed il primo quartile è un indice di dispersione, lo scarto interquartile; i quartili vengonoinoltre utilizzati per rappresentare un Box-plot.

Voci correlate•• Box-plot•• Mediana•• Quantile•• Scarto interquartile

Indicatore statisticoUn indicatore statistico è una funzione di un insieme finito o infinito di valori. In statistica si costruiscono pereffettuare una sintesi dei dati.

DescrizioneNella ricerca sociale, si usano concetti generali, troppo astratti per poter essere utilizzati nella ricerca empirica; ènecessario dunque operativizzare i concetti: da un concetto generale (per es. "benessere") bisogna scendere nellascala di astrazione, semplificandolo (per es."benessere nella condizione economica" o " benessere ambientale"etc.),così facendo se ne riduce la complessità, selezionandone alcuni aspetti più significativi, che sono legati al concetto dipartenza da un rapporto di indicazione, in quanto ne sono indicatori.È quindi necessario individuare, nell'ambito di ciascuno di essi, altri indicatori più concreti e più vicini alla realtà,scomponendoli in sotto-dimensioni (per es. "reddito"). In tal modo si ottengono le variabili, ultimo gradino dellascala di astrazione, anch'esse indicatori del concetto generale.La modalità con cui si costruiscono le variabili è detta definizione operativa.Molto spesso le variabili che si usano a livello empirico derivano da un calcolo. Per es. per ottenere il reddito procapite è necessario dividere l'ammontare complessivo dei redditi di un comune per la popolazione stessa di quel comune. La scelta del reddito procapite piuttosto che ad es. del reddito complessivo ci evidenzia la relatività della definizione operativa. Il passaggio dal concetto generale all'indicatore specifico è sempre incompleto e parziale perché un processo di semplificazione comporta la perdita di una parte di informazione; ciò è ancora più evidente con concetti molto complessi per i quali bisogna ricorrere a più indicatori. Uno stesso concetto può essere ridotto ad indicatori diversi nell'ambito di indagini diverse e di contesti socio-culturali differenti. I diversi significati attribuibili a un indicatore inducono a considerare elastici i rapporti semantici tra concetti e livelli di generalità diversi. Individuando uno o più indicatori, attraverso il rapporto di indicazione, che esprime, anche se parzialmente, il significato del concetto generale, si può commettere un errore: l'errore di indicazione è la non validità che può

Page 205: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Indicatore statistico 201

verificarsi proprio nel momento in cui si scelgono gli indicatori che esprimono in modo troppo parziale il concetto acui si riferiscono, non coprendo così in maniera adeguata l'area semantica del concetto. La validità si riferisce perciò alla correttezza della concettualizzazione. Il ricercatore può valutare la validità ripercorrendo il processo di scomposizione del concetto (convalida a vista o percontenuto), oppure convalidando per criterio, cioè individuando un altro indicatore dello stesso concetto econtrollando se è congruente con quello oggetto di verifica. Questa è una convalida empirica mentre quella percontenuto e teorica; entrambe non consentono di misurare "quanto" un indicatore sia valido.Gli errori che si possono compiere nella fase di definizione operativa riguardano l'attendibilità, ovvero sono erroriche possono pregiudicare la capacità dei dati di riprodurre fedelmente le unità di analisi.Questo può avvenire:

•• usando liste di popolazione non aggiornate (errore di copertura)•• nel caso di rilevazioni parziali in cui, se si usa un campione non probabilistico, non si può risolvere l'errore

(errori di campionamento)•• se i soggetti non rispondono (errore di non risposta)•• nel caso in cui sia il rilevatore a compiere l'errore in quanto non adeguatamente preparato•• nella modalità di raccolta (per es. le interviste tel. hanno ritmi serrati che potrebbero indurre a risposte poco

attendibili)•• nel trattamento dei dati che vengono trasferiti in archivi elettronici

Dato che gli indicatori riguardano solo alcuni aspetti del concetto, attraverso un approccio sintetico finale, è possibilericombinare le varie variabili per ricostruire così il concetto originario, ottenendo l'INDICE SINTETICO.Nell'analisi secondaria, invece, l'operativizzazione del concetto è già stata effettuata ed è a partire dalle variabili chesi risale la scala di astrazione. A volte le variabili vanno modificate per essere più adatte all'indagine.[un indice non può essere definito indicatore fino a che non gli si attribuisce un referente concettuale nell'ambitodella ricerca]Anche le rappresentazioni grafiche in statistica sono metodi (grafici) di sintesi dei dati.

Indicatori nella teoria statisticaSi distinguono:indice di posizione

media, mediana, moda, quartile, quantile, ...indice di dispersione

varianza, deviazione standard, scarto interquartile, coefficiente di variazione, indice di eterogeneità,...indice di concentrazione

indice di concentrazione di Gini,indice di diversità

indice di Shannon-Wiener, di Brillouin, di Simpsonindice di correlazione

covarianza, ...indice di simmetria

vedasi Simmetria (statistica)

indice di curtosi

vedasi curtosi

Page 206: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Indicatore statistico 202

Indicatori nella statistica ufficialeNella varie branche della statistica si calcolano appositi indicatori, spesso definiti a livello internazionale.In generale, ogni volta che un dato aggregato non rappresenta fedelmente il fenomeno osservato (perché limitato neltempo, nello spazio o nella definizione dell'universo statistico) tale dato aggregato può essere considerato unindicatore del fenomeno che si desidera osservare.Esempioil dato "Popolazione residente al 31 dicembre 2004" è un indicatore del numero di persone abitanti stabilmente nelterritorio, ma non rappresenta fedelmente il fenomeno in quanto ci sono ritardi nelle registrazioni, esclude le personeche non si fanno registrare dalle anagrafi, perché cambia ogni giorno, perché stabilmente è un concetto vago ovveroarbitrario, ecc.

Elenco di indici, tassi, ecc. usati nella pratica•• Demografia

•• tasso• Tasso grezzo, tasso standardizzato• Tasso di mortalità, Tasso di natalità, Tasso di fecondità totale, Tasso di nuzialità• Piramide delle età, indice di vecchiaia, indice di sostituzione, indice di dipendenza• Tasso di immigrazione, Tasso di emigrazione, indice di mobilità• Popolazione residente, Popolazione presente• Tavola di mortalità (uno strumento che produce un insieme di indicatori demografici)

•• Economia•• Tasso d'inflazione• Prodotto interno lordo e altri aggregati della Contabilità Nazionale (vedasi Statistica economica)

•• Mercato del lavoro• tasso di disoccupazione, tasso di occupazione, tasso di attività,...•• Occupazione

• Sanità, Epidemiologia•• Tasso di morbosità

•• Istruzione• Tasso di scolarità,• Tasso di maturità, Tasso di ripetenza,•• Tasso di abbandono scolastico

Bibliografia• Per un indicatore di dipendenza strutturale rivisitato, cfr. il lavoro di Pammolli Fabio e Nicola C. Salerno

(2008), "Demografia, occupazione, produttività: il federalismo e la sfida della crescita nel Mezzogiorno", nellacollana dei Quaderni del Cerm – Competitività, Regolazione, Mercati (Roma). Si propone un rapporto tra fasce dietà corretto per tener conto dell'occupazione effettiva e della produttività. Cfr. il sito del Cerm: [1]

Note[1] http:/ / www. cermlab. it

Page 207: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Indice di posizione 203

Indice di posizioneGli indici di posizione (o anche indicatori di posizione, o indici di tendenza centrale o misure di tendenzacentrale), in statistica, danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri,appunto) dei valori esistenti.Sono indici di posizione:• media, comprese la media aritmetica, media geometrica e media armonica• mediana, quartile, quantile (o percentile)•• modaUn modo per rappresentare graficamente alcuni indici di posizione è il box-plot.

Voci correlate•• statistica•• indice di dispersione

Intervallo di confidenzaIn statistica quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente.È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro,che viene definito intervallo di confidenza (o intervallo di fiducia).Se U e V sono variabili casuali con distribuzioni di probabilità che dipendono da qualche parametro θ, e

(dove β è un numero tra 0 e 1)allora l'intervallo casuale (U, V) è un intervallo di confidenza al "[(1-β)*100 ]% per θ".I valori estremi dell'intervallo di confidenza si chiamano limiti di confidenza.Ad esso si associa quindi un valore di probabilità cumulativa che caratterizza, indirettamente in termini diprobabilità, la sua ampiezza rispetto ai valori massimi assumibili dalla variabile aleatoria misurando cioè laprobabilità che l'evento casuale descritto dalla variabile aleatoria in oggetto cada all'interno di tale intervallo,graficamente pari all'area sottesa dalla curva di distribuzione di probabilità della variabile aleatoria nell'intervalloconsiderato.

Impostazione di NeymanC'è un metodo agevole per il calcolo degli intervalli di confidenza attraverso il test di verifica d'ipotesi (secondol'impostazione di Neyman).

L'intervallo di confidenza (o di fiducia) non sarà che un parametro che si ottiene determinando anzitutto untest (con livello di significatività ) per saggiare l'ipotesi = contro l'ipotesi . L'insieme ditutti i valori per cui si accetterebbe l'ipotesi nulla costituisce un intervallo di confidenza di livello

Un intervallo di confidenza al 95% si può quindi ricavare da un test di verifica d'ipotesi di significatività 5%.

Page 208: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Ipotesi nulla 204

Ipotesi nullaUn'ipotesi nulla (letteralmente dall'inglese "ipotesi zero") è un'affermazione sulla distribuzione di probabilità di unao più variabili casuali.Nel test statistico viene verificata in termini probabilistici la validità di un'ipotesi statistica, detta appunto ipotesinulla, di solito indicata con H0.Attraverso una funzione dei dati campionari si decide se accettare l'ipotesi nulla o meno. Nel caso l'ipotesi nullavenga rifiutata si accetterà l'ipotesi alternativa, indicata con H1.Se si rifiuta un'ipotesi nulla che nella realtà è vera allora si dice che si è commesso un errore di prima specie.Accettando invece un'ipotesi nulla falsa si commette un errore di seconda specie.L'ipotesi può essere di tipo funzionale se riferita alla forma della f (x;θ) con θ funzione di densità o di probabilità, oparametrica se riferita al vettore incognito θ.L'ipotesi è semplice quando specifica completamente la f(x;θ). Nel caso un'ipotesi non sia semplice si dirà composta.Quando si considera un solo parametro l'ipotesi semplice è del tipo θ=θ0, dove θ0 è un valore particolare. Un'ipotesiè unilaterale se è del tipo θ > θ0 oppure del tipo θ < θ0.Un'ipotesi è bilaterale, invece, se è del tipo θ ≠ θ0 oppure del tipo θ < θ0 e θ > θ0.

Voci correlate•• Ipotesi statistica•• KPSS•• Test di verifica d'ipotesi

Test di verifica d'ipotesiIl test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi.Per ipotesi è da intendersi un'affermazione che ha come oggetto accadimenti nel mondo reale, che si presta ad essereconfermata o smentita dai dati osservati sperimentalmente.Il metodo con cui si valuta l'attendibilità di un'ipotesi è il metodo sperimentale. Quest'ultimo consiste nel determinarele conseguenze di un'ipotesi in termini di eventi osservabili, e di valutare se la realtà effettivamente osservata siaccorda o meno con l'ipotesi su di essa fatta.A tal riguardo si distinguono due ambiti in cui tale attività si esplica:1.1. deterministico;2.2. statistico.Nell'ambito statistico, a seconda delle ipotesi si distingue tra:• test parametrico;• test non parametrico.

Page 209: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Test di verifica d'ipotesi 205

L'ambito deterministicoNel primo caso si è in grado di pervenire a conclusioni certe. Ad esempio volendo provare se in un circuito elettricopassa corrente si inserirà una lampadina o un amperometro e si constaterà l'accensione o l'attivazione dellostrumento. In tal caso si perviene con certezza alla conclusione. Se la lampadina si accende allora passa corrente; incaso contrario il circuito non è predisposto correttamente.In questo ambito, se nel circuito passa corrente ogni volta che si inserisce una lampadina questa si accende. In casocontrario il ripetuto inserimento della lampadina darà sempre esito negativo.

L'ambito statisticoNel secondo caso la situazione è modificata in quanto interviene un elemento nuovo, ovvero il caso. Si supponga diavere una moneta recante due facce contrassegnate con testa e croce. Volendo verificare l'ipotesi di bilanciamentodella moneta si eseguono 20 lanci e si contano quelli che danno esito testa. La conseguenza del bilanciamentoconsiste nell'osservare un valore di teste attorno a 10. Tuttavia anche in ipotesi di bilanciamento non si può escluderedi osservare 20 teste. D'altronde, l'ipotesi di bilanciamento è logicamente compatibile con un numero di testevariante da 0 a 20. In tale contesto una qualsiasi decisione in merito all'ipotesi da verificare comporta un rischio dierrore. Ad esempio rigettare l'ipotesi di bilanciamento della moneta avendo osservato 20 teste su 20 lanci comporta ilrischio di prendere una decisione errata. Nel procedere alla verifica dell'ipotesi di bilanciamento della moneta, siricorre a una variabile casuale X. Tale variabile casuale X è una variabile aleatoria discreta con distribuzionebinomiale B(20; 0,5), dove 20 indica il numero di lanci e 0,5 la probabilità che si verifichi l'evento "testa".Il risultato sperimentale si deve quindi confrontare con tale distribuzione: quanto è distante tale risultato dal valoremedio della distribuzione B(20; 0,5)? Per rispondere alla domanda si deve individuare un valore caratteristico delladistribuzione B(20; 0,5). Nel nostro caso tale valore caratteristico è il valore medio 20/2 = 10. Per valutare ladistanza tra il valore sperimentale e quello atteso si valuta la probabilità di ottenere un valore sperimentale lontanodal valore medio di B(20; 0,5), ossìa nel caso che dal nostro esperimento risulti X=15 (15 teste dopo 20 lanci), sicalcola P{|X-10|>=15-10} quindi P{X<=5 oppure X>=15}=0,041.Quindi, usando una moneta ben bilanciata, la probabilità di ottenere un numero di teste X >= 15 (oppure X <= 5)dopo 20 lanci è pari a 0,041 ossia al 4,1%. Giudicando bassa tale probabilità si rifiuterà l'ipotesi di bilanciamentodella moneta in esame, accettando quindi il rischio del 4,1% di compiere un errore nel rifiutarla. Di solito, il valoredella probabilità adottato per rifiutare l'ipotesi nulla è < 0,05. Tale valore è detto livello di significatività ed èdefinibile come segue: il livello di significatività sotto l'ipotesi nulla è la probabilità di cadere nella zona di rifiutoquando l'ipotesi nulla è vera. Tale livello di significatività si indica convenzionalmente con α. Il livello disignificatività osservato α del test per il quale si rifiuterebbe l'ipotesi nulla è detto valore-p (p-value). Riprendendol'esempio sopra riportato il valore-p è pari a 0,041. Adottando nell'esempio α = 0,05, si rifiuterà l'ipotesi seP{|X-10|>=x}<0,05. Tale condizione si raggiunge appunto se X<6 oppure X>14. Tale insieme di valori si definisceconvenzionalmente come regione di rifiuto. Viceversa l'insieme { 6,7…14} si definisce regione di accettazione. Inquesto modo si è costruita una regola di comportamento per verificare l'ipotesi di bilanciamento della moneta. Taleregola definisce il test statistico.In termini tecnici l'ipotesi da verificare si chiama ipotesi nulla e si indica con H0, mentre l'ipotesi alternativa con H1.Nel caso della moneta, se p è la probabilità di ottenere testa in un lancio la verifica di ipotesi si traduce nel seguentesistema:

Page 210: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Test di verifica d'ipotesi 206

Come già osservato, il modo di condurre un test statistico comporta un rischio di errore. Nella pratica statistica siindividuano due tipi di errori:1. rifiutare H0 quando è vera, errore di primo tipo (α) (o errore di prima specie);2. accettare H0 quando è falsa, errore di secondo tipo (β) (o errore di seconda specie).Tornando all'esempio della moneta in cui la regione di accettazione è data dall'insieme di valori {6..14}, laprobabilità di rifiutare H0 quando è vera è stato calcolato pari a 0,041.Tale probabilità rappresenta il rischio diincorrere in un errore di primo tipo e si indica con α. Per valutare la probabilità di un errore di secondo tipo ènecessario specificare un valore di p in caso di verità di H1. Si supponga che p=0,80, in tal caso la distribuzione di Xè una B(20;0,80)Con tale distribuzione di probabilità, l'errore di tipo 2 si calcola sommando le probabilità relative ai valori di X dellazona di accettazione,ciò supponendo H1 vera. Si trova quindi che la probabilità cercata è pari a circa 0,20. Taleprobabilità quantifica il rischio di incorrere nell'errore di tipo 2. e si indica convenzionalmente con β. La quantità 1-βsi chiama potenza del test ed esprime quindi la capacità di un test statistico di riconoscere la falsità di H0 quandoquesta è effettivamente falsa. La potenza del test trova applicazione nella pratica statistica in fase di pianificazione diun esperimento.

Voci correlate•• Ipotesi nulla•• Variabile casuale•• Valore-p

Page 211: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Fonti e autori delle voci 207

Fonti e autori delle vociProbabilità  Fonte: http://it.wikipedia.org/w/index.php?oldid=53082436  Autori:: 213.21.174.xxx, Alberto da Calvairate, Alearr, Alec, Angela Bonora, Aplasia, Baroc, Blakwolf, Cesalpino,Codicorumus, Erasmo Barresi, F.chiodo, Fredericks, Gabriel96, Gacio, Gaetano licata, Gcappellotto, GiovanniS, Giovannigobbin, Gipiz, Giulio.Nic, Guidomac, Hashar, Ilario, Jalo, Joana,Johnlong, Leitfaden, Luisa, M7, Massimiliano Lincetto, Mau db, MenoUNO, Michele-sama, Mr buick, Phantomas, Piddu, Pracchia-78, Profste, Riccioli72, Shaka, Snowdog, StefaPorce, Suisui,Tener, Ticket 2010081310004741, Tomi, Toobaz, Twice25, Valitutti, Vituzzu, Ylebru, ^musaz, pppfree165-26-bz.aknet.it, 103 Modifiche anonime

Spazio campionario  Fonte: http://it.wikipedia.org/w/index.php?oldid=51269611  Autori:: Aubrey, Avesan, Baroc, Buggia, Cesalpino, Domenico De Felice, Gala.martin, Hal8999, Ilario,Leitfaden, Marcuscalabresus, Piddu, Profste, Sbisolo, Sergejpinka, SpiritoLibero, Tomi, Unmarco, 18 Modifiche anonime

Teoria della probabilità  Fonte: http://it.wikipedia.org/w/index.php?oldid=51236402  Autori:: Amanconi, Avesan, Baroc, Beewan1972, Cesalpino, Dr Zimbu, Frieda, Gala.martin, Joevinegar,Leitfaden, Lgentema, Lyell01, MaxDel, Microsoikos, Nihil, No2, Piddu, Piero Montesacro, Pil56, Rollopack, Sigifredobau, Tomi, Tonello, Ylebru, ^musaz, 19 Modifiche anonime

Indipendenza stocastica  Fonte: http://it.wikipedia.org/w/index.php?oldid=47903218  Autori:: 213.21.174.xxx, Arodichevski, Basilero, Buggia, Eumolpo, Flyingstar16, Gala.martin, Lacurus,Lgentema, Piddu, Pokipsy76, Pracchia-78, Simone, Tomi, 5 Modifiche anonime

Teorema della probabilità composta  Fonte: http://it.wikipedia.org/w/index.php?oldid=43716481  Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, SalvatoreIngala, Sandrobt, Simone, Tomi

Teorema della probabilità assoluta  Fonte: http://it.wikipedia.org/w/index.php?oldid=48590656  Autori:: 213.21.174.xxx, Amanconi, Avesan, Buggia, Piddu, Salvatore Ingala, Tomi, 16Modifiche anonime

Probabilità condizionata  Fonte: http://it.wikipedia.org/w/index.php?oldid=52657429  Autori:: 213.21.174.xxx, Andrisano Antonio, Arodichevski, Barrfind, Buggia, Emptywords, Felisopus,Joevinegar, Leitfaden, Piddu, Pokipsy76, Simone, Suisui, Tomi, Tridim, 21 Modifiche anonime

Teorema di Bayes  Fonte: http://it.wikipedia.org/w/index.php?oldid=53077755  Autori:: 213.21.174.xxx, 213.21.175.xxx, Amanconi, Arodichevski, Ayanami Rei, CristianCantoro, Fradelpra,Gian-, Iskander, Joana, Leitfaden, Leonardis, LoStrangolatore, Lou Crazy, M7, Matteo.Bertini, Megalexandros, Michele-sama, Pequod76, Piddu, Qniemiec, Salvatore Ingala, Tomi, TommasoFerrara, 30 Modifiche anonime

Distribuzione discreta  Fonte: http://it.wikipedia.org/w/index.php?oldid=50208293  Autori:: 213.21.175.xxx, Avesan, Barrfind, Bedo2991, Joana, Lacurus, Lenore, Piddu, Tomi,pppfree166-112-bz.aknet.it, 15 Modifiche anonime

Distribuzione discreta uniforme  Fonte: http://it.wikipedia.org/w/index.php?oldid=51266176  Autori:: Barrfind, Buggia, Delas, Drakend, Joana, MM, Marcuscalabresus, Michele-sama, No2,Piddu, Sandrobt, Simone, Snowdog, Tomi, Zmlsf2b, pppfree165-15-bz.aknet.it, pppfree166-112-bz.aknet.it, 8 Modifiche anonime

Distribuzione di Bernoulli  Fonte: http://it.wikipedia.org/w/index.php?oldid=52557638  Autori:: Andrisano Antonio, Barrfind, Drakend, Gvittucci, Joana, Marcuscalabresus, Tomi, Utente,pppfree165-204-bz.aknet.it, pppfree165-93-bz.aknet.it, pppfree166-235-bz.aknet.it, 13 Modifiche anonime

Processo di Bernoulli  Fonte: http://it.wikipedia.org/w/index.php?oldid=48507770  Autori:: Andrisano Antonio, Avemundi, Eumolpo, No2, 4 Modifiche anonime

Distribuzione binomiale  Fonte: http://it.wikipedia.org/w/index.php?oldid=51266077  Autori:: 213.21.175.xxx, Alez, Barrfind, Berto, CarloV, Codicorumus, Eumolpo, Freddyballo, Gwilbor,Hashar, Iskander, Joana, L'altro giocoliere, Lacurus, Marcuscalabresus, Massimiliano Lincetto, Michele-sama, Onix135, Paopis, Phantomas, Sanremofilo, Simone Scanzoni, Suisui, Tomi, Utente,pppfree166-235-bz.aknet.it, 32 Modifiche anonime

Distribuzione geometrica  Fonte: http://it.wikipedia.org/w/index.php?oldid=52674445  Autori:: Adamanttt, Baroc, Barrfind, Blakwolf, Bluled, DanieleSciolla, ELPiazza, Ersonny, Frigotoni,Gokhan, Hashar, Jmc.88, Joana, Lprmrz, Massimiliano Panu, Michele-sama, Onix135, Phantomas, Piddu, Sir John, Tomi, Toobaz, Utente, WK, Yatagan, pppfree165-204-bz.aknet.it,pppfree166-112-bz.aknet.it, 41 Modifiche anonime

Distribuzione di Poisson  Fonte: http://it.wikipedia.org/w/index.php?oldid=51266155  Autori:: AMenteLibera, Alez, Arodichevski, Baroc, Barrfind, Broc, Dproduzioni, Fain182, Hashar, Hce,Joana, Michele-sama, Moroboshi, Nickanc, Pokipsy76, Sadysamar, Salsoul92, Sandrobt, Sergejpinka, Suisui, Tomi, Utente, host14-135.pool80117.interbusiness.it, pppfree166-112-bz.aknet.it,pppfree166-167-bz.seq.it, 58 Modifiche anonime

Distribuzione di Pascal  Fonte: http://it.wikipedia.org/w/index.php?oldid=51266144  Autori:: Barrfind, Caulfield, Dr Zimbu, Herstory, Joana, Onix135, Piddu, Salvatore Ingala,Tkt2008123110019475, Tomi, pppfree165-204-bz.aknet.it, pppfree166-63-bz.aknet.it, 10 Modifiche anonime

Distribuzione continua  Fonte: http://it.wikipedia.org/w/index.php?oldid=53023514  Autori:: Avesan, Buggia, Dega180, Eumolpo, Gpmat, Joana, Lacurus, Lenore, Piddu, Sandrobt, Tomi,pppfree165-118-bz.seq.it, pppfree166-167-bz.seq.it, 13 Modifiche anonime

Funzione di ripartizione  Fonte: http://it.wikipedia.org/w/index.php?oldid=51267116  Autori:: 213.21.175.xxx, Amanconi, Avesan, Baroc, Buggia, Eumolpo, Fredericks, Jalo, Joevinegar,Lacurus, Larry Yuma, Leitfaden, Leonardis, Leoplct, Llorenzi, Mark91, Piddu, Quellogrosso, Simone, The Ouroboros, Tomi, Toobaz, UP, Zlafeg, 35 Modifiche anonime

Funzione di densità di probabilità  Fonte: http://it.wikipedia.org/w/index.php?oldid=49266022  Autori:: Alec, Avesan, Buggia, HyperText, Ilario, Krdan, Leonardis, Piddu, Quanto, Retaggio,Simo82, Tino 032, Tomi, UP, W.visconti, Wiso, ^musaz, 7 Modifiche anonime

Variabile casuale  Fonte: http://it.wikipedia.org/w/index.php?oldid=53095744  Autori:: 213.21.175.xxx, Agosteeno, Avesan, Buggia, Codicorumus, Colom, Gala.martin, Gokhan, Grigio60,Guido Magnano, Ik1tzo, Jacop, Joana, Joevinegar, Kazza, Kiwi, Lacurus, Leonardis, Luca Antonelli, Megalexandros, Numbo3, Patafisik, Piddu, Riccioli72, Sandrobt, Sbisolo, Suisui, Tomi,Utente, W4r3x, ^musaz, pppfree165-204-bz.aknet.it, 51 Modifiche anonime

Variabili dipendenti e indipendenti  Fonte: http://it.wikipedia.org/w/index.php?oldid=39429888  Autori:: Arodichevski, Ary29, Barrfind, Lord Hidelan, Mau db, Simo82, 4 Modifiche anonime

Valore atteso  Fonte: http://it.wikipedia.org/w/index.php?oldid=52129266  Autori:: Amanconi, Antonio78, Bassabros, Buggia, Codicorumus, Dr Zimbu, Fire90, Gala.martin, Giacomo.lucchese,Gim²y, IlBeso, Joevinegar, Lacurus, Luca Antonelli, Onix135, Paul Gascoigne, Phantomas, Piddu, Pokipsy76, Salvo da Palermo, Seics, Soprano71, Stecrimi, Tomi, Toobaz, UP, Utente, Vu DucThang, pppfree165-15-bz.aknet.it, 38 Modifiche anonime

Varianza  Fonte: http://it.wikipedia.org/w/index.php?oldid=52648811  Autori:: Adert, Alexander Luthor, Amanconi, Arodichevski, Barrfind, Daniele Pugliesi, Epoc, Ercaran, Fabriziogambino,Furriadroxiu, Gabriele85, Grigio60, Gvittucci, Leonardis, Lord Hidelan, Massimiliano Lincetto, Nico86roma, Pacini409, Panairjdde, Paolo Sebastiano Valvo, Paradoxengine, Phantomas, RedPower, Riccioli72, Sandrobt, Seics, Sergejpinka, Stemby, Suisui, Tomi, 71 Modifiche anonime

Legge della varianza totale  Fonte: http://it.wikipedia.org/w/index.php?oldid=53137806  Autori:: Amanconi, Gabriele85, Gvittucci, Ylebru, 5 Modifiche anonime

Covarianza  Fonte: http://it.wikipedia.org/w/index.php?oldid=52219900  Autori:: Adert, Amanconi, AnjaManix, Arodichevski, Barrfind, Bella Situazione, Biopresto, Cog, Gabriele85, Gianluigi,Herdakat, Llorenzi, Martin Mystère, Mistercaste, PersOnLine, Piddu, Template namespace initialisation script, Tomi, Utente, Wiso, 21 Modifiche anonime

Deviazione standard  Fonte: http://it.wikipedia.org/w/index.php?oldid=53061279  Autori:: 1000voi, 213.21.175.xxx, Adert, Alfio, Alkalin, Arodichevski, Basilicofresco, Blaisorblade, Blakwolf,DanGarb, Dennis, Duccio.vigolo, EffeX2, Gabriele85, Gemini1980, Hashar, Kamina, Llorenzi, Lord Hidelan, Mark91, Massimiliano Lincetto, Maxpic69, Panairjdde, Pandit, Paolo SebastianoValvo, Pattarello, Piddu, Pressman2009, Rael, Semibradi, SimoneMLK, Simonefrassanito, Snowdog, SolePensoso, Stemby, Suisui, Template namespace initialisation script, Tomi, TommasoFerrara, Twice25, host226-101.pool212171.interbusiness.it, 71 Modifiche anonime

Media (statistica)  Fonte: http://it.wikipedia.org/w/index.php?oldid=52837883  Autori:: .snoopy., 213.21.175.xxx, 51449e5f.cable.wanadoo.nl, Adert, Adfc, Aldur, Alec, Alpt, Amanconi,AnjaManix, Arodichevski, Ary29, Ask21, Avesan, Berto, Calabash, Civvì, Cogna93, DanGarb, Daniele Pugliesi, Djdomix, DoppioM, Elborgo, F l a n k e r, Fox vincy, Frieda, Ft1, Gabriele85,Gac, Ggg, Guido Magnano, Guidomac, IlCapo, Iron Bishop, Isil, Kal-El, Lacurus, Lord Hidelan, Luca.lombini, Lusum, M7, Madaki, Mark91, Massimiliano Lincetto, Maxsimo6771, Melos,Michele-sama, MrOrange, Nafutesfera, Ngshya, No2, Oks, Phantomas, Piddu, Pracchia-78, Pressman2009, Rael, Sbisolo, Sergejpinka, Snowdog, Taueres, Ticket 2010081310004741, Tino 032,Tomi, Twice25, 201 Modifiche anonime

Page 212: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Fonti e autori delle voci 208

Distribuzione normale  Fonte: http://it.wikipedia.org/w/index.php?oldid=53010270  Autori:: .mau., Alberto da Calvairate, Amanconi, Blakwolf, Bongalone, Ceccorossi, Cisco79, Elninopanza,Ercaran, Gionnico, Giuliodomus, Hashar, Joana, L'altro giocoliere, Lp, Lumage, Malcom1976, MapiVanPelt, Marcodev, Merovingian, Phantomas, Piddu, Pracchia-78, S141739, Sandrobt, Suisui,Tank00, Tino 032, Tomi, Utente, Veneziano, ^musaz, pppfree165-15-bz.aknet.it, pppfree165-204-bz.aknet.it, pppfree165-53-bz.aknet.it, pppfree165-65-bz.aknet.it, 65 Modifiche anonime

Funzione di ripartizione della variabile casuale normale  Fonte: http://it.wikipedia.org/w/index.php?oldid=51948191  Autori:: Avesan, Basilicofresco, Brownout, Diritto, EffeX2, Joana,Kormoran, Stefano-c, Tomi, Utente, pppfree165-204-bz.aknet.it, pppfree166-167-bz.seq.it, 4 Modifiche anonime

Distribuzione t di Student  Fonte: http://it.wikipedia.org/w/index.php?oldid=52250411  Autori:: Angelorenzi, Barrfind, Buggia, Darth Kule, Ercaran, Eumolpo, Frieda, Gabriele NunzioTornetta, Joana, Lord Hidelan, Martin Mystère, Mauro742, Nyrk, Omino di carta, Phantomas, Piddu, Sandrobt, Stefanopiep, Tomi, Tommaso Ferrara, Utente, Utonto, pppfree165-191-bz.aknet.it,pppfree165-204-bz.aknet.it, 81 Modifiche anonime

Distribuzione chi quadrato  Fonte: http://it.wikipedia.org/w/index.php?oldid=52219768  Autori:: Barrfind, Elauksap, Eumolpo, FrancescoT, Gvittucci, Hashar, Hellis, Joana, Larry87,Leonardis, Llorenzi, Marcol-it, Nase, Suisui, Tomi, Tommaso Ferrara, Utente, pppfree165-204-bz.aknet.it, pppfree165-26-bz.aknet.it, pppfree166-31-bz.seq.it, pppfree166-44-bz.aknet.it,pppfree166-63-bz.aknet.it, 35 Modifiche anonime

Distribuzione di Fisher-Snedecor  Fonte: http://it.wikipedia.org/w/index.php?oldid=51266126  Autori:: Aljosha89, Arodichevski, Barrfind, Buggia, Califasuseso, Dega180, Eumolpo, Fornaeffe,Fstefani, Guidomac, Joana, Lord Hidelan, Martin Mystère, Nase, SCDBob, Sandrobt, Sanremofilo, Snowdog, Suisui, Tomi, pppfree165-204-bz.aknet.it, pppfree166-168-bz.aknet.it, 18 Modificheanonime

Disuguaglianza di Čebyšëv  Fonte: http://it.wikipedia.org/w/index.php?oldid=52219115  Autori:: 213.21.175.xxx, AnyFile, Arodichevski, Beewan1972, Blink89, Buggia, Dr Zimbu, Gvittucci,Iskander, Leonardis, Marcuscalabresus, Piddu, Salvatore Ingala, Sergejpinka, Suisui, Tomi, Uswzb, WinstonSmith, pppfree165-93-bz.aknet.it, 7 Modifiche anonime

Disuguaglianza di Markov  Fonte: http://it.wikipedia.org/w/index.php?oldid=52225050  Autori:: Amanconi, Avesan, Blackcat, Dr Zimbu, Leonardo25, Raffaelemeroni, Salvatore Ingala,Sandrobt, Tomi, 4 Modifiche anonime

Legge dei grandi numeri  Fonte: http://it.wikipedia.org/w/index.php?oldid=49534024  Autori:: Alec, Alez, Amanconi, Amarvudol, Andy2718, Arodichevski, AttoRenato, Baroc, Broc,Codicorumus, Elwood, Erud, FabioResta, Hellis, Joana, Kamina, Kormoran, Lacurus, LapoLuchini, Laurentius, M7, Piddu, Pracchia-78, Remulazz, Retaggio, Salvatore Ingala, Sergejpinka,Simone, Tomi, Wago, Wiso, pppfree165-93-bz.aknet.it, 34 Modifiche anonime

Teoremi centrali del limite  Fonte: http://it.wikipedia.org/w/index.php?oldid=51475421  Autori:: Arodichevski, Emanuele.paolini, Francesco Spadaro, Gabriele85, Giacomo.lucchese,Guagno333, Pokipsy76, Sirabder87, Sumail, Tank00, Tino 032, 31 Modifiche anonime

Processo markoviano  Fonte: http://it.wikipedia.org/w/index.php?oldid=52774969  Autori:: Alez, Arodichevski, Banjo, Berto, Blackcat, EffeX2, FrAnCiS, MarcoBoretto, Marcoesiste,MattLanf, Patafisik, Piddu, Qualc1, Raffaelemeroni, Romanm, Sandrobt, Sanremofilo, Simbo1980, Simone, Tomi, Tommaso Ferrara, ^musaz, pppfree165-204-bz.aknet.it, 33 Modifiche anonime

Calcolo combinatorio  Fonte: http://it.wikipedia.org/w/index.php?oldid=52677949  Autori:: Abbax, Airon90, Alberto da Calvairate, Aleb, Bizio, Deltasun, Fale, Frazzone, Frieda, Frigotoni,Gim²y, Guido Maccioni, Guido Magnano, Hobione, Jalo, Kamina, Labba94, Leitfaden, Mikimouse3, Nick, Parerga, Phantomas, Pracchia-78, Qualc1, Ripepette, Shivanarayana, Snowdog, Tomi,Toobaz, Unriccio, Ylebru, 115 Modifiche anonime

Coefficiente binomiale  Fonte: http://it.wikipedia.org/w/index.php?oldid=47882038  Autori:: 213.21.175.xxx, Alberto da Calvairate, BRussell, Brownout, C.piovesan, Cesalpino, Domenico DeFelice, F l a n k e r, Gabriele Nunzio Tornetta, Iskander, Joana, Kar.ma, Leitfaden, Paopis, Salvatore Ingala, Shankao, SkZ, Tomi, Utente, Verdedinotte, Ylebru, Zetti ~, 13 Modifiche anonime

Teorema binomiale  Fonte: http://it.wikipedia.org/w/index.php?oldid=52948168  Autori:: Alberto da Calvairate, Alu94, Basilero, Buggia, Cesalpino, Fradelpra, Giulio.orru, Giò² !,Megalexandros, No2, Paopis, Piddu, Pokipsy76, Salvatore Ingala, Sandrobt, Startrek Leonardo, Sumail, Tommaso Ferrara, Ylebru, 49 Modifiche anonime

Coefficiente multinomiale  Fonte: http://it.wikipedia.org/w/index.php?oldid=51034622  Autori:: Alez, Joana, Leitfaden, MattLanf, No2, Tomi, Utonto, Ylebru, 12 Modifiche anonime

Problema di Monty Hall  Fonte: http://it.wikipedia.org/w/index.php?oldid=52911489  Autori:: .mau., Airon90, Amanconi, Ancelli, Aplasia, Assianir, Avesan, B3t, Baroc, Camera 9,Carlo.milanesi, CavalloRazzo, Daniele Pugliesi, Diego Petrucci, Doctor Dodge, Dr Zimbu, Etienne, Eumolpo, EvilPrince, Fradelpra, Gvittucci, Hellis, Hires, Holdme, Il Teu, Incola, Jakbest,Joana, Kasper2006, LaseriumFloyd, LoStrangolatore, Luca Antonelli, Lumage, Marco.parrilla, Massimiliano Panu, Matrix87, Metallo, Michele-sama, Mp3.7, Mpitt, Nickanc, Noieraieri,Phantomas, Piddu, Salvo da Palermo, Sandrobt, Sesquipedale, Snowdog, Square87, Stark79, Superzen, The Kraff, Tia solzago, Ticket 2010081310004741, Tomi, Toobaz, Trixt, Vituzzu, Ylebru,108 Modifiche anonime

Paradosso delle tre carte  Fonte: http://it.wikipedia.org/w/index.php?oldid=45400576  Autori:: Andpagl, Andrea.gf, Baroc, Basilero, Cloj, F l a n k e r, Godaime, MapiVanPelt, Michele-sama,Mp3.7, Pequod76, PersOnLine, Piddu, Tomi, Toobaz, 14 Modifiche anonime

Paradosso dei due bambini  Fonte: http://it.wikipedia.org/w/index.php?oldid=52448698  Autori:: Cloj, Garibaldino, Hellis, LucAndrea, Lucbie, Lumage, Merovingian, Nrykko, Piddu, Sandrobt,Tomi, Toobaz, 16 Modifiche anonime

Paradosso del compleanno  Fonte: http://it.wikipedia.org/w/index.php?oldid=52666608  Autori:: *Raphael*, .mau., Abisys, Alez, Blue star 19, Cenncroithi, Colom, Fafabifiofo, Gi87, Guam,Hellis, Leo72, Luciodem, Marius, Mauron, Michele-sama, Pacionet, Piddu, Poeta60, Rael, Sbisolo, Simo ubuntu, Tomi, Wanblee, Wikiradar, Wolland, Yoruno, 17 Modifiche anonime

Blackjack  Fonte: http://it.wikipedia.org/w/index.php?oldid=53157658  Autori:: 2001:1418:100:1B5:0:0:0:2, AnyFile, Ariel, Astrokey44, AttoRenato, B3t, Bart88, Casinoonline24,Crepuscolo1910, Crys0000, DaniDF1995, Dega180, Elcerqua, Eumolpo, Eustace Bagge, F l a n k e r, Fale, Freude.schoner.gotterfunken, Gacio, Gce, Giovannigobbin, Giudice frump, Goemon,Guidomac, Gvf, Helios, Kallima, Kiky&glo, Kill off, Koji, Laurentius, LikeLifer, Lorenzo RB, Lp, Lucas, Luisa, M7, MapiVanPelt, Marcingietorigie, Marcok, Mau db, Melia77, Midnight bird,Paginazero, Paulie3691, Piddu, Pino alpino, Pitroipa10, Rael, Retaggio, Rinina25, Rojelio, Shaka, Shivanarayana, Shout, Simon70, Snowdog, Tadino, Tommaso Ferrara, Toobaz, Twice25,Umberto1969, Veneziano, Vipera, Vu Duc Thang, Wappi76, Wikirock, Znick85, 130 Modifiche anonime

Poker  Fonte: http://it.wikipedia.org/w/index.php?oldid=52629679  Autori:: .anaconda, Abbabash, Alfio, Ambriovunque, AmonSûl, Andrea.epifani, Antoniomy, Arahant, Archenzo, Ask21,Assoquadri, Barbaking, CDS33, Calchi, CarloV, Chlorpromazine, Cruccone, Dabao, Danielemarata, Davide21, Delasale, Delfort, Dino246, DostoHouskij, Drugonot, Drumstian, ElisabettaSanguineti, Elwood, Eumolpo, F l a n k e r, Fabiov, Fale, Fiazzo, Filnik, FrancescaZanutto, Frieda, Fuxpio, Gacio, Gbnogkfs, Ggonnell, Gianfranco, Gliu, Goemon, Goliardico, Guidomac, Gvf,Hamed, Hashar, Hauteville, Helios, Hellis, Hrundi V. Bakshi, Ignlig, Invision2.0, Iron Bishop, Jacopo, Joana, KS, Kibira, Klaudio, L736E, Larry Yuma, LikeLifer, Lilja, Lp, Lucas, Luccaro, M7,MM, Madaki, Manusha, MapiVanPelt, Marcingietorigie, Marco Meloni, Massimiliano Bultrini, Mastazi, Mau db, Mess, Micione, MikyT, Mirko69, Moongateclimber, Moroboshi, NadiaGrace,Nalegato, Nick1915, Olando, Oni link, Ons, Osmosis, POKERFACTOR, PersOnLine, Phantomas, Pino alpino, Poker4passion, Pomo 00, Quaro75, Rafaele liraz, Ranma25783, Rdocb, Reddstain,Riprova, Rojelio, Rollopack, Sailko, Sal.acu, Sesquipedale, Shaka, Simone, Snowdog, Soblue, Squattaturi, StefanoBZ, Stefanopro, Tafkaf, Template namespace initialisation script, ThG, Ticket2010081310004741, TierrayLibertad, Triquetra, Tund3r, Twice25, Ughetto23, Ugopanco, Vu Duc Thang, Wikirock, Willyminor, Ylebru, 293 Modifiche anonime

Roulette  Fonte: http://it.wikipedia.org/w/index.php?oldid=53129971  Autori:: Aplasia, Ares, Ary29, Avesan, Barbaking, Bart88, Bartleby08, Barz8, BohemianRhapsody, Buggia,Casinoonline24, Cialz, Cinzia1211, Claude85, Conte di Sarre, Delfort, Dino246, Domenico De Felice, Gacio, Gliu, Kranjo, L736E, LikeLifer, Lucas, M7, MaiDireChiara, Mala, Mark91,Maugiannoni, Metralla, No2, Personne1212, Phantomas, Pozivo, Ranma25783, Salento81, Shivanarayana, Simon70, SimoneMLK, Simonmagic, Ticket 2010081310004741, Toobaz, Torsolo,Wikirock, 85 Modifiche anonime

Continuità assoluta  Fonte: http://it.wikipedia.org/w/index.php?oldid=49416714  Autori:: AMenteLibera, Alberto da Calvairate, BKH77, Baroc, Buggia, Gala.martin, Piddu, ^musaz, 8Modifiche anonime

Integrale  Fonte: http://it.wikipedia.org/w/index.php?oldid=52683810  Autori:: .mau., Airon90, Albano Serena, Alberto da Calvairate, Alemi82, Alessandro De Laurentiis, Alfio, Alkalin, Ancelli,AnyFile, Asymmetric, Automatik, Baroc, Basilero, Blakwolf, Brazzo, Cesalpino, Cisco79, Daniele, Dissonance, Djdomix, Djechelon, Dmharvey, Domenico De Felice, Dr Zimbu, Eginardo,Elwood, Eumolpa, Eumolpo, Fatzeus, Fioravante Patrone, FrAnCiS, Franz Liszt, Gco, Giorgio Nicoletti, Gliu, Goemon, Guarracino, Guidomac, Hashar, Hellis, Henrykus, IlCapo, Illinois,Kamina, Laurentius, Lellats, Leonardis, Lo Skana, Lodo g, Lord Hidelan, Luca Antonelli, Lulo, MacLucky, Marce79, Marcol-it, Massimiliano Panu, Mastersap, Matsoftware, Mega-X, Naufr4g0,No2, Noieraieri, Nsgambaro, Number 21, Oracolante, Paopis, Penaz, PersOnLine, Phantomas, Piddu, Piero, Pokipsy76, Pracchia-78, Riccardocc2, Salvatore Ingala, Sancio.pancia, Shivanarayana,Stefano Bit, Stepho, Suisui, Suturn, Tertore, Ticket 2010081310004741, Tomi, Toobaz, V.alessandro, Varogami, Viames, Vituzzu, Voldemort87, W.visconti, Wiso, Ylebru, ^musaz, 235Modifiche anonime

Convoluzione  Fonte: http://it.wikipedia.org/w/index.php?oldid=51265459  Autori:: .anaconda, Alez, Baroc, Buggia, Claude, DanGarb, Dexterp37, Djechelon, EffeX2, Esculapio, Franco3450,Jok3r, Lion-hearted85, Lulo, Madaki, Marius, Piddu, Pil56, Pokipsy76, Pracchia-78, Snowdog, Summerwind, Svante, Ulisse0, Wiso, Ylebru, ^musaz, 34 Modifiche anonime

Page 213: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Fonti e autori delle voci 209

Sigma-algebra  Fonte: http://it.wikipedia.org/w/index.php?oldid=50119107  Autori:: Alec, Claude85, Dariuz borghigiano, Gala.martin, Harmless, Helios, Hellis, Moroboshi, No2, Piddu,Pracchia-78, SpiritoLibero, Wiso, Ylebru, ^musaz, 23 Modifiche anonime

Algoritmo di Metropolis-Hastings  Fonte: http://it.wikipedia.org/w/index.php?oldid=45372804  Autori:: Arodichevski, Avesan, Edgardof, Eed3si9n, Eginardo, Marcoesiste, Piddu, Zmlsf2b

Metodo Monte Carlo  Fonte: http://it.wikipedia.org/w/index.php?oldid=54003565  Autori:: .mau., A.Cython, Albitex, Alexav8, Antonell, Arodichevski, Banus, Ciccio7, Cieffegi, Cisco79,Cruccone, Daniele Pugliesi, Edo82, Frieda, Ggg, Hellis, Link89, Louisbeta, Marius, Maurizio.Cattaneo, Napo Orso Capo, No2, Orso della campagna, Phantomas, Ramac, Sailko, Sandinista,Senpai, Skawise, Svante, Tia solzago, Tomi, Twice25, Utente, Vituzzu, Zmlsf2b, 58 Modifiche anonime

Statistica  Fonte: http://it.wikipedia.org/w/index.php?oldid=54144998  Autori:: .anaconda, .snoopy., 213.21.174.xxx, 213.21.175.xxx, Adert, Alberto di Cristina, Aleksander Sestak, AlessioGanci, Alfio, Amanconi, Anguilano.f, Antonio Calossi, Atti, Baroc, Blakwolf, Bluemask, Broc, Brownout, Carlo.milanesi, Cluster.One, CristianCantoro, Daniele Pugliesi, Diuturno, Dr Zimbu,Elisabetta, Eumolpa, Eumolpo, Fale, Flooding, Francescadellaratta, Franz Liszt, Frieda, Frigotoni, Gabriele85, Gionnico, Giorces, Giovannigobbin, Giurista, Giuseppe De Marte, Guidomac,Ittodiug, Jabbba, Jose Antonio, Leitfaden, Lord Hidelan, Luca Visentin, Luisa, M7, MaEr, MarcoBiffino, MarcoPotok, Melkor II, Melos, Metodio, Michele-sama, Micione, Mosca, Msebast, No2,Numbo3, Paginazero, Pap3rinik, Pequod76, Phantomas, PieroR, Pracchia-78, Pressman2009, Quaro75, Restu20, Rl89, Salvatore Ingala, Senpai, Sergejpinka, StefanoMP, Suisui, Supernino,Tamme, Template namespace initialisation script, Ticket 2010081310004741, Tomi, Torredibabele, Uswzb, Viguarda, Vitomar, XScratchAx, Ylebru, ^musaz, 149 Modifiche anonime

Inferenza statistica  Fonte: http://it.wikipedia.org/w/index.php?oldid=48983948  Autori:: Alkalin, Amanconi, Arodichevski, Ary29, Ask21, Civvì, EffeX2, Gugga, Joana, Lacurus, Lord Hidelan,Luisa, Montreal, Patafisik, Sarastro, Sbisolo, Snowdog, Soprano71, Tomi, Toobaz, 今 古 庸 龍, 30 Modifiche anonime

Campionamento statistico  Fonte: http://it.wikipedia.org/w/index.php?oldid=50353762  Autori:: Antonio.Gulino, Arodichevski, Avemundi, Avesan, Blackcat, Calgaco, Cayman88, Civvì,Cruccone, Delfort, EffeX2, Eumolpo, Gabriele85, Gaux, Giangagliardi, Joana, Mizardellorsa, Nase, Sergejpinka, Tomi, Utente, Valepert, Veneziano, Vipera, pppfree166-235-bz.aknet.it, 10Modifiche anonime

Box-plot  Fonte: http://it.wikipedia.org/w/index.php?oldid=53994773  Autori:: 213.21.175.xxx, Adert, Astroph, Avesan, Fredericks, Lacurus, Lukius, No2, Phantomas, Tomi, Utente, Zmlsf2b, 17Modifiche anonime

Istogramma  Fonte: http://it.wikipedia.org/w/index.php?oldid=53893795  Autori:: Adert, Antonio Caruso, Archenzo, Arodichevski, Avesan, Ayexeyen, B3t, Biopresto, Daniele Pugliesi, EffeX2,Emanuele piga, Francesco R., Frigotoni, Gehadad, GiacomoV, Lacurus, Llorenzi, Luke94, MaEr, Marcuscalabresus, Moon lights, MoonBeam77, Mox83, No2, RaminusFalcon, Sbisolo,StefanoMP, Utente, 28 Modifiche anonime

Quantile  Fonte: http://it.wikipedia.org/w/index.php?oldid=53219147  Autori:: 213.21.175.xxx, Actarux, Ale Cresta, Alfio, Arodichevski, Astroph, Avesan, Barrfind, Buggia, Christihan, Crillion,Dandrix89, Dirrival, Movses, Patafisik, Pedro Felipe, Sesquipedale, Stefano Nesti, Template namespace initialisation script, Tintin the reporter, Tomi, Twice25, Utente, 12 Modifiche anonime

Quartile  Fonte: http://it.wikipedia.org/w/index.php?oldid=53115175  Autori:: 213.21.175.xxx, Actarux, Adert, Astroph, Avesan, Dirrival, Patafisik, Phantomas, Pipes86, Simone, Tomi,Veneziano, pppfree166-63-bz.aknet.it, 10 Modifiche anonime

Indicatore statistico  Fonte: http://it.wikipedia.org/w/index.php?oldid=51504358  Autori:: 213.21.175.xxx, Arodichevski, Astroph, Avesan, Basilicofresco, Giorces, Robertotex, Sbisolo, Tomi,Utente, 12 Modifiche anonime

Indice di posizione  Fonte: http://it.wikipedia.org/w/index.php?oldid=49463505  Autori:: 213.21.175.xxx, Astroph, Avesan, ChemicalBit, Francesco R., Gig, Simone, TierrayLibertad, Tomi, 4Modifiche anonime

Intervallo di confidenza  Fonte: http://it.wikipedia.org/w/index.php?oldid=52221976  Autori:: Arodichevski, EffeX2, Francesco R., Gabriele85, Lord Hidelan, Walter89, 16 Modifiche anonime

Ipotesi nulla  Fonte: http://it.wikipedia.org/w/index.php?oldid=54347157  Autori:: Alec, Amaralaw, Arodichevski, Ary29, Cisco79, Gabriele85, GiaGar, Lord Hidelan, MaxDel, Sergejpinka,StWA, Tomi, Tri Cetiri Sad, Vigevanese, pppfree166-31-bz.seq.it, 6 Modifiche anonime

Test di verifica d'ipotesi  Fonte: http://it.wikipedia.org/w/index.php?oldid=54346911  Autori:: Andyspiros, Avesan, Biopresto, Bultro, Dariolollissimo, Gabriele85, Gvnn, Lacurus, Lari, LordHidelan, Ocia87, Philoz, Rupertsciamenna, Sbisolo, Sergejpinka, Snowdog, Tomi, Tommaso Ferrara, Toobaz, Utente, Veneziano, Vigevanese, 54 Modifiche anonime

Page 214: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Fonti, licenze e autori delle immagini 210

Fonti, licenze e autori delle immaginiFile:6sided dice.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:6sided_dice.jpg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: DiacriticaImmagine:Commons-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg  Licenza: logo  Autori:: SVG version was created by User:Grunt and cleaned up by 3247,based on the earlier PNG version, created by Reidab.File:Bayes' Theorem 3Dv2.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Bayes'_Theorem_3Dv2.png  Licenza: Creative Commons Zero  Autori:: QniemiecImage:DUniform_distribution_PDF.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_PDF.png  Licenza: GNU Free Documentation License  Autori::EugeneZelenko, PAR, WikipediaMasterImage:DUniform_distribution_CDF.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:DUniform_distribution_CDF.png  Licenza: GNU Free Documentation License  Autori::EugeneZelenko, PAR, WikipediaMasterImage:Binomial distribution pmf.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_pmf.svg  Licenza: Public Domain  Autori:: TaysteImage:Binomial distribution cdf.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Binomial_distribution_cdf.svg  Licenza: Public Domain  Autori:: TaysteImage:Geometricpdf.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometricpdf.jpg  Licenza: GNU Free Documentation License  Autori:: Joxemai, Magog the Ogre, OlafImage:Geometriccdf.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Geometriccdf.jpg  Licenza: GNU Free Documentation License  Autori:: Original uploader was AdamSmithee aten.wikipediaFile:Poisson pmf.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Poisson_pmf.svg  Licenza: Creative Commons Attribution 3.0  Autori:: SkbkekasFile:Poisson cdf.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Poisson_cdf.svg  Licenza: Creative Commons Attribution 3.0  Autori:: SkbkekasImage:Negbinomial.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Negbinomial.gif  Licenza: Public Domain  Autori:: StpashaImmagine:Grafico_v.c.uniforme.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.uniforme.png  Licenza: GNU Free Documentation License  Autori:: Archeologo,Lacurus, Tomi, 1 Modifiche anonimeImmagine:Grafico_v.c.Gaussiana.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.Gaussiana.png  Licenza: GNU Free Documentation License  Autori:: Alfio, Frack,TomiFile:Standard deviation illustration.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_deviation_illustration.gif  Licenza: GNU Free Documentation License  Autori::ForlornturtleFile:Moda.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Moda.jpg  Licenza: Public domain  Autori:: SettenoteinneroFile:Normal distribution pdf.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Normal_distribution_pdf.png  Licenza: GNU General Public License  Autori:: Ardonik, Gerbrant,Grendelkhan, Inductiveload, Juiced lemon, MarkSweep, Wikiwide, 10 Modifiche anonimeFile:Normal distribution cdf.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Normal_distribution_cdf.png  Licenza: GNU General Public License  Autori:: Gerbrant, Inductiveload,Juiced lemon, MarkSweep, WaldirImmagine:Grafico v.c.Gaussiana.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Grafico_v.c.Gaussiana.png  Licenza: GNU Free Documentation License  Autori:: Alfio, Frack, TomiFile:student_t_pdf.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Student_t_pdf.svg  Licenza: Creative Commons Attribution 3.0  Autori:: SkbkekasFile:student_t_cdf.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Student_t_cdf.svg  Licenza: Creative Commons Attribution 3.0  Autori:: SkbkekasFile:chi-square distributionPDF.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chi-square_distributionPDF.png  Licenza: Public Domain  Autori:: EugeneZelenko, It Is Me Here,PAR, WikipediaMasterFile:chi-square distributionCDF.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chi-square_distributionCDF.png  Licenza: Public Domain  Autori:: EugeneZelenko, PAR,WikipediaMasterImage:F_distributionPDF.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:F_distributionPDF.png  Licenza: GNU Free Documentation License  Autori:: en:User:PdbaileyImage:F_distributionCDF.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:F_distributionCDF.png  Licenza: GNU Free Documentation License  Autori:: en:User:PdbaileyFile:Paradosso di Monty Hall.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Paradosso_di_Monty_Hall.gif  Licenza: Public domain  Autori:: Iraiscoming223File:Monty open door.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door.svg  Licenza: Public Domain  Autori:: CepheusFile:Monty open door chances.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door_chances.svg  Licenza: Public Domain  Autori:: CepheusFile:Birthday Paradox.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Birthday_Paradox.svg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: Rajkiran gFile:Blackjack game example.JPG  Fonte: http://it.wikipedia.org/w/index.php?title=File:Blackjack_game_example.JPG  Licenza: GNU Free Documentation License  Autori:: Dice yo11, Roke,Tintazul, Yonatanh, 9 Modifiche anonimeFile:DavidSklansky1979.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:DavidSklansky1979.jpg  Licenza: sconosciuto  Autori:: Dead man’s hand, DeerstopFile:Doyle Brunson.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Doyle_Brunson.jpg  Licenza: Creative Commons Attribution-Sharealike 2.0  Autori:: Photos by flipchip /LasVegasVegas.comFile:Phil Hellmuth 2006.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Phil_Hellmuth_2006.jpg  Licenza: Creative Commons Attribution-Sharealike 2.0  Autori:: Photos by flipchip /LasVegasVegas.comImmagine:Wikibooks-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg  Licenza: logo  Autori:: User:Bastique, User:Ramac et al.Immagine:Wikiquote-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg  Licenza: Public Domain  Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq,Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonimeFile:Roulette wheel.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel.jpg  Licenza: Creative Commons Attribution 2.0  Autori:: Toni LozanoFile:Roulette frz.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_frz.png  Licenza: Public Domain  Autori:: Bukk, Darsie, Denniss, Gregors, Hautala, Jed, Mattes, Medvedev,Pumbaa80, 1 Modifiche anonimeFile:Roulette wheel it.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Roulette_wheel_it.png  Licenza: sconosciuto  Autori:: KranjoFile:Integral Uprightness.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Integral_Uprightness.svg  Licenza: Creative Commons Zero  Autori:: User:WhiteTimberwolfImmagine:Rayleigh-Taylor instability.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Rayleigh-Taylor_instability.jpg  Licenza: Public Domain  Autori:: Original uploader wasSeanAhern at en.wikipediaImmagine:Monte carlo method.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Monte_carlo_method.svg  Licenza: Public Domain  Autori:: --pbroks13talk? Original uploader wasPbroks13 at en.wikipediaFile:Monte-Carlo method pi.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Monte-Carlo_method_pi.svg  Licenza: Public Domain  Autori:: RamacFile:Errore montecarlo calcolo pi greco.PNG  Fonte: http://it.wikipedia.org/w/index.php?title=File:Errore_montecarlo_calcolo_pi_greco.PNG  Licenza: Public Domain  Autori:: HellisFile:Montecarlo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Montecarlo.svg  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori:: Avron, Dake, Ramac, 1 ModificheanonimeImmagine:Wikisource-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg  Licenza: logo  Autori:: Guillom, Jarekt, MichaelMaggs, NielsF, Rei-artur, Rocket000Immagine:Wikiversity-logo-It.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiversity-logo-It.svg  Licenza: sconosciuto  Autori:: -Immagine:Boite a moustaches.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Boite_a_moustaches.png  Licenza: Public Domain  Autori:: Original uploader was HB at fr.wikipediaFile:Histogram example.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Histogram_example.svg  Licenza: Public Domain  Autori:: Jkv

Page 215: PR08A81L1TA' A P3DAL1 - lucadipersio.files.wordpress.com · calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro

Licenza 211

LicenzaCreative Commons Attribution-Share Alike 3.0 Unported//creativecommons.org/licenses/by-sa/3.0/