Spizzichino prob 3

39
 Universit` a degli Studi di Roma “La Sapienza” Anno Accademico 2009-2010 Facolt` a di Scienze Matematiche Fisiche e Naturali Corso di Laurea Specialistica in Matematica per le Applicazioni Alcuni appunti per il corso di CALCOLO DELLE PROBABILIT ` A 3 Giovanna Nappo A.A. 2009/2010 versione del 1.11.2009

description

Spizzichino prob 3

Transcript of Spizzichino prob 3

  • Universita` degli Studi di Roma La SapienzaAnno Accademico 2009-2010

    Facolta` di Scienze Matematiche Fisiche e Naturali

    Corso di Laurea Specialistica in Matematica per le Applicazioni

    Alcuni appunti per il corso diCALCOLO DELLE PROBABILITA` 3

    Giovanna NappoA.A. 2009/2010

    versione del 1.11.2009

  • Indice

    Introduzione ii

    Programma provvisorio del corso iii

    1 Richiami su spazi di probabilita` 11.1 Esempi di spazi di probabilita` . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Distribuzioni di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    1.4.1 Variabili aleatorie in spazi misurabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.5 Misura indotta e Cambio di variabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.6 Variabili gaussiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    2 Costruzione di variabili aleatori in (0, 1) 202.1 Teorema di rappresentazione di Skorohod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.2 Costruzione di una succesione di variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . . . 232.3 Convergenza per variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

    Bibliografia 28

    3 ESERCIZI PROPOSTI 293.1 Esercizi di tipo analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.2 Esercizi sulla convergenza in distribuzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.3 Esercizi con le funzioni caratteristiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.4 Esercizi sulla condizione di Lindeberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.5 Esercizi sulla legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.6 Esercizio riassuntivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    i

  • ii CP31-nov-2009

    Introduzione

    Lo scopo di questo corso e` quello di riesaminare con gli strumenti piu` sofisticati (come ad esempio la teoria dellamisura) alcuni dei concetti principali del Calcolo delle Probabilita`, gia` affrontati nei corsi di Calcolo delle Probabilita`1 e 2.

    Argomento principale saranno i vari tipi di convergenza per variabili aletaorie e le generalizzazioni della Legge deiGrandi Numeri e del Teorema Centrale del Limite.

    Come e` noto, la Legge (debole) dei Grandi Numeri ed il Teorema Centrale del Limite hanno come soggetto principaleuna successione {Xn}n1 di variabili aleatorie indipendenti, con funzione di distribuzione data1.

    Nei corsi elementari abbiamo dato per scontato che una tale successione di variabili aleatorie esistesse: in questocorso vedremo come questo fatto sia vero. Il problema va diviso in due parti:

    primo problema: data una funzione di ripartizione F (ossia una funzione a valori in [0, 1], non decrescente,continua da destra e normalizzata) esiste sempre uno spazio di probabilita` (,F ,P) e una variabile aleatoria X, taleche FX(x) = F (x), dove FX(x) := P(X x)?

    secondo problema: data una successione di funzioni di distribuzione {Fn}n1 esiste uno spazio di probabilita`(,F ,P) e una successione di variabili aleatorie {X}n1, indipendenti e tali che FXn(x) = Fn(x)?

    Ci sono due risposte possibili a questa domanda, una dovuta a Kolmogorov e una dovuta a Skorohod: noiaccenneremo alla risposta di Kolmogorov, mentre vedremo la risposta di Skorohod in cui lo spazio di probabilita`e` semplicemente

    ((0, 1),B(0, 1), |(0,1)

    ), dove B(0, 1) e` la sigma-algebra dei boreliani e |(0,1) e` la misura di Lebesgue

    ristretta allintervallo (0, 1).

    Questi appunti (parzialmente basati su appunti scritti per altri corsi) non sono in nessun modo completi. Le lezionisono basate principalmente sui testi di Billingsley [1] e di Koch [2].

    ATTENZIONE: le notazioni potrebbero differire da quelle usate a lezione.

    GLI APPUNTI NON SONO ANCORA COMPLETATI(ad esempio, nella sezione sui vari tipi di convergenza,mancano le definizioni), E NON SONO STATI ANCORA CORRETTI.

    1Nel caso piu` semplice la funzione di distribuzione FXn e` addirittura sempre la stessa, ma, come vedremo questa condizione non e`necessaria.

  • CP31-nov-2009 iii

    PROGRAMMA PROVVISORIO DEL CORSO

    CALCOLO DELLE PROBABILITA` 3 I Semestre , A. A. 2009/10

    docente: Giovanna Nappo,

    (ufficio n.108, tel. 49913262, e-mail: [email protected])

    Prerequisiti: Nozioni di base di Probabilita`, acquisibili attraverso i corsi di Calcolo delle Probabilita` 1 e 2.In particolare si presuppone che lo studente conosca le nozioni di distribuzione congiunta e le distribuzioni classiche. E`inoltre consigliato avere familiarita` con i concetti di base di teoria della misura (tali nozioni sono acquisibili nel corsodi Analisi Reale).

    Obiettivi: Studio delle relazioni tra teoria della misura (misure finite) e modelli probabilistici. Studio dellepossibili descrizioni e costruzioni per variabili aleatorie. Studio di alcuni tipi di convergenza per variabili aleatorie(quasi certa, in probabilita` e in distribuzione). Acquisizione delle tecniche fondamentali di convergenza e dei risultatifondamentali del Calcolo delle Probabilita` (Legge dei Grandi Numeri e Teorema Centrale del Limite)

    TESTI CONSIGLIATI:- P. Billingsley, Probability and Measure, Wiley 1984.- G. Koch, La matematica del probabile, Aracne, 1997.ALTRI TESTI CONSIGLIATI:- D. Williams, Probability with martingales, Cambridge University Press, 1991;- L. Breiman, Probability, Addison Wesley, 1968;- Y.S. Chow, H. Teicher, Probability Theory, Springer Verlag, 1988;- B. De Finetti, Teoria delle Probabilita`, Einaudi, 1970;- W. Feller, An introduction to probability theory and its applications (Vol 1 e 2), Wiley & Sons, 1970

    Programma:

    A. MISURE DI PROBABILITA`:-algebre di eventi, -additivita` e continuita` delle misure di probabilita`. sigma-algebre generate, -sistemi e pi-sistemidi eventi, lemma pi di Dynkin, limiti superiore ed inferiore per successioni di eventi. Indipendenza stocastica frasigma-algebre, lemmi di Borel-Cantelli, sigma-algebra coda di una successione di eventi, Legge 0-1 di Kolmogoroff.Misure di probabilita` sulla retta, funzioni di distribuzione associate.

    B. VARIABILI ALEATORIE (COME FUNZIONI MISURABILI):-algebra generata da una funzione misurabile (e da un vettore aleatorio), misura indotta da una funzione misurabile(e da un vettore aleatorio).Misura di probabilita` indotta da una variabile aleatoria reale X (legge di una variabile aleatoria). Funzioni didistribuzione reali e spazi canonici: (a) i reali R e i boreliani di R con la misura indotta da X; (b) lo spazio (0, 1) coni boreliani di (0, 1) e la misura di Lebesgue ristretta a (0, 1) e costruzione di Skorohod su (0, 1).Integrazione di funzioni misurabili (cenni). Valori attesi e proprieta` fondamentali.Indipendenza stocastica per variabili aleatorie e misure prodotto, costruzione di una successione di variabili aleatorieindipendenti sullo spazio canonico (0, 1).???Applicazioni probabilistiche del Teorema di Fubini.Legge 0-1 di Kolmogoroff per variabili aleatorie. Enunciati dei teoremi di convergenza monotona e dominata.Disuguaglianza di Markov.

    C. CONVERGENZA PER SUCCESSIONI DI VARIABILI ALEATORIE:Definizioni di convergenza quasi certa, in probabilita` ed in legge (o in distribuzione) per successioni di variabili aleatorie.Relative proprieta` e relazioni. Convergenza debole per successioni di misure di probabilita`, caratterizzazioni (Teoremidi Helly) e relazioni con la convergenza in legge. Teorema di Scheffe (convergenza delle densita` di probabilita`)[soloenunciato]. Successioni tight (trattenute o strette) di misure di probabilita` e Teorema di Prohorov. Uniformeintegrabilita` e convergenza debole.

  • iv CP31-nov-2009

    D. FUNZIONI CARATTERISTICHE E TEOREMA CENTRALE DEL LIMITE:Definizione di funzione caratteristica di una distribuzione di probabilita` sulla retta e relative proprieta`. Teorema diBochner [solo enunciato]. Calcolo della funzione caratteristica in casi notevoli; distribuzioni simmetriche. Relazionetra funzione caratteristica e momenti della distribuzione. Cenno al problema dei momenti: controesempio della leggelognormale. Teorema di inversione e caso in cui la funzione caratteristica appartiene a L1(R) (e` integrabile sui realirispetto alla misura di Lebesgue).Teorema di continuita`. Teorema Centrale del Limite per successioni di variabili aleatorie indipendenti: Teorema diLindeberg-Levy, Teorema di Lindeberg con discussione della condizione di Lindeberg (la generalizzazione al caso diinsiemi triangolari e` facoltativa) Teorema di Lyapunov, Teorema di Berry-Esseen (solo enunciato).Applicazioni del Teorema Centrale del Limite (approssimazione della legge della somma di variabili aleatorieindipendenti identicamente distribuite, relazione con la formula di Stirling)

    E. LEGGI FORTI DEI GRANDI NUMERI:Legge forte con esistenza e limitatezza del momento quarto (di Cantelli). Disuguaglianza di Kolmogoroff. Criteriosufficiente di Kolmogoroff per la legge forte. Legge forte per variabili aleatorie indipendenti identicamente distribuite(i.i.d.) con momento primo (Teorema di Kinchin). Estensione al caso di variabili aleatorie i.i.d., ma con momentoprimo della parte positiva non finito.

    Riferimenti dettagliati per gli argomenti in A e B:

    [Billinsgley]:1: The Unit Interval,2: Spaces, Classes of Sets, Probability Measures,3: Uniqueness and the pi Theorem (si consiglia la lettura di tutto)4: tutto,5: se ne consiglia la lettura,10:, 11: e 12: i contenuti si considerano noti, e se ne consiglia la lettura,20: Random variables and Vectors, Subfields, Distributions, Independence, Sequences of Random Variables,Convolution,21: Expected Values and Distributions, Moments, Inequalities, Independence and Expected Values,22: Kolmogorovs 0-1 law.

    [Koch]:Cap. 4, appendice II,Cap. 5: 5.1, 5.2 e 5.3 (si consiglia la lettura anche dei rimanenti paragrafi),Cap. 6: Teorema 6.87,Cap. 8: 8.1 e 8.2 (si consiglia la lettura di 8.3),Cap. 9: 9.1 e 9.2,Cap.13: 13.2.

    Riferimenti dettagliati per gli argomenti in C, D ed E:

    [Billinsgsley]:20: Convergence in Probability,22: Kolmogorovs Inequality, The strong Law of Large Numbers,25: tutto,26: tutto,27: Identically Distributed Summands, The Lindeberg and Lyapunov Theorems.

    [Koch]:Cap.11,Cap.12: 12.1, 12.2.,Cap.13: 13.1 (fino a pag. 503), Prop. 13.34, 13.3

    (in particolare i Teoremi 13.49, 13.50, 13.51, 13.52, 13.59, 13.60)

  • Capitolo 1

    Richiami su spazi di probabilita`

    1.1 Esempi di spazi di probabilita`

    Come dovrebbe essere noto uno spazio di probabilita` e` una terna (,F ,P), dove

    F e` una -algebra , ovvero F e` una famiglia di sottoinsiemi di , cioe` F e` un sottoinsieme di P(), tale che F ; (1.1)se A F , allora Ac F ; (1.2)se An F , n N, allora nN An F ; (1.3)

    P e` una misura di probabilita` , ovvero

    P :F 7 [0, 1]; A 7 P(A)con le proprieta` che

    P() = 1; (1.4)se An F , n N, con An Am = per n 6= m, (1.5)

    allora P( nN

    An)=nN

    P(An).

    La -algebra F rappresenta linformazione disponibile, ovvero gli eventi appartenenti a F sono gli unici eventi dicui abbiamo la possibilita` di sapere se si sono verificati oppure no.

    Oltre alla misura di probabilita` P, per tutti gli eventi A F con P(A) > 0, si possono definire le probabilita`condizionate1 allevento A, che rappresentano la valutazione della probabilita` nel caso in cui si verificasse leventoA:

    P(|A)F : [0, 1] (1.6)

    E 7 P(E|A) := P(E A)P(A)

    (1.7)

    Vediamo ora alcuni esempi elementari di spazi di probabilita`:

    1E` facile verificare che la funzione P(|A) definita in (1.6) e` una probabilita`, cioe` soddisfa gli assiomi delle probabilita`. Per mettere inevidenza tale fatto va detto che Kolmogorov aveva adottato la notazione PA(), ovvero PA(E) invece di P(E|A), anche per mettere meglioin evidenza questa proprieta`.

    1

  • 2 CP31-nov-2009

    Esempio 1.1. Qualunque sia , la -algebra banale F = {,} e` una -algebra, e necessariamente P() = 1 eP() = 0.

    Esempio 1.2. Qualunque sia , preso un sottoinsieme proprio A di la -algebra F = {, A,Ac,} e` una -algebra,e necessariamente P() = 1, P() = 0, P(A) = p, P(Ac) = 1 p, per un p [0, 1].

    Esempio 1.3. Qualunque sia , sia {Hm, m = 1, 2, . . . , N} una partizione finita di , cioe` se gli eventi sonoincompatibili:

    Hn Hm = per n 6= m, n,m {1, 2, . . . , N}

    ed esaustivi:

    Nm=1

    Hm = ,

    allora la famiglia M = {A = mI Hm, al variare di I {1, 2, . . . , N}}, (con la convenzione che m

    Hm = ) e` una

    -algebra. Inoltre se p1, p2, . . . , pN sono numeri non negativi, a somma 1, ovvero

    pm 0, m = 1, 2, . . . , N,N

    m=1

    pm = 1,

    allora P : M 7 [0, 1]; A 7 P(A), con

    P(A) =mI

    pm, per A =mI

    Hm, (1.8)

    definisce una probabilita` su (,M).

    Esempio 1.4. Le proprieta` dellesempio precedente valgono anche nel caso di una partizione numerabile {Hm, m N} con i dovuti cambiamenti: cioe`, se

    Hn Hm = per n 6= m, n,m N,mN

    Hm = ,

    allora la famigliaF = {A =

    mI

    Hm, al variare di I N},

    (con la convenzione chem

    Hm = ), e` una -algebra2.

    Inoltre se p1, p2, . . . , pm, . . . sono numeri non negativi, somma 1, ovvero

    pm 0, m N,mN

    pm = 1,

    2La verifica e` banale:

    =[

    mNHm, ovvero I = N

    se A =[

    mIHm, allora A

    c =[

    mIcHm

    se An =[

    mInHm, n 1, allora

    [

    n=1

    An =[

    mIHm, per I = n=1In.

  • CP31-nov-2009 3

    allora P : F 7 [0, 1]; A 7 P(A), con

    P(A) =mI

    pm, per A =mI

    Hm, (1.9)

    definisce una probabilita` su (,F).La verifica di questultima proprieta` e` banale3.

    Elenchiamo adesso alcune proprieta` e notazioni relative alle -algebre :

    1 lintersezione di -algebre e` una -algebraSia {G, } una famiglia di -algebre, allora F :=

    G e` una -algebra4.

    2 lunione di -algebre non e` (in generale) una -algebraBasta mostrare con un controesempio che lunione di due -algebre non e` una -algebra: ad esempio seGi = {, Ai, Aci ,}, con A1 A2 6= , A1, A2, allora G1 G2 = {, A1, A2, Ac1, Ac2,} non e` una -algebra.

    3 la -algebra generata da una collezione di eventiSia K un sottoinsieme di P(), linsieme delle parti di , allora

    (K) :=

    G:KG

    e` la -algebra5 generata da K.In particolare quindi la -algebra M, generata dalla partizione {Hm; m N} come nellEsempio 1.4, coincidecon ({Hm; m N}), in quanto, come gia` visto M e` una -algebra, e inoltre ogni -algebra che contenga{Hm; m N}, deve necessariamente contenere tutte le unioni del tipo mIHm.

    4 la -algebra generata da una collezione di -algebreNel caso in cui K = G, dove G sono -algebre, allora si pone

    G :=

    (

    G).

    In particolare se M = ({Hm; m N}) e N = ({K`; ` N}), allora

    MN = ({Hm K`; m N, ` N}) ={E =

    (m,`)J

    Hm K`; con J N N}.

    3La funzione P :M 7 [0, 1] definita in (1.9) e` una probabilita`, infattiP() =X

    mNpm = 1,

    se An =[

    mInHm M, n N, con An An = per n 6= n,

    allora[

    nNAn =[

    mIHm con I =[

    nNIn, e con In In = per n 6= n,

    e quindi P

    [

    nNAn

    = P

    A

    =X

    `Ip` =X

    nN

    X

    mInpm =X

    nNP

    An

    ,

    4La verifica e` banale:

    F , in quanto G, per ogni ;se A F , cioe` se A G, per ogni , allora Ac G, per ogni , e quindi Ac F ;se An F , n N cioe` se An G, per ogni , n N allora[

    nNAn G, per ogni , e quindi[

    nNAn F ;

    5Il fatto cheT

    G:KG sia una -algebra, deriva dalla proprieta` che lintersezione di -algebre e` una -algebra.

  • 4 CP31-nov-2009

    5 la -algebra dei Boreliani Nel caso in cui K = A, la famiglia degli aperti di Rk, alloraB(Rk) := (A)

    e` detta -algebra dei boreliani, o -algebra di Borel, ed ogni elemento di I di B(Rk) e` detto boreliano.

    1.2 Variabili aleatorie

    Definizione 1.1. Dato uno spazio di probabilita` (,F ,P)6, una variabile aleatoria reale X e` una funzioneF-misurabile, ovvero una funzione

    X : 7 R; 7 X(),tale che la controimmagine di ogni aperto O A sia un elemento di F7, cioe` tale che

    X1(O) := { tali che X() O} F , per ogni aperto O A.

    Si dice anche che X e` una variabile aleatoria F-misurabile.Una definizione analoga vale nel caso di variabili aleatorie multidimensionali

    X : 7 Rk; 7X() = (X1(), . . . , Xk()),basta infatti sostituire R con Rk.

    Vediamo alcuni esempi di variabili aleatorie F-misurabili, al variare della -algebra F .Esempio 1.5. Se F = {,}, allora le uniche variabili aleatorie reali X F-misurabili sono le costanti:Se X : 7 R; 7 X() = c, allora X1(O) e` levento impossibile(=insieme vuoto ), se c / O, oppure e` linsiemecerto(=), se c O.Viceversa se X : 7 R; 7 X() non e` costante allora X assume almeno due valori c1 e c2 distinti (cioe` esistonoi tale che X(i) = ci, per i = 1, 2, con c1 6= c2). Quindi se c1 O, ma c2 / O, allora 1 X1(O), mentre2 / X1(O), ovvero X1(O) (dove le inclusioni sono in senso stretto), e quindi X non e` F-misurabile.

    Si noti che lesempio precedente mostra anche che tutte le variabili aleatorie costanti sono misurabili rispetto aqualunque -algebra ({,} F , per ogni -algebra F).

    Esempio 1.6. Sia {Hm, m N} una partizione numerabile, e siaM come nellesempio 1.4. Allora X : 7 R; 7X() e` M-misurabile, se e solo se esiste una successione di costanti {cm, m N}8, tale che

    X() =mN

    cmIHm(). (1.10)

    Se X e` definita come in (1.10) allora X e` M-misurabile, infatti per ogni aperto O,

    X1(O) =

    m:cmOHm,

    ovvero X1(O) = mI Hm M, per I = {m : cm O}.Viceversa se X e` M-misurabile, cioe`, per ogni aperto O, esiste un I N tale che

    X1(O) =mI

    Hm,

    6In realta` basta che ci sia uno spazio probabilizzabile, ovvero basta solo la coppia (,F), mentre non e` necessario specificare la misuradi probabilita` P.

    7Si noti lanalogia con la definizione di funzione continua f : Rk 7 Rd, come una funzione tale che le controimmagini di aperti sonoaperti.

    8Si noti che non si assume che i valori di {cm} siano tutti distinti, ad esempio nel caso della successione costante, cioe` cm = c per ognim N, si trova una variabile aleatoria costante.

  • CP31-nov-2009 5

    allora qualunque sia c R, preso On lintervallo aperto (c 1/n, c+ 1/n) si ha che

    X1({c}) = X1(n

    On) =n

    X1(On) =n

    mIn

    Hm =

    mTn InHm M,

    Esempio 1.7. Sia X : 7 R; 7 X(), una funzione discreta, ovvero tale che limmagine X() = {x R, tali che esiste un con X() = x} di X sia un insieme numerabile (finito o infinito), cioe` X() = {xm,m N},con xn 6= xm per n 6= m. Allora

    X() =mN

    xmIHm(), (1.11)

    doveHm = X1({xm}) = { tali che X() = xm}.

    Si noti che {Hm, m N} forma una partizione numerabile.

    Inoltre la funzione X e` una variabile aleatoria F-misurabile, se e solo seHm = X1({xm}) F , per ogni m N,

    come e` immediato da (1.11), osservando che, come nel caso precedente,

    X1(O) =

    m:xmOHm.

    Infine la variabile aleatoria X si dice semplice o elementare, se linsieme X() e` un insieme finito.

    Si puo` dimostrare che

    1 se X e` una variabile aleatoria F-misurabile, allora la controimmagine X1(I) F , per ogni boreliano I B(R),2 la variabile aleatoriaX e` F-misurabile, se e solo se ciascuna componenteXi e` F-misurabile9, per ogni i = 1, . . . , k.In particolare X1({x}) F , per ogni x R, in quanto {x} = n(x 1/n, x+ 1/n).

    Connessa con la precedente Definizione 1.1 e` la seguente definizione:

    Definizione 1.2. Sia data una funzione X : 7 Rk; 7 X() = (X1(), . . . , Xk()). Si dice -algebragenerata da X, la -algebra

    (X) =

    GRXG

    dove RX e` la famiglia delle -algebre, per le quali X e` G-misurabile10.Si dimostra che

    3 La -algebra generata da X, si puo` caratterizzare come:

    (X) = {A =X1(I), per I B(Rk)},

    4 la funzione X e` F-misurabile, se e solo se (X) F ,5 le variabili aleatorie (X)-misurabili a valori in Rd sono tutte e sole le variabili aleatorie Z per le quali esisteuna funzione g boreliana11 tale che

    Z = g(X).9Dimostriamo solo la necessita`, che e` immediata: basta prendere O = R R| {z }

    i1 volte

    Oi R R| {z }

    ki volte

    .

    10La famiglia RX non e` vuota, in quanto contiene almeno G = P(), linsieme delle parti di .11Una funzione g : Rk 7 Rd, si dice boreliana se e` una funzione tale che le controimmagini di aperti sono boreliani.

    Ovviamente le funzioni continue sono boreliane. Sono boreliane anche le funzioni continue a tratti, o meglio ancora costanti a tratti.Per chi non avesse familiarita` con i concetti di misurabilita` puo` pensare a queste funzioni, o a funzioni che siano limite puntuale di funzionidi uno dei due tipi precedenti.

  • 6 CP31-nov-2009

    Esempio 1.8. Sia X una funzione semplice, come in Esempio 1.7, allora

    (X) = ({Hm, m N}) = {A =mI

    Hm; I N},

    dove Hm = X1({xm}).

    Inoltre tutte e sole le variabili aleatorie (X)-misurabili sono le funzioni

    Z : 7 R; 7 Z() :=m

    cmIHm ,

    come discende immediatamente dallEsempio 1.6. Di conseguenza se g : R 7 R tale che g(xm) = cm, per ogni m N,allora

    Z() :=m

    cmIHm = Z() =m

    g(xm)IX1({xm})() =m

    g(xm)I{xm}(X()

    )= g(X()).

    Terminiamo questa sezione, ricordando che le operazioni di massimo, minimo, somma, prodotto, di due funzionimisurabili, danno luogo a funzioni misurabili: quindi se X ed Y sono variabili aleatorie F-misurabili, lo sono ancheX Y = max(X,Y ), X Y = min(X,Y ), X + Y , XY . In particolare sono variabili aleatorie X+ := X 0 eX := (X) 0.

    1.3 Distribuzioni di variabili aleatorie

    Sia (, F , P) uno spazio di probabilita` e siaX : 7 Rk; 7 X()

    una variabile aleatoria a valori in Rk . Tramite X e` possibile definire una misura di probabilita` PX sullo spaziomisurabile (Rk,B(Rk)) nel seguente modo:

    PX : B(Rk) 7 [0, 1] I 7 PX(I) := P(X I).

    E` facile verificare che effettivamente PX definisce una probabilita` sui boreliani B(Rk). La misura di probabilita` cos`definita e` detta misura di probabilita` indotta da X, o distribuzione di X.

    A volte, per indicare la misura di probabilita` indotta, si usa il simbolo PX1, che nasce dall fatto chePX(I) := P

    (X I) = P(X1(I)). Nel seguito, a volte useremo anche il simbolo X per indicare la distribuzione di

    probabilita` di X.Come e` noto, associata alla variabile aleatoria X ce` anche la funzione di distribuzione12

    FX(x) := P( : X() x) = PX((, x]), x Rk. (1.12)

    La funzione di distribuzione gode di alcune proprieta` caratterizzanti13:

    Proprieta` delle funzioni di distribuzione

    0 FX(x) [0, 1]1 La funzione FX e` continua dallalto14, nel senso che, per ogni x Rk si ha

    limyx

    FX(y1, , yi, , yk) = F (x1, , xi, , xk),

    dove y x significa yi x+i , per ogni i = 1, , k.12Si ricordi che, per k 1, levento e linsieme nella (1.12) sono rispettivamente

    { : X() x} = { : X1() x1, , Xk() xk} e (, x] = (, x1] (, xk].

    13Si veda la sezione 2.114Nel caso k = 1 la proprieta` 1 corrisponde alla continuita` da destra.

  • CP31-nov-2009 7

    2 La funzione FX(x) e` monotona non decrescente.

    3 Siano a = (a1, , ak) e b = (b1, , bk), si definisca

    (a, b) = {x Rk : i = 1, , k, si ha xi = ai oppure xi = bi},

    e si definisca na(x) il numero di i tali che xi = ai, per x (a, b).Se ai bi, per ogni i = 1, , k, allora15

    x(a,b)(1)na(x)FX(x) 0.

    4 Per ogni x Rk e per ogni i = 1, , k si ha che

    limyi

    FX(x1, , xi1, yi, xi+1, , xk) = 0.

    Inoltrelim

    |x|+FX(x1, , xi1, xi, xi+1, , xk) = 1.

    E` importante sottolineare che la funzione di distribuzione FX individua la misura di probabilita` indotta PX sullafamiglia (di boreliani)

    (, b] := {x Rk : xi bi} con b = (b1, , bk) Rk.Questa famiglia ha la proprieta` di essere chiusa rispetto allintersezione finita:

    (, b] (, b] = (, b b], dove b b := (b1 b1, , bk bk).

    Cio` e` sufficiente a individuare la misura di probabilita` indotta, grazie a un risultato molto utile di teoria dellamisura:

    Lemma 1.1 (Lemma di Dynkin, Billingsley 1984 [1]). Sia A una famiglia di eventi che genera la -algebra G e chee` chiusa rispetto alla intersezione finita (cioe`: A, B A implica A B A). Se due misure di probabilita` e coincidono su A, allora le due misure coincidono su G = (A).Definizione 1.3 (variabili aleatorie con densita` discreta). Si dice che una variabile aleatoria elementare X ha densita`discreta (

    x1 x2 xmp1 p2 pm

    )dove x1, x2, xm sono elementi di Rk e p1, p2, pm sono numeri reali tali che

    pj 0 per ogni j = 1, 2, ,m,mj=1

    pj = 1,

    15Nel caso k = 1, la proprieta` 3 corrisponde alla proprieta` di monotonia 2:

    se a b allora FX(a) FX(b).

    Nel caso k = 2, invece la proprieta` 3 diviene:

    se a1 b1 e a2 b2 allora FX(b1, b2) FX(a1, b2) FX(b1, a2) + FX(a1, a2) 0.

    Per k 2 la proprieta` 3 non si riduce alla proprieta` di monotonia 2, come mostra il seguente controesempio:

    F (x1, x2) =]

    (

    0 se x < 0, oppure se x+ y < 1, oppure se y < 0.

    1 se x 0, y 0, e x+ y 1Si vede facilmente che F e` una funzione monotona. Tuttavia F non soddisfa la proprieta` 3, infatti

    F (1, 1) F (1, 0) F (0, 1) + F (0, 0) = 1 1 1 + 0 = 1.

  • 8 CP31-nov-2009

    se, per ogni boreliano I, valePX(I) := P(X I) =

    mj=1

    xjI

    pj .

    In particolare quindi il significato di pj e` chiaro, essendo

    P(X = xj) = pj .

    La definizione e` analoga nel caso di variabili aleatorie discrete, la cui distribuzione viene caratterizzata attraverso unadensita` discreta su un insieme numerabile {xk, k 1}(

    x1 x2 xm xm+1 p1 p2 pm pm+1

    )Esempio 1.9 (variabili aleatorie con distribuzione binomiale). Ogni variabile aleatoria X per la quale

    PX(I) :=n

    h=0hI

    (n

    h

    )ph (1 p)nh

    viene detta una variabile aleatoria binomiale di parametri n e p e si scrive in breve X Bin(n, p).Definizione 1.4 (variabili con densita`). Sisupponga di avere una funzione f : Rk 7 R con le proprieta`:

    f(x) 0 per ogni x Rk,Rkf(x) dx = 1,

    si dice che X ha distribuzione con densita` (di probabilita`) f se accade che, per ogni boreliano I B(Rk),

    PX(I) :=If(x) dx.

    Esempio 1.10 (distribuzione gaussiana). Come caso particolare si consideri il caso della variabile aleatoriaunidimensionale con densita`

    f(x) =12pi

    e(x)222

    dove e` un numero reale e e` un numero (strettamente) positivo. Una variabile aleatoria con questa distribuzione e`detta gaussiana o normale di valore atteso (o valore medio) e varianza 2. Brevemente si indica X N(, 2).Se = 0 e 2 = 1 si dice che X e` una variabile gaussiana (o normale) standard.

    Vediamo ora dei semplici esempi di calcolo della distribuzione indotta.

    Esempio 1.11 (una variabile aleatoria binomiale). Sia

    = {0, 1}N = { = (1, 2, . . . , N ), con i {0, 1}, per i = 1, 2, . . . , N},sia

    F = P(),linsieme delle parti di , sia la probabilita` definita attraverso la relazione

    P({}) := pPN

    i=1 i (1 p)NPN

    i=1 i ,

    dove p e` un numero fissato con la condizione che p (0, 1). Sia infine X la variabile aleatoria definita da

    X() :=Ni=1

    i.

    Si vede facilmente che

  • CP31-nov-2009 9

    1 la variabile aleatoria X assume solo i valori {0, 1, . . . N},

    2 per h {0, 1, . . . N} si ha16PX(h) := P(X = h) =

    (N

    h

    )ph (1 p)Nh,

    3 per ogni boreliano IPX(I) := P(X I) =

    Nh=0hI

    (N

    h

    )ph (1 p)Nh

    Esempio 1.12 (Variabili esponenziali). Sia = (0, 1) F = B(0, 1) e P la misura di Lebesgue su (0, 1). Sia > 0 eX() := log(1 )/. Allora

    FX(x) = P(X x) = mis{ (0, 1) : log(1 ) x} = mis{ (0, 1) : 1 ex},

    e quindi

    FX(x) =

    {0 per x 0,1 ex per x > 0.

    Per il Lemma di Dynkin (Lemma 1.1) sappiamo che la funzione di distribuzione individua univocamente ladistribuzione di X. E` quindi facile convincersi che, tale distribuzione coincide con la distribuzione

    (dx) = 1(0,)(x) ex dx,

    che e` nota come la distribuzione esponenziale di parametro .Sempre nello stesso spazio si puo` definire la variabile aleatoria

    Y () = log()

    ,

    dove e` una costante strettamente positiva. E` facile vedere che Y ha distribuzione esponenziale, di parametro .

    Esempio 1.13. Sempre nello stesso ambito dellesempio precedente, ci si puo` chiedere quale sia la distribuzionecongiunta di X e Y , ossia la distribuzione del vettore aleatorio (X,Y ).

    Chiaramente, si ha X(), Y () > 0 e inoltre

    Y () = log(1 eX())

    ,

    come si ottiene subito da = 1 eX().

    Di conseguenza, se G := {(x, y) : x > 0, y > 0, ey = log(1e x

    ) }, e` facile convincersi che

    PX,Y (I) = (pix(G I)

    )(=

    (piy(G I)

    ))dove pix e piy sono le proiezione sullasse x e sullasse y, rispettivamente.

    16Levento Ah := {X = h} e` rappresentato dallinsieme, di cardinalita`Nh

    , i cui elementi = (1, 2, . . . , N ) hanno la proprieta` chePN

    i=1 i = h. La probabilita` di ciascuno di questi vale quindi

    P() = pPNi=1 i (1 p)NPNi=1 i = ph (1 p)Nh

    e la probabilita` dellinsieme vale

    P(X = h) = P(Ah) =X

    AhP() =X

    Ahph (1 p)Nh = |Ah|ph (1 p)Nh =N

    h

    ph (1 p)Nh

  • 10 CP31-nov-2009

    Esempio 1.14 (trasformazione di Box-Muller). Sia = (0, 1) (0, 1), con la misura di Lebesgue sui boreliani. SianoX(1, 2) :=

    2 log1 cos(2pi 2);

    Y (1, 2) :=2 log1 sin(2pi 2);

    Si puo` dimostrare che la distribuzione congiunta di (X,Y ) ammette densita` si probabilita`

    pX,Y (x, y) =12pi

    ex2+y2

    2 =12pi

    ex22

    12pi

    ex22

    Tale densita` caratterizza le variabili aleatorie gaussiane com media nulla e matrice di covarianza lidentita` (si vedalAppendice 1.6).

    A volte, invece di definire lo spazio di probabilita` e la variabile aleatoria X ed infine trovare la distribuzione di X,si puo` dare direttamente la distribuzione di X. Questo e` il caso delle variabili aleatorie che vengono caratterizzatesolo attraverso la densita` discreta o con densita` (di probabilita`).

    Piu` in generale, le distribuzioni si possono specificare solo attraverso la funzione di distribuzione.Quando si specifica una variabile aleatoria attraverso la sua distribuzione, e ancor di piu` se invece si specifica solo

    una funzione che goda delle proprieta` delle funzioni di distribuzione (si veda pag. 6), rimane il dubbio che una talevariabile aleatoria esista, ovvero che esista uno spazio di probabilita` (,F ,P) e una variabile aleatoria X. A questoproblema risponde il teorema di Skorohod (vedere Appendice 2.1).

    1.4 Valori attesi

    In questa sezione ricordiamo come si puo` definire il valore atteso per variabili aleatorie generali, a partire dalla suadefinizione per variabili aleatorie semplici. Per maggiori approfondimenti si rimanda, ad esempio, al libro di Billingsley[1] o a quello di Williams [3].

    Definizione 1.5 (Valore atteso per variabili semplici). Sia X una variabile aleatoria in (,F ,P), non negativa esemplice, cioe` come in Esempio 1.7,

    X() =mN

    xmIHm(), con Hm F per ogni m N,

    allora si definisceE[X] =

    mN

    xmP(Hm).

    Osservazione 1.1. Ogni variabile aleatoria X in (,F ,P), non negativa, ammette una successione di variabilialeatorie Xn, semplici e non negative, tali che

    0 Xn() Xn+1(), e tali che limnXn() = X().

    Infatti17 basta prendere

    Xn() =n2n1m=0

    m

    2nIH(n)m() + nI

    H(n)n2n

    () =n2n1m=0

    m

    2n1[ m2n ,m+12n )(X()) + n1[n,)(X()), (1.13)

    17La monotonia della successione delle variabili aleatorie Xn e` evidente: se Xn() = m/2n, con m < n2n, allora i soli casi possibili sono

    Xn+1() = (2m)/2n+1 = m/2n = Xn(),

    oppure

    Xn+1() = (2m+ 1)/2n+1 = m/2n + 1/2n+1 > Xn();

    se Xn() = n allora Xn+1() puo` assumere un valore compreso tra n ed n+ 1.

    Per la convergenza basta osservare che, qualunque sia , pur di prendere n sufficientemente grande e in modo che X() < n, si hache

    0 X()Xn() 1/2n.

  • CP31-nov-2009 11

    dove si e` postoH(n)m = X

    1 ([m2n ,

    m+12n

    )) F per 0 m n2n 1, H(n)n2n = X1([n,)),e, per A F ,

    IA() = 1 se A e IA() = 0 se / A,ed infine, per a < b numeri reali,

    1[a,b)(x) = 1 se x [a, b) e 1[a,b)(x) = 0 se x / [a, b).

    E` infine interessante notare che, posto bxc la parte intera inferiore18 di x, si puo` riscrivere nel seguente modo

    Xn() =b2nX()c

    2n n.

    Definizione 1.6 (Valore atteso per variabili nonnegative). Sia X una variabile aleatoria in (,F ,P), non negativa,si definisce

    E[X] = sup{ ni=1

    infAi

    X()P(Ai) al variare tra le partizioni dellevento certoA1, , An}.

    Si dimostra cheE[X] = lim

    nE[Xn],

    dove {Xn; n N} e` la successione monotona definita come in (1.13) dellOsservazione precedente. Il limite esiste ede` monotono, per la proprieta` di monotonia del valore atteso, sulle variabili aleatorie semplici. Si noti bene che talelimite puo` valere anche +, nel qual caso si dice che la variabile X ha valore atteso infinito.Osservazione 1.2. **Ovviamente se {Xn; n N} e` unaltra successione di variabili aleatorie semplici che convergemonotonamente ad X, anche la successione dei valori attesi E[Xn] e` una successione che converge monotonamente. Sipuo` dimostrare che il limite non dipende dalla successione scelta19 ed in particolare coincide con il limite consideratonella precedente Definizione 1.6.

    Arriviamo ora alla definizione generale del valore atteso:

    Definizione 1.7 (Valore atteso per variabili generali). Sia X una variabile aleatoria in (,F ,P), Siano X+ := X0 eX := (X)0, le variabili aleatorie non negative, definite alla fine della sezione precedente. Si noti che X = X+Xe che invece |X| = X+ +X. Si definisce allora, se ha senso20

    E[X] = E[X+] E[X].18La parte intera inferiore bxc di x e` quel numero intero k tale che k x < k + 1.19**Per ottenere lunicita` del limite basta dimostrare che se {Yn; n N} e {Zn; n N} sono due successioni di variabili aleatorie

    semplici che convergono monotonamente ad X, allora per ogni k si ha

    E[Yk] limnE[Zn],

    da cui si deduce immediatamente che limk E[Yk] limn E[Zn]e quindi luguaglianza, scambiando il ruolo delle due successioni.Si fissi quindi k e si consideri che, per ipotesi Yk e` semplice e che quindi si puo` scrivere Yk =P`

    i=1 yiIAi , dove Ai = {Yk = yi} (ovviamente `ed yi dipendono da k, ma tralasciamo lindice k per comodita` di notazione e perche e` inessenziale). Sia ora > 0 e B

    (n)i = Ai{Zn > yi}.

    Essendo {Zn; n N} una successione monotona si ottiene che B(n)i B(n+1)i . Inoltre Yk() X() e Zn() X() e quindi se Ai,ossia se Yk() = yi, allora per un n sufficientemente grande deve valere Zn() > yi e quindiS

    nB(n)i = Ai. Per la continuita` della

    probabilita` deve valere allora che P(B(n)i ) P(Ai). Ovviamente si ha

    E[Zn] X`

    i=1

    (yi )P(B(n)i ) e quindi limnE[Zn] X`

    i=1

    (yi )P(Ai).

    Per larbitrarieta` di si ha allora limn E[Zn] P`

    i=1 yiP(Ai) = E[Yk].20Si considera che la somma E[X+] E[X] ha senso1 se E[X+]

  • 12 CP31-nov-2009

    Se invece di usare la probabilita` P si usa la probabilita` condizionata ad un evento A, ovvero P(|A), allora si parladi valore atteso di X condizionato allevento A e si usa la notazione

    E[X|A].Cio` significa che, nel caso di una variabile aleatoria semplice

    X() =mN

    xmIHm(), con Hm F per ogni m N,

    si haE[X|A] =

    mN

    xmP(Hm|A).

    **Terminiamo questa sezione ricordando che la definizione di valore atteso di una variabile aleatoria X corrispondealla definizione dellintegrale della funzione misurabile X rispetto alla misura P e che per il valore atteso valgono i duefamosi risultati di passaggio al limite sotto il segno di integrale:Teorema della convergenza monotona: se Xn sono variabili aletaorie limitate dal basso e che convergonomonotonamente ad X (P q.c.) allora la successione dei valori attesi E[Xn] converge monotonamente a E[X].

    Teorema della convergenza dominata: se Xn sono variabili aletaorie che convergono ad X P q.c. e se Ye` una variabile aleatoria tale che |Xn| Y , con E[Y ] < , allora la successione dei valori attesi E[Xn] converge aE[X].

    1.4.1 Variabili aleatorie in spazi misurabili

    QUESTA SEZIONE SI PUO SALTARE Oltre a definire le variabili aleatorie reali o vettoriali si possono definire inmodo naturale anche variabili aleatorie a valori in spazi misurabili.

    Definizione 1.8 (variabile aleatoria (o ente alealorio) a valori in (S,S)). Siano (,F) e (S,S) due spazi misurabili.Una variabile aleatoria a valori in S e` una funzione misurabile

    X : (,F) (S,S); 7 X().In altre parole una funzione da in S e tale che per ogni B S, la sua controimmagine tramite X appartiene a F ,ossia linsieme X1(B) F .

    Se S e` uno spazio metrico (o piu` in generale uno spazio topologico, allora la sigma-algebra S coincide con lasigma-algebra dei boreliani, ossia la sigma-algebra generata dagli aperti.

    Esempi tipici nascono quando si vogliono trattare i processi aleatori come funzioni aleatorie, ed in particolare afunzioni aleatorie continue. In tale caso si puo` prendere, ad esempio, lo spazio delle funzioni continue su [0, T ] a valorireali. Prendendo poi come sigma-algebra la sigma-algebra dei boreliani, allora si puo` affermare che funzioni come ilmassimo o il minimo, sono variabili aleatorie.

    Come si vede, nella definizione di variabile aleatoria non abbiamo neanche nominato la misura di probabilita` su(,F).

    1.5 Misura indotta e Cambio di variabile

    QUESTO ARGOMENTO E SVOLTO QUI IN MODO PIU APPROFONDITO CHE A LEZIONE.

    Negli Esempi 1.12, 1.13, 1.14 abbiamo trovato le distribuzioni di alcune variabili aleatorie a valori reali o vettoriali.In termini astratti quello che abbiamo fatto e` caratterizzare la misura indotta.

    Definizione 1.9 (Misura indotta). Siano (A1,A1) e (A2,A2) due spazi con le rispettive sigma-algebre, e sia : A1 A2, a1 7 (a1) una funzione misurabile (cioe` per ogni B2 A2 si ha che la controimmagine1(B2) A1). Supponiamo che su (A1,A1) sia definita una misura 1. Allora si definisce misura indotta (da) la misura

    2(B2) := 1(1(B2)

    ), B2 A2.

  • CP31-nov-2009 13

    Ovviamente perche la precedente definizione sia ben posta bisogna verificare che effettivamente definisca una misura(questo e` un semplice esercizio ed e` lasciato al lettore).

    Tornando agli Esempi precedentemente citati ed in particolare agli Esempi 1.12, 1.13, in entrambi (A1,A) =((0, 1),B(0, 1)) e 1 = P, la misura di Lebesgue ristretta a (0, 1), mentre A2 = R nel primo esempio e invece A2 = R2,nel secondo esempio. Inoltre nel primo esempio sono state considerate due funzioni 1() = X() = log(1) e2() = Y () = log() , mentre nel secondo esempio e` stata considerata la funzione := (1, 2). NellEsempio 1.14,invece (A1,A) =

    ((0, 1) (0, 1),B((0, 1) (0, 1)) e A2 = R2 e 1 e` la misura di Lebesgue ristretta a (0, 1) (0, 1).

    Infine la funzione e` definita da (1, 2) =(2 log1 cos(2pi 2),2 log1 sin(2pi 2)).

    Piu` in generale, nel caso di variabili aleatorie X a valori in (S;S), se nello spazio misurabile (,F) e` definita unamisura di probabilita` P, si definisce legge di X o distribuzione di X, la probabilita` PX : S [0, 1] definita come lamisura indotta da (,F ,P) tramite X:

    PX(B) := P(X B), B S.Quello che piu` ci interessa qui e` la formula del cambio di variabile negli integrali, che, nellambito del calcolo delle

    probabilita`, corrisponde alla possibilita` di calcolare i valori attesi di funzioni di variabili aleatorie X a valori21 in (S,S)sia come integrali sullo spazio (,F ,P) che come integrali sullo spazio (S,S,PX).

    In tale caso si ottiene che i valori attesi di f(X), per f funzioni misurabili e limitate, si possono calcolare sia comeintegrali sulo spazio degli eventi

    E[f(X)] =

    f(X())P(d),

    sia come integrale sullo spazio degli stati S

    E[f(X)] =S

    f(x)PX(dx).

    Riportiamo qui la dimostrazione nellambito astratto della Definizione 1.9 di misura indotta.

    Lemma 1.2 (Cambio di variabile). Sia f Mb(A2), ossia una funzione misurabile da(A2,A2

    )in (R,B(R)) e

    limitata. Allora A2

    f(a2)2(da2) =A1

    f((a1))1(da1) (1.14)

    Dimostrazione. Iniziamo con il mostrare che, per definizione di 2, (1.14) e` valida per f = IB2 , per ogni B2 A2:da una parte

    A2

    IB2(a2)2(da2) = 2(B2) := 1(1(B2)

    ),

    dallaltra, tenuto conto che IB2((a1)) = I1(B2)(a1), in quanto (a1) B2 se e solo se a1 1(B2),A1

    IB2((a1))1(da1) =A1

    I1(B2)(a1)1(da1) = 1(1(B2)

    ).

    La dimostrazione segue poi con una tecnica che e` standard nellambito della teoria della misura.

    Sia H linsieme delle funzioni f per cui e` valida luguaglianza (1.14).Linsieme H verifica le seguenti proprieta`:

    (i) linearita`, ovvero se f , g H, allora, per ogni a,b R la funzione a f + b g H21Nel caso di variabili aleatorie vettoriali lo spazio (S,S) coincide con Rd,B(Rd). Ma la formula vale anche per variabil aleatorie

    a valori in spazi piu` generali, come ad esempio gli spazi metrici, prendendo come sigma-algebra la sigma-algebra dei boreliani, ossia lasigma-algebra generata dagli aperti (in altre parole la piu` piccola sigma algebra contente gli aperti). Come gia` detto esempi di tale generesi incontrano quando ci si interessa di processi aleatori, pensati come variabili aletorie a valori in uno spazio di funzioni, ad esempio lospazio delle funzioni continue su un intervallo [0, T ], con la metrica della norma uniforme.

  • 14 CP31-nov-2009

    (come segue dalla proprieta` di linearita` per gli integrali rispetto a 1)

    (ii) la funzione 1, cioe` la funzione costante uguale ad 1, appartiene a H(come segue dallosservazione iniziale e notando che 1 = IA2 , )(iii) monotonia, ovvero se fn H e fn f , f M2(A2) allora f H(come segue dalla proprieta` della convergenza monotona degli integrali rispetto a 1)

    (iv) per ogni B2 A2, la funzione IB2 H(come segue immediatamente dalla osservazione iniziale; si noti inoltre che in realta` la (ii) segue da questa proprieta`)

    Le precedenti proprieta` assicurano che H e` una classe monotona. Basta allora applicare il teorema delle classimonotone, che per comodita` del lettore riportiamo di seguito.

    Teorema 1.3 (Teorema delle classi monotone). Sia (,F) uno spazio misurabile e sia H un insieme di funzioni realimisurabili e limitate, con le seguenti proprieta`:(i) H e` uno spazio vettoriale,(ii) H contiene la funzione costante 1,(iii) fn H, fn f , f limitata implicano f Hcioe` H e` una classe monotona.

    Se inoltre H soddisfa anche la seguente proprieta`

    (iv) H contiene le funzioni del tipo IA per ogni A A, dove A F e` un pi-sistema, cioe` e` chiuso per intersezionefinita,

    allora H contiene tutte le funzioni limitate e (A)-misurabili.Il precedente Teorema 1.2 si applica anche quando vogliamo calcolare la distribuzione di una trasformazione

    di una variabile aleatoria: ad esempio, se Z e` una variabile aleatoria con distribuzione PY ed Z = (Y ), alloraPZ(B) = PY

    (1(B)

    ), come e` immediato verificare.

    Nel caso di variabili aleatorie multivariate, e per funzioni sufficientemente regolari, si possono ottenere formuleesplicite, utilizzando noti risultati di analisi: ad esempio, se Y ammette densita` fY e e` invertibile22 e con derivatecontinue, allora anche Z ammette densita` e si ha

    fZ(z) = fY (1(z))det(1(z)z

    ) = fY (1(z)) 1det((y)y )y=1(z)

    .

    Particolarmente semplice e` il caso di trasformazioni lineari (o affini) in cui lo Jacobiano e` il determinante dellamatrice. Ad esempio se Z = AY , con A invertibile, allora 1(z) = A1z e la formula precedente diviene

    fZ(z) = fY (A1(z))1

    |det(A)| .

    Esempio 1.15. Un esempio di trasformazione che incontreremo spesso nel seguito e` il caso in cui Y = (Y1, Y2, , Ym)e

    Z1 = Y1,Z2 = Y1 + Y2, Zm = Y1 + Y2 + + Ym,

    ossia z = (y) = Ay, con

    z1 = y1,z2 = y1 + y2, zm = y1 + y2 + + ym.

    Allora la matrice A e` la matrice triangolare A =

    1 0 0 01 1 0 01 1 1 0 1 1 1 1

    con determinante uguale ad 1.22In realta` basta che esista un aperto O, tale che la densita` fY (y) = 0 per y / A e tale che sia invertibile da O a (O,

  • CP31-nov-2009 15

    La trasformazione inversa e`

    y1 = z1,y2 = z2 z1, ym = zm zm1,

    ossia y = 1(z) = A1y dove A1 =

    1 0 0 01 1 0 00 1 1 0 0 0 0 1 1

    per cui, se Y ammette densita` di probabilita`,

    fZ(z1, z2, , zm) = fY (z1, z2 z1, , zm zm1).

    Il caso m = 2 e` particolarmente interessante in quanto permette di ricavare la densita` della somma di due variabilialeatorie, semplicemente calcolando la densita` marginale di Z2 = Y1 + Y2: per z R

    fY1+Y2(x)(= fZ2(x)

    )=RfZ1,Z2(x, x

    ) dx =RfY1,Y2(x, x

    x) dx.

  • 16 CP31-nov-2009

    1.6 Variabili gaussiane

    QUESTO ARGOMENTO DOVREBBE ESSERE GIA STATO SVOLTO IN ALTRO CORSO, ALMENO INPARTE...

    Cominciamo con il definire una variabile aleatoria gaussiana standard unidimensionale:

    Definizione 1.10. Si dice che una variabile aleatoria reale Z e` gaussiana di valore atteso e varianza 2, seammette densita`

    fZ(z) =12pi

    exp

    {12

    (x

    )2}.

    In questo caso si usa la notazione Z N(, 2). Se = 0 e 2 = 1 allora si dice che Z segue una legge normaleo gaussiana standard.

    Caso ndimensionale: iniziamo con il caso di un vettore (colonna) aleatorio

    Y =

    Y1Y2 Yk Yn

    a componenti indipendenti e tutte gaussiane standard, ovvero il caso in cui

    fY (y) =ni=1

    fYi(yi) =ni=1

    12pi

    exp{12y2i

    }

    =1

    (2pi)n

    exp

    {12

    ni=1

    y2i

    }=

    1(2pi)n/2

    exp{12yy}.

    dove lapice indica loperazione di trasposizione, ovvero y e` il vettore riga (y1, y2, , yn).E` immediato verificare che E(Yi) = 0, V ar(Yi) = 1 e che Cov(Yi, Yj) = 0, per i 6= j.Sia ora A una matrice non singolare e sia m un vettore (colonna). Definiamo ora Z = AY +m e cerchiamo la

    sua densita`. Sappiamo dai risultati generali che se Y ammette densita` e Z = (Y ) con invertibile e con derivatecontinue, allora anche Z ammette densita`:

    fZ(z) = fY (1(z))det(1(z)z

    ) = fY (1(z)) 1det((y)y )y=1(z)

    di conseguenza, poiche nel nostro caso (y) = Ay +m e 1(z) = A1(z m)

    fZ(z) =12pi

    n exp{12(A1(z m))A1(z m)} 1|det(A)| .

    Essendo

    (A1(z m))A1(z m) = (z m)(A1)A1(z m)= (z m)(A)1A1(z m) = (z m)(AA)1(z m)

    si ottiene

    fZ(z) =1

    (2pi)n/21

    |det(A)| exp{12(z m) (AA)1 (z m)

    }.

    La precedente espressione si basa sulle seguenti proprieta`:

  • CP31-nov-2009 17

    (i) (A)1 = (A1)

    in quantoAz = w z = (A)1w

    e inoltre

    Az = w (zA) = w zA = w z = wA1

    z = (wA1) z = (A1) w.(ii) (AA)1 = (A)1A1

    in quanto(AA)1 z = w z = AAw A1z = Aw (A)1A1z = w.

    E` interessante notare che sia il vettore m che la matrice AA = AA hanno una interpretazione probabilistica:

    E(Zi) = E(n

    k=1

    ai,kYk) +mi =n

    k=1

    ai,kE(Yk) +mi = mi

    Cov(Zi, Zj) = E[(Zi mi)(Zj mj)] = E[n

    k=1

    ai,kYk

    nh=1

    aj,hYh] =n

    k=1

    nh=1

    ai,kaj,hE[YkYh]

    e quindi

    Cov(Zi, Zj) =n

    k=1

    ai,kaj,kE[YkYk] +n

    k=1

    1,nh 6=k

    ai,kaj,hE[YkYh] =n

    k=1

    ai,kaj,k = (AA)i,j

    Si osservi che se Z = (Z1, ..., Zn) e` un vettore gaussiano allora (Z1...Zk) e (Zk+1, ..., Zn) sono indipendenti, se esolo se Cov(Zi, Zh) = 0 per ogni i = 1, , k e h = k + 1, , n. In tale caso allora e` ovvio che il vettore (Z1...Zk) e`un vettore gaussiano23

    Terminiamo questo paragrafo con il ricordare quanto valgono imomenti di una variabile aleatoria gaussiana .Sia Z una variabile aleatoria N (0, 2). Per quanto visto prima possiamo considerare Z = Y con Y una variabilealeatoria N (0, 1). Da questa osservazione segue subito che

    E[Zk] = kE[Y k]

    eE[|Z|k] = ||kE[|Y |k].

    23Per ottenere lo stesso risultato nel caso generale, ovvero che se Z = (Z1, ..., Zn) e` un vettore gaussiano allora (Z1...Zk) e` un vettoregaussiano, si puo` procedere nel seguente modo. Innanzitutto basta considerare il caso in cui i valori attesi sono nulli senza ledere ingeneralita`. Inoltre si puo` pensare che Z = AY . Se la matrice A = (aij) e` definita in modo che a

    ij = aij qualunque siano i = 1, ...k e

    j = 1, ...., n, e il vettore aleatorio Z e` definito daZ = AY ,

    allora, chiaramente,Zi = (A

    Y )i = Zi = (AY )i, per i = 1, ...k.Se inoltre ahj per h = k + 1, ...n e j = 1, ...., n sono presi in modo che il vettore (Z

    1, , Zk) = (Z1, , Zk) sia indipendente dal vettore

    (Zk+1, , Zn), ovvero in modo che

    0 = E[ZiZh] = Cov(Zi, Z

    h) =

    nX

    `=1

    ai,`ah,`

    per i = 1, ...k e h = k + 1, ...n, allora si ottiene il risultato voluto.Nel caso in cui la matrice A sia non singolare cio` e` sempre possibile perche i vettori a(i) = (ai1, ai2, , ain) sono linearmente indipendentie quindi basta trovare n k vettori a

    (h)= (ai1, a

    h2, , ahn) ortogonali allo spazio vettoriale k-dimensionale span(a(i), i = 1, , k).

  • 18 CP31-nov-2009

    Vale poi la pena di ricordare cheE[Y 2k+1] = 0,

    E[Y 2k] = (2k 1)!! = (2k 1)(2k 3) 5 3 1,mentre24 infine

    E[|Y |2k+1] =

    2pi(2k)!! =

    2pi(2k)(2k 2) 4 2 =

    2pi2kk!.

    Prima di dimostrare queste tre uguaglianze si osservi che le ultime due si possono scrivere in modo sintetico come

    E[|Y |n] = C((1)n) (n 1)!! C(+1) = 1 C(1) =

    2pi.

    La prima relazione e` banale, per ragioni di simmetria, e permette di ricavare la seconda osservando che

    E[euY ] = eu22 =

    h=0

    1h!u2

    2

    h

    =h=0

    1h!u2h

    2h.

    e daltra parte, essendo appunto ovviamente E[Y 2k+1] = 0,

    E[euY ] = E[k=0

    1k!ukY k] =

    h=0

    1(2h)!

    u2hE[Y 2h]

    si deve necessariamente avere che i coefficienti delle due serie devono coincidere:

    1h!

    12h

    =1

    (2h)!E[Y 2h],

    ovvero

    E[Y 2h] =(2h)!h!2h

    =2h(2h 1)(2h 2)(2h 3) 3 2 1

    h(h 1) 3 2 1 2h

    =(2h)!!(2h 1)!!

    h!2h=

    2hh! (2h 1)!!2hh!

    = (2h 1)!!.

    Infine la terza si ricava per integrazione per parti e calcolando a mano che E[|Y |] =

    2pi .

    Concludiamo questo paragrafo con un lemma che riguarda il comportamento asintotico della funzione disopravvivenza di una gaussiana standard e del modulo di una gaussiana standard.

    Lemma 1.4. Sia Y una gaussiana standard, allora, posto fY (y) = 12pi e y22 , si ha, per x > 0,

    (x+

    1x

    )1fY (x) P(Y > x) 1

    xfY (x), x > 0, (1.15)(

    x+1x

    )1f|Y |(x) P(|Y | > x) 1

    xf|Y |(x), x > 0, (1.16)

    P(|Y | > x) e x22 , x > 0. (1.17)

    24Si noti che dalle ultime due relazioni sui momenti si ottiene che

    E[|Y |m] = (m 1)!!C(1)m , con C+1 = 1, C1 =r

    2

    pi.

  • CP31-nov-2009 19

    Dimostrazione. La disuguaglianza (1.16) discende immediatamente dalla prima disuguaglianza (1.15), la quale equivalea (

    x+1x

    )1 12pi

    ex22 P(Y > x) 1

    x

    12pi

    ex22 ,

    e discende dalla seguente relazione(w +

    1w

    )1e

    w22

    +w

    ez22 dz 1

    we

    w22 , w > 0. (1.18)

    La disuguaglianza destra della (1.18) discende da +w

    ez22 dz 1

    w

    +w

    z ez22 dz =

    1w

    ew22 ,

    Inoltred

    dw

    1w

    ew22 =

    (1 +

    1w2

    )e

    w22

    e quindi1w

    ew22 =

    +w

    (1 +

    1z2

    )e

    z22 dz

    (1 +

    1w2

    ) +w

    ez22 dz ,

    che prova laltra disuguaglianza nella (1.18).

    Infine, per provare la disuguaglianza (1.17), basta osservare che,

    P(|Y | > x) = 2 +x

    12pi

    ey2

    2 dy = 2 ex22

    +x

    12pi

    ey2x2

    2 dy

    = 2 ex22

    +x

    12pi

    e(y+x)(yx)

    2 dy = 2 ex22

    +0

    12pi

    e(z+2x)z

    2 dz (essendo x > 0,)

    2 e x22

    +0

    12pi

    ez22 dz = e

    x22 .

  • Capitolo 2

    Costruzione di variabili aleatori in (0, 1)

    2.1 Teorema di rappresentazione di Skorohod

    In questa sezione affrontiamo il problema seguente:

    Data una funzione F , esiste uno spazio di probabilita` (,F ,P) e una variabile aleatoria X, definita su questospazio, per la quale F e` la funzione di distribuzione, cioe` F = FX?

    Chiaramente F deve soddisfare le proprieta` delle funzioni di distribuzione, (ossia le proprieta` 0 4 di pagina 6).Si puo` dimostrare che tali proprieta` sono sufficienti a individuare una misura di probabilita` = F sui boreliani diRk, per la quale F (x) = (, x]. Di conseguenza si puo` prendere come spazio di probabilita` (Rk,B(Rk), F ) e comevariabile aleatoria lidentita`, ossia X(x1, , xk) = (x1, , xk).

    Tuttavia ce` un altro spazio in cui costruire tale variabile aleatoria, lo spazio (0, 1) con la misura di Lebesgue suiboreliani di (0, 1).

    In questa sezione ci limitiamo al caso unidimensionale, il caso a piu` dimensioni (e addirittura per successioni divariabili aleatorie viene brevemente considerato nella sottosezione ??).

    Teorema 2.1 (di rappresentazione di Skorohod). Sia data una funzione F , che verifica le seguenti proprieta`:

    P0 F e` a valori in [0, 1];

    P1 F e` non decrescente;

    P2 F e` continua a destra, cioe`, per ogni t R, lim0+

    F (t+ ) = F (t);

    P3 F e` normalizzata, cioe` limtF (t) = 0; limt+F (t) = 1.

    Sia : (0, 1) R definita da(u) := inf{y : F (y) u}.

    Allora e` boreliana, inoltre la variabile aleatoria

    X : (0, 1) R 7 X() = ()

    definita nello spazio di probabilita` (,F ,P) ((0, 1),B(0, 1), ) con la misura di Lebesgue, ha funzione didistribuzione F , ovvero FX(x) = F (x).

    Dimostrazione. La dimostrazione e` basata sul fatto che

    {u (0, 1) : (u) x} = {u (0, 1) : u F (x)} (2.1)

    per ogni x R. Dalla precedente affermazione segue infatti che:

    20

  • CP31-nov-2009 21

    (i) e` misurabile rispetto a B(0, 1);(ii) Per ogni x R risulta

    FX(x) = P( : X() (, x]) = ({u (0, 1) : (u) x}) (per definizione di X e di (,F , P ))= ({u (0, 1) : u F (x)}) (per laffermazione (2.1))

    = ((0, 1) (, F (x)]) = ((0, F (x)]) , se F (x) < 1,(0, 1), se F (x) = 1,

    ovvero

    FX(x) = F (x).

    Si tratta dunque di provare laffermazione (2.1). Dimostriamo innanzitutto che

    (u) = min{y : F (y) u}, cioe` F ((u)) u. (2.2)Infatti, essendo (u) = inf{y : F (y) u}, esiste una successione {yn}n=0 tale che:(a) F (yn) u per ogni n, e quindi yn (u),(b) {yn} tende a (u) per n.

    Allora, poiche F e` continua a destra,

    F ((u)) = limnF (yn) u.

    Possiamo ora mostrare luguaglianza in (2.1)

    Prima facciamo vedere che {u (0, 1) : (u) x} {u (0, 1) : u F (x)}, mostrando che, per ogni u in (0, 1)

    se (u) x allora u F (x).

    E infatti, poiche F e` non decrescente, se (u) x, allora F ((u)) F (x) e quindi per la (2.2)u F ((u)) F (x).

    Proviamo ora linclusione opposta {u (0, 1) : (u) x} {u (0, 1) : u F (x)}, mostrando che, per ogni uin (0, 1),

    se u F (x), allora (u) x.

    Infatti, se u F (x), allora x {y : F (y) u} e quindi inf{y : F (y) u} x, cioe` (u) x.Prima di terminare la dimostrazione lasciamo al lettore il compito di osservare che fino ad ora non abbiamo

    (esplicitamente) usato la proprieta` P3 di normalizzazione. Tuttavia tale proprieta` serve per garantire che la funzione sia a valori reali.

    Dallaffermazione (2.1) segue anche il seguente Corollario.

    Corollario 2.2. Sia U una v.a. uniformemente distribuita1 in (0, 1). Allora X := (U) ha distribuzione F1Ricordiamo che U Unif(0, 1) e` una v.a. che ha densita`

    f(t) :=

    1, 0 < t < 10, altrove

    che e` la derivata della funzione

    F (t) FU (t) =8

    1

    Per una funzione con questa densita` vale

    P(U [a, b]) =Z b

    adt = b a

    quantita` che dipende solo dallampiezza dellintervallo, il che spiega la dizione uniforme

  • 22 CP31-nov-2009

    Dimostrazione. Infatti

    P(X x) = P((U) x) = P(U {u (0, 1) : (u) x}) (per laffermazione (2.1))= P(U {u (0, 1) : u F (x)}) = F (x). poiche U Unif(0, 1)

    Sempre la stessa proprieta` (2.1) ci garantisce che la funzione X e` crescente:

    Osservazione 2.1 (Crescenza di X). Sia , vogliamo mostrare che X() = min{x : F (x) } X().La relazione (2.1) garantisce che X() = min{x : F (x) } e quindi si ha che

    F(X()

    ) .Quindi (in quanto )

    F(X()

    ) ,e cioe` X() {x : F (x) } da cui

    X() = min{x : F (x) } X().

    Osservazione 2.2 (spazi completi). Terminiamo questa sezione con una osservazione importante, che riguarda lapossibilita` di considerare spazi di probabilita` completi, cioe` di spazi che contengono anche gli insiemi trascurabili

    N = {A : B F , tale che A B, e P(B) },

    ossia i sottoinsiemi degli insiemi di misura nulla: infatti, se A e` trascurabile allora esiste una successione di eventiB1/n tali che, per ogni n, B1/n contiene A e con probabilita` minore uguale a 1/n. Non si lede in generalita` a supporreche B1/n sia una successione monotona. Di conseguenza A B := n=1B1/n e P(B) = 0.

    E` noto che la misura di Lebesgue si puo` costruire (estendendo la misura definita sullalgebra delle unioni finite diintervalli) su spazi completi, e sulla -algebra L(0, 1) degli insiemi Lebesgue misurabili, che e` appunto il completamentodella -algebra B(0, 1) dei boreliani. Tutte le funzioni boreliane sono ovviamente L-misurabili (cioe` misurabili secondoLebesgue). Quindi la variabile aleatoria definita nel teorema di Skorohod e` ancora misurabile se consideriamo((0, 1),L(0, 1), ), invece di ((0, 1),B(0, 1), ), e quindi possiamo affermare che il teorema di Skorohod assicura che,data F che soddisfa le proprieta` P0 - P3 esiste uno spazio completo, dove e` possibile definire una variabile aleatoriaX con FX = F .

  • CP31-nov-2009 23

    2.2 Costruzione di una succesione di variabili aleatorie indipendenti

    Laffermazione che una successione di variabili aleatorie {Xn , n N} e` una successione di v.a. indipendenti conXn = n, e` unaffermazione che riguarda le distribuzioni finito dimensionali del processo {Xn , n N}. Lesistenzadi una tale successione si potrebbe quindi dedurre dal teorema di rappresentazione di Kolmogorov, o magari da unrisultato ad hoc la cui prova fosse la semplificazione del procedimento usato nel dimostrare tale teorema. Tuttavialesistenza di una tale successione tuttavia si puo` dedurre direttamente, pur di dare per scontato che esiste la misura diLebesgue su (0, 1). Infatti su (0, 1) si possono definire delle variabili aleatorie indipendenti ed identicamente distribuite,a valori nellinsieme {0, 1}, e che assumono il valore 0 con probabilita` 1/2 (lo stesso vale per il valore 1). A partire daquesta successione di variabili aleatorie si puo` costruire una successione di variabili aleatorie {Uj , j N} indipendentied uniformi in (0, 1), come descritto qui di seguito. Infine, posto Fn(x) = n

    ((, x]), la successione cercata e` data

    dalla successione delle v.a. F1n (Un).

    Lemma 2.3 (Successioni di v.a. indipendenti uniformi in (0, 1): esistenza). Nello spazio = (0, 1) con la misura diLebesgue sui boreliani, e` possibile avere una successione di v.a. uniformi in (0, 1) ed indipendenti.

    Per costruire tale successione si ricordi che scrivendo (0, 1) in forma diadica

    =1

    Wi()12i,

    le v.a. Wi risultano indipendenti e P(Wi = 0) = P(Wi = 1) = 12 . La successione Un di v.a. uniformi ed indipendenti sipuo` costruire, a partire dalle v.a. {Wi}, riordinandole in modo che formino una sequenza a doppio indice {Wi,n} cos`da poter definire

    Un() =i=0

    Wi,n()12i.

    Ad esempio si puo` prendere Wi,n =W2i1(2n+1), che corrisponde a riordinare la successione {Wi} in questo modo:W1 W3 W5 W7 W9 W2 W6 W10 W14 W4 W12 W20 W28 W8 W24 W40 ...

    ......

    ottenendo da {Wi} infinite sottosuccessioni (corrispondenti alle colonne di questa matrice) in modo tale che nessunaWi venga tralasciata ne ripetuta.

    ****Rimane da osservare che, per ogni n, la variabile aleatoria Un e` misurabile secondo Fn := (Wi,n, i 1), e che

    tali sigma algebre sono indipendenti2. Quindi le variabili aleatorie Un formano una succesione di variabili aleatorieindipendenti.

    Inoltre poiche le variabili aleatorie Un() sono definite attraverso le Wk,n, k 1, esattamente come la variabilealeatoria U() = e` costruita attraverso le Wk(), k 1, e, per ogni n, la successioni di variabili aleatorie Wk,n,k 1 e` una successione di variabili aleatorie indipendenti identicamente distribute (esattamente come Wk(), k 1)anche la legge di Un e` la stessa di U e cioe` uniforme su (0, 1).

    Osservazione 2.3. **Ribadiamo che la precedente costruzione e` riportata affinche sia chiaro che laffermazione cheesiste una successione di v.a. indipendenti ed uniformi in (0, 1), e` vera.

    A questo punto, data una successione di funzioni di distribuzione Fn, per costruire una successione di variabilialeatorie indipendenti Yn e con funzione di distribuzione Fn, basta mettersi nello spazio

    ((0, 1),B(0, 1), |(0,1)

    ), definire

    Yn() = Fn(Un()

    ),

    2Si confronti il Corollario 2 pag. 50 di [1] oppure, meglio il Teorema 20.2 pag. 268.

  • 24 CP31-nov-2009

    dove le Un sono le variabili aleatorie definite sopra, e infine usare il Corollario 2.2, per ottenere che Yn ha funzione didistribuzione FYn = Fn, e infine, grazie allosservazione che Yn e` misurabile rispetto alla sigma algebra generata daUn, dedurre che le Yn formano una successione di variabili aleatorie indipendenti.

  • CP31-nov-2009 25

    2.3 Convergenza per variabili aleatorie

    Esistono vari tipi di convergenza per variabili aleatorie. Noi ci occuperemo principalmente di tre tipi di convergenza:

    1 CONVERGENZA QUASI CERTAmettere definizione

    2 CONVERGENZA IN PROBABILITA`mettere definzione

    3 CONVERGENZA IN LEGGE O IN DISTRIBUZIONE (DETTA ANCHE DEBOLE)mettere definizione

    Valgono le seguenti implicazioni

    Xn n X P q.c.

    XninPrn X

    XnL

    n X

    Nel caso in cui X e` una variabile aleatoria degenere (ossia se esiste un a R tale che P(X = a) = 1) allora laconvergenza in probabilita` equivale alla convergenza in legge:

    XninPrn a

    mXn

    Ln a

    Infine vale anche una specie di implicazione inversa, nel senso specificato dal teorema di immersione di Skorohod (vediil successivo Teorema 2.4)

    XnL

    n X

    (, F , P), Xn, X, with Xn L= Xn, X L= X

    e tali che

    Xn n X P q.c.

    Teorema 2.4 (Teorema di rappresentazione di Skorohod per successioni). Se la successione di variabili aleatorie Xnconverge in legge ad X, allora esiste uno spazio di probabilita` (, F , P), e una successione di variabili aleatorie Xn euna variabile aleatoria X su tale spazio, con la stessa legge di Xn e di X, rispettivamente, e tali che

    Xn n X P q.c.

    Dimostrazione. Come nel teorema di rappresentazione di Skorohod (Teorema 2.1) lo spazio di probabilita` e` = (0, 1)con F = B(0, 1), i boreliani di (0, 1) e P e` la misura di Lebesgue ristretta ai boreliani di (0, 1). Inoltre, posto Fn ed Fle funzioni di distribuzione di Xn ed X, rispettivamente, le variabili aleatorie sono

    Xn() = Fn() = inf{y : Fn(y) }, X() = F () = inf{y : F (y) }.

    Dalla definizione di X e dalla (2.1) sappiamo che

    X() x F (x) (e quindi X() > x F (x) > ).

  • 26 CP31-nov-2009

    Analogamente possiamo affermare che

    Xn() x Fn(x) (e quindi Xn() > x Fn(x) > ).Questa osservazione sara` fondamentale per dimostrare le seguenti due relazioni

    (I) (0, 1), limnXn() X(), (2.3)(II) , (0, 1), < limnXn() X() (2.4)

    A loro volta le precedenti affermazioni, insieme al fatto che X e` una funzione non descrescente (ossia crescentein senso lato) e quindi ammette al piu` uninfinita` numerabile di punti di discontinuita`, permettono di arrivare alladimostrazione:

    Dalle (2.3) e (2.4) sappiamo che, per ogni < (0, 1) valeX() limnXn() limnXn() X()

    e quindiX() limnXn() limnXn() lim

    +X().

    La tesi segue allora in quanto le disuguaglianze sono tutte uguaglianze se e` un punto di continuita` per X:

    X() limnXn() limnXn() lim+

    X() = X()

    Quindi P q.c. esiste il limite di Xn() e coincide con X().

    Per finire la dimostrazione non rimane che verificare le relazioni (2.3) e (2.4).

    (I) Cominciamo con il fissare (0, 1) e scegliere un > 0 e prendere3 un x di continutita` per F e tale cheX() < x < X(). Come abbiamo visto, la disuguaglianza X() > x implica che

    F (x) > .

    Di conseguenza, poiche sappiamo che Fn(x) converge a F (x), per n sufficientemente grande possiamo affermareche

    Fn(x) > .

    La precedente relazione ci assicura cheXn() > x,

    e quindilimnXn() x > X() .

    Per larbitarieta` di (mandando a zero) otteniamo quindi che

    limnXn() X(),ossia proprio la (2.3).

    (II) Per ottenere la (2.4), dobbiamo sempre fissare (0, 1), ma inoltre dobbiamo considerare4 anche un (0, 1)con < . Comunque scelto > 0 possiamo prendere un y tale che F (y) = F (y) e

    X() X() < y < X() + ,3Un tale x esiste di sicuro, perche il numero dei punti di discontinuita` di F , che e` una funzione monotona, sono al massimo uninfinita`

    numerabile.

    4Lo scopo e` ottenere che esista un y di continuita` per F e tale che F (y) > , per poter garantire poi che, per n sufficientemente grande

    Fn(y) ossia che eXn() y. Purtroppo il fatto di sapere che eX() < y implica solo che F (y) y e cio` a sua volta non ci garantisceche Fn(y) y, per n sufficientemente grande...

  • CP31-nov-2009 27

    (dove la prima disuguaglianza deriva semplicemente dal fatto che X() e` una funzione non descrescente5.

    La disuguaglianza X() < y implica cheF(X()

    ) F (y).Inoltre sappiamo che F

    (X()

    ) , e quindi < F (X()) F (y).

    Il fatto che < F (y),

    garantisce che definitivamente (ossia per n sufficientemente grande)

    < Fn(y),

    da cui Fn(y), X() y.

    Poiche sappiamo che y < X() + otteniamo quindi

    X() y < X() + .

    A questo punto possiamo affermare chelimn X() + ,

    e per ottenere la (2.4), basta mandare a zero e a per ottenere che

    limn X(+).

    La funzione X e` non decrescente (ossia crescente in senso lato) e quindi ammette al piu` uninfinita` numerabiledi punti in cui e` discontinua. Da cui si otteniene

    limn X(),

    per ogni (0, 1), esclusi al piu` uninifinita` numerabile e quindi quasi ovunque rispetto alla misura di Lebesgue,che appunto e` la nostra P.

    5Si ricordi lOsservazione 2.1.

  • Bibliografia

    [1] Billingsley, P. Probability and measure, third ed. Wiley Series in Probability and Mathematical Statistics. JohnWiley & Sons Inc., New York, 1995. A Wiley-Interscience Publication.

    [2] Koch, G. La matematica del probabile, prima ed. Aracne, Roma, 1997.

    [3] Williams, D. Probability with martingales. Cambridge Mathematical Textbooks. Cambridge University Press,Cambridge, 1991.

    28

  • Capitolo 3

    ESERCIZI PROPOSTI

    In questo capitolo sono raccolti alcuni esercizi da scolgere: alcuni sono di tipo analitico e sono parte integrante dialcune dimostrazioni fndamentali, alcuni sono stati parzialmente o totalmente svolti a lezione.

    Lo studente dovra` consegnare gli esercizi e discuterne durante lesame orale, un paio a scelta del docente.Sara` possibile, limitatamente alla sessione della prova in itinere (novembre 2009) portare gli esercizi scritti anche

    dopo lesame orale. In tal caso la discussione degli esercizi avverra` alla consegna degli esercizi.

    3.1 Esercizi di tipo analitico

    Esercizio 3.1. Dimostrare che se

    limn an = ,

    allora

    limn

    1n

    nk=1

    ak = .

    Esercizio 3.2. Dimostrare che, per > 1

    limn

    i=n i

    n11

    = 1,

    e che, per > 1,

    limn

    ni=1 i

    n1+

    1+

    = 1

    Esercizio 3.3. Mostrare che eix nk=0

    (ix)k

    k!

    min( |x|n+1(n+ 1)! , 2 |x|nn!)

    29

  • 30 CP31-nov-2009

    Suggerimento: utilizzare la formula1

    eix =mk=0

    (ix)k

    k!+im+1

    m!

    x0

    (x s)m eis ds, ()

    con m = n per ottenere eix nk=0

    (ix)k

    k!

    |x|n+1(n+ 1)! ,e per m = n 1, insieme allosservazione che x

    0

    (x s)m eis ds = x0

    (x s)m ds+ x0

    (x s)m (eis 1) ds = xm+1

    m+ 1+ x0

    (x s)m (eis 1) ds

    e che |eis 1| 2, per ottenere eix nk=0

    (ix)k

    k!

    2 |x|nn! .

    Esercizio 3.4. Mostrare che, per x > 0

    |ex (1 x)| x2

    2.

    3.2 Esercizi sulla convergenza in distribuzione

    Esercizio 3.5. SianoFn(x) =

    x

    pn(t) dt, per n 1,

    dovepn(x) = 1(0,1)(x)

    (1 + cos(2pinx)

    )Dimostrare che Fn sono funzioni di distribuzioni e che

    limnFn(x) = F (x) =

    x

    p(t) dt,

    dovep(x) = 1(0,1)(x),

    e che invecepn(x)9 p(x).

    Discutere la relazione di questo esempio con il Teorema di Scheffe.

    Esercizio 3.6. Sia X uniforme in (0, 1) e siano Xn := Xn. Indivuduare le funzioni di distribuzione Fn delle variabilialeatorie Xn. Dimostrare che la successione di variabili aleatorie Xn converge in distribuzione e individuare la variabilealeatoria limite. La successione Xn converge anche in qualche altro senso?

    1La formula () e` sostanzialmente la formula del resto nello sviluppo di Taylor, e si puo` facilmente ottenere per induzione dalla formula

    eix = 1 + i

    Z x

    0eiy1 dy1.

    Come esempio si consideri

    eix = 1 + i

    Z x

    0eiy1 dy1 = 1 + i

    Z x

    0

    1 + i

    Z y1

    0eiy2 dy2

    dy1 = 1 + ix+ i2

    Z x

    0

    Z y1

    0eiy2 dy2

    dy1

    = 1 + ix+ i2Z x

    0

    Z x

    y2

    eiy2 dy1

    dy2 = 1 + ix+ i2

    Z x

    0

    x y2

    eiy2dy2.

  • CP31-nov-2009 31

    Esercizio 3.7. Sia X uniforme in ( 12 ,32 ) e siano Xn := X

    n. Individuare le funzioni di distribuzione Fn delle variabilialeatorie Xn. La successione di variabili aleatorie Xn converge in distribuzione? e se s`, a quale variabile aleatoria?e se no, la successione Xn e` una successione tight (ovvero trattenuta)?

    3.3 Esercizi con le funzioni caratteristiche

    Esercizio 3.8. (a) Per n 1, sia Xn una variabile aleatoria esponenziale di parametro n. La successione di variabilialeatorie Xn converge in distribuzione? e se s`, a quale variabile aleatoria?(b) Per n 1, sia Yn una variabile aleatoria Gamma di parametri (n, n). La successione di variabili aleatorie Xnconverge in distribuzione? e se s`, a quale variabile aleatoria?

    Suggerimento: usare le funzioni caratteristiche.

    Esercizio 3.9 (esercizio svolto a lezione). Siano X ed Y due variabili aleatorie indipendenti, entrambe esponenzialidi parametro 1.

    (a) Dimostrare che la variabile aleatoria Z = X Y ammette densita`

    pZ(z) =12e|z|.

    Suggerimento: utilizzare il fatto che, se le variabili aleatorie sono indipendenti e ammettono densita`, allora la densita`della somma e` la convoluzione.(b) Dimostrare che la funzione caratteristica di Z = X Y e`

    Z(t) =1

    1 + t2.

    (c) Utilizzare la formula di inversione per le funzioni caratteristiche integrabili e dedurre che lespressione della funzionecaratteristica di una variabile aleatoria V con distribuzione di Cauchy (cioe` con densita` 1pi

    11+x2 ) e`

    V (t) = e|t|.

    (d) Dedurre, dalla forma della funzione caratteristica di una variabile aleatoria V con distribuzione di Cauchy, chenon esiste finito E

    [|V |].Esercizio 3.10 (parzialmente svolto). Sia X una variabile aleatoria con densita`

    pX(x) =

    {0 per |x| 2,c 1x2 log |x| per |x| > 2,

    dove c > 0 e` la costante di normalizzazione (N.B. la costante c non deve essere calcolata)

    (i) Dimostrare che X non e` integrabile (ossia che E[|X|] =).

    Suggerimento: utilizzare il fatto che la densita` e` una funzione pari.

    (ii) Dimostrare che X(t) ammette derivata prima in t = 0 e che X(0) = 0.Soluzione: (ATTENZIONE leggermente diverso da come fatto a lezione)

    utilizzando il fatto che la densita` e` una funzione pari il rapporto incrementale X(h)1h si puo` scrivere come un integralesu (2,) rispetto a pX(x) dx, in cui i termini:

    X(h) 1h

    = c{x:|x|>2}

    coshx 1h

    1log |x|

    1x2

    dx

  • 32 CP31-nov-2009

    Quindi, per mostrare cheX(h) 1

    hh0

    0 X(h) 1h

    h0 0e tenendo conto chec {x:|x|>2} coshx 1h 1log |x| 1x2 dx

    c {x:|x|>2}coshx 1h

    1log |x| 1x2 dx = 2c 2

    1 cos |hx||h|

    1log |x|

    1x2

    dx,

    basta mostrare che 2

    1 cos |h|x|h|

    1log |x|

    1x2

    dx h0

    0.

    Effettuando il cambio di variabile di integrazione y = |h|x si ottiene che 2

    1 cos |h|x|h|

    1log |x|

    1x2

    dx = 2|h|

    1 cos y|h|

    1log(y/|h|)

    1y2

    |h|2

    1|h|dy =

    2|h|

    (1 cos y) 1log(y/|h|)

    1y2

    dy.

    Senza ledere in generalita` possiamo assumere |h| < 1 e che quindi, per |y| 2|h|, si ha 1log |y/h| = 1log |y|+| log |h|| 0,per h che tende a zero.

    Di conseguenza, posto g|h| la funzione

    g|h|(y) = 1{|y|2|h|}(1 cos y) 1log(y/|h|)1y2, y > 0,

    si ha cheg|h|(y)

    h00.

    Inoltre, considerato che1

    log |y/h| 1

    log 2, per y 2|h|,

    0 1 cos y = 2( sin(y/2))2 2(y2

    )2=

    12y2, per ogni y

    e0 1 cos y 2, per ogni y,

    possiamo affermare che

    g|h|(y) g(y) = min(

    12 log 2

    ,2

    log 21y2

    ), y > 0

    Per ottenere la tesi basta infine osservare che 0

    g(y)dy 0, limn

    nk=1

    1s2nE[|Xk|21{|Xk|> sn}] = 0,

  • CP31-nov-2009 33

    dove s2n = V ar(X1 + +Xn), equivale a

    limn

    maxk=1,...,n c2knh=1 c

    2h

    = 0.

    Considerare il caso cn = n, per > 0.

    Esercizio 3.12. Dimostrare che la condizione di Lindeberg non e` necessaria affinche per una successione di variabilialetaorie indipendenti valga il Teorema Centrale del Limite (ossia che la somma delle prime n variabili aleatoria,opportunamente standardizzata, converga in distribuzione ad una variabile gaussiana standard)

    Suggerimento: considerare Xn una successione di variabili aleatorie indipendenti, gaussiane di media zero evarianza 2n, e scegliere

    2n in modo che, posto

    s2n =n

    k=1

    2k

    non valga la condizione

    limn

    maxk=1,...,n 2ks2n

    6= 0.

    3.5 Esercizi sulla legge dei grandi numeri

    Esercizio 3.13 (esercizio parzialmente svolto a lezione). Siano Xn variabili aleatorie con P(Xn = n) = 12 .(a) Mostrare che per < 0 vale la legge dei grandi numeri (N.B. senza assumere lindipendenza delle variabili

    aleatorie Xn)Si assuma lulteriore ipotesi che le variabili aleatorie Xn siano indipendenti.(b) Mostrare che per [0, 1/2) vale la condizione del Teorema di Kolmogorov, e quindi vale la legge dei grandi

    numeri.(c) (da svolgere dopo aver studiato il teorema centrale del limite, ed in particolare dopo aver svolto

    lesercizio 3.11)Mostrare che, per > 0, posto Sn = X1 +X2 + ...Xn ed s2n = V ar(Sn) si ha

    s2n n2+1

    2+ 1cioe`

    s2nn2+1

    2+1

    e che vale la condizione di Lindeberg.(d) Come conseguenza del punto (c), mostrare che, per = 1/2, la successione

    Snn

    =Snsn

    snn

    converge ad una variabile aleatoria con distribuzione gaussiana e determinarne la media e la varianza.(e) Invece, per > 1/2, mostrare che la successione

    Snn

    =Snsn

    snn

    non converge neanche in distribuzione.Suggerimento: si dimostri ad esempio che, posto Yn := Snsn e n =

    snn (> 0) si ha ovviamente n e, per ogni

    x > 0, si ha x/n 0. Dedurre quindi che

    limnP(n Yn x) 12 , x > 0,e che quindi la successione non puo` convergere in distribuzione.

    Esercizio 3.14. Siano Xn variabili aleatorie indipendenti identicamente distribuite, tutte con distribuzione di Cauchy.

    (a) Dimostrare che (|X1|+ |X2|+ ...+ |Xn|)/n converge quasi certamente ad infinito, quindi per le variabili aleatorie|Xn| vale la legge dei grandi numeri.

    (b) Dimostrare che (X1 +X2 + ...+Xn)/n converge in distribuzione ed individuare la distribuzione limite.Suggerimento: Utilizzare le funzioni caratteristiche.

  • 34 CP31-nov-2009

    3.6 Esercizio riassuntivo

    Esercizio 3.15. Utilizzare la rappresentazione della variabile aleatoria U() = in = (0, 1) [come al solito siassume anche F uguale ai boreliani di (0, 1) e la probabilita` P uguale alla misura di Lebesgue ristretta a (0, 1)]

    =1

    Wi()12i,

    dove Wi sono variabili aleatorie indipendenti identicamente distribuite, con P(Wi = 1) = P(Wi = 0) = 12 , per ottenereuna dimostrazione probabilistica della relazione

    sin tt

    =i=1

    cost

    2i.

    Suggerimento: utilizzare il fatto che U ha distribuzione uniforme su (0, 1), e che la variabile aleatoria

    V () := 2U() 1 = 21

    Wi()12i 1 =

    1

    (2Wi() 1) 12i

    e che quindi V e` il limite quasi certo di

    Vn() :=n1

    (2Wi() 1) 12i ,

    e che le variabili aleatorie W i = 2Wi 1 sono indipendenti.