POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di...

84
POLITECNICO DI MILANO Facolt ` a di Ingegneria dei Sistemi Corso di Studi in INGEGNERIA MATEMATICA TESI DI SECONDO LIVELLO Attese non lineari e calcolo stocastico sotto incertezza Nicola Raimondi 740023 Anno Accademico 2010-2011

Transcript of POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di...

Page 1: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

POLITECNICO DI MILANO

Facolta di Ingegneria dei Sistemi

Corso di Studi in INGEGNERIAMATEMATICA

TESI DI SECONDO LIVELLO

Attese non lineari e calcolo stocasticosotto incertezza

Nicola Raimondi 740023

Anno Accademico 2010-2011

Page 2: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

2

Page 3: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Indice

0.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40.2 Ringraziamenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1 Cap. introduttivo 91.1 Convergenza di leggi di probabilita e di variabili aleatorie . . . . 91.2 Teorema di Hahn-Banach . . . . . . . . . . . . . . . . . . . . . . 101.3 Teorema di Daniell-Stone . . . . . . . . . . . . . . . . . . . . . . 111.4 Definizione di soluzioni viscose . . . . . . . . . . . . . . . . . . . 121.5 Stima di regolarita di Krylov su EDP paraboliche. . . . . . . . . 14

2 Attesa Sublineare 172.1 Attesa sublineare e spazi di attesa sublineare . . . . . . . . . . . 172.2 Rappresentazione di attesa sublineare . . . . . . . . . . . . . . . 212.3 Distribuzione, indipendenza e spazi prodotto . . . . . . . . . . . 24

3 Misure di rischio coerenti 293.1 Definizione di rischio e di misura coerente . . . . . . . . . . . . . 293.2 Il VaR: Value at Risk . . . . . . . . . . . . . . . . . . . . . . . . 35

4 LGN e TCL 394.1 Distribuzione massimale e distribuzione G-Normale . . . . . . . . 394.2 Esistenza di Variabili casuali G-distribuite . . . . . . . . . . . . 474.3 Legge dei Grandi Numeri e Teorema Centrale del Limite . . . . . 51

5 Moto G-Browniano e Int. Ito 1-dim 595.1 Moto G-Browniano 1-dimensionale . . . . . . . . . . . . . . . . . 595.2 Esistenza del Moto G-Browniano . . . . . . . . . . . . . . . . . . 625.3 Spazi completi di attese sublineari . . . . . . . . . . . . . . . . . 665.4 Moto G-Browniano e Int. Ito 1-dim . . . . . . . . . . . . . . . . . 675.5 Integrale di Ito di un Moto G-Browniano. . . . . . . . . . . . . . 695.6 La distribuzione del processo 〈B〉t . . . . . . . . . . . . . . . . . 755.7 Formula di Ito per un G-Moto Browniano . . . . . . . . . . . . . 79

Riferimenti Bibliografici 83

3

Page 4: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4 INDICE

0.1 Introduzione

In questa tesi abbiamo approfondito i recenti sviluppi dei modelli di probabilitasotto incertezza basati sulla nozione di attesa nonlineare e in particolare diattesa sublineare, studiata da Peng negli ultimi dieci anni (si veda [18], [19] e[20]).

Un’attesa nonlineare E e un funzionale monotono che preserva le costantidefinito su uno spazio lineare di variabili aleatorie. Ci siamo occupati essen-zialmente delle attese sublineari ossia dei funzionali E tali che E[X + Y ] ≤E[X] + E[Y ] per tutte le variabili aleatorie X e Y e E[λX] = λE[X] per λ ≥ 0.In statistica ed economia questo tipo di funzionali sono stati studiati in modoapprofondito da Williams e Huber ed in seguito esplorati in modo sistematicoda Walley in termini di probabilita indeterminate, estremi superiori di attese eprevisioni coerenti.

Un’attesa sublineare E puo essere rappresentata come estremo superiore diun sottoinsieme di attese lineari Eθ : θ ∈ Θ. In molti casi questo sottoinsiemee spesso trattato come un modello di incertezza di probabilita Pθ : θ ∈ Θ e lanozione di attesa sublineare fornisce uno strumento robusto, elegante e flessiblie,per misurare il rischio di perdita X.

Una parte importante della tesi e dedicata alla presentazione della legge deigrandi numeri (LGN) e del teorema del limite centrale (TCL) valido sotto attesesublineari. La legge dei grandi numeri (LGN) e il teorema centrale del limite(TCL) classici sono ampiamente usati in teoria della probabilita, in statistica,analisi dei dati come pure in molte situazoni pratiche nell’ambito della finan-za, come il pricing di opzioni ed il risk management. Tali teoremi spiegano inmodo forte e convincente perche in pratica le distribuzioni normali sono cosı fre-quentemente utilizzate. Spesso pero la condizione che le variabili aleatorie sianoindipendenti e identicamente distribuite (i.i.d), non e soddisfatta. In praticaper processi a tempo reale e dati per cui i classici campionamenti risultano im-possibili, l’incertezza delle probabilita e delle distribuzioni non possono esseretrascurate.

Il teorema centrale del limite proposto non necessita di questa ipotesi forte diindipendenza e uguale distribuzione. Invece di fissare una misura di probabilitaP , si introduce un sottoinsieme di incertezza di misure di probabilita Pθ : θ ∈Θ e si considera la corrispondente attesa sublineare E[X] = sup

θ∈ΘEθ[X]. Le

principali ipotesi diventano pertanto:

1. La distribuzione di Xi sta in un insieme di distribuzioni Fθ : θ ∈ Θ con

µ = E[Xi] ≥ −E[−Xi] = µ;

2. Ogni possibile realizzazione di X1, · · · , Xn non cambia l’incertezza delladistribuzione di Xn+1.

Sotto l’attesa E, X1, X2, · · · , Xn sono identicamente distribuite se e sod-disfatta la (1), mentre Xn+1 e indipendente da X1, · · · , Xn se e valida la con-dizione (2); sotto queste ipotesi -che possiamo dire di indipendenza e identicadistribuzione ‘deboli”- si dimostra che per ogni funzione continua a crescitalineare ϕ, vale la seguente LGN:

Page 5: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

0.1. INTRODUZIONE 5

limn→+∞

E[ϕ(Sn

n)] = sup

µ≤v≤µϕ(v).

In altre parole il sottoinsieme di incertezza della distribuzione di Sn

n si puoapprossimare a un sottoinsieme di una misura di Dirac δv : µ ≤ v ≤ µ. Inparticolare, se µ = µ = 0, allora Sn

n converge in legge a 0. In questo caso, seassumiamo, inoltre, che σ2 = E[X2

i ] e σ2 = −E[−X2i ], i = 1, 2, · · · , allora si ha

la seguente generalizzazione del TCL:

limn→+∞

E[ϕ(Sn√

n)] = E[ϕ(X)].

Si dice allora che la variabile aleatoria X ha distribuzione G-Normale e vienedenotata come N(0×[σ2, σ2]). Il valore E[ϕ(X)] puo esser calcolato definendou(t, x) := E[ϕ(x +

√tX)]. La funzione u risulta essere soluzione dell’equazione

alle derivate parziali (EDP) ∂tu = G(uxx) con G(a) := 12 (σ2a+ − σ2a−). I

risultati ottenuti mostrano una profonda ed essenziale relazione tra la teoriadella probabilita e della statistica matematica sotto incertezza e le equazioniHamilton-Jacobi-Bellman paraboliche del secondo ordine fully nonlinear. Sihanno anche due interessanti situazioni: quando ϕ e convessa, allora

E[ϕ(X)] =1√

2πσ2

∫ +∞

−∞ϕ(x) exp(− x2

2σ2)dx.

Nel caso in cui ϕ sia concava, σ2 verra sostituita da σ2. Se σ = σ = σ, alloraN(0× [σ2, σ2]) = N(0, σ2), che rappresenta la classica distribuzione normale.

Grazie a questi risultati molti traders e operatori in mercati finanzaiari pos-sono utilizzare distribuzioni normali senza effettuare una vera analisi dei dati.In molte sitauzioni tipiche, infatti, E(ϕ(X) puo essere calcolata usando unadistribuzione normale con un’opportuna scelta di parametri.

Le distribuzioni G-normali sono state introdotte inizialmente da Peng ([15],[16], [17]) per un nuovo tipo di moto Browniano e il relativo calcolo dell’integraledi Ito. La teoria dell’incertezza in statistica, le misure di rischio e il superhedgingin finanza (si vedano [1], [8]) sono solo i principali ambiti di applicazione diquesto nuovo tipo di attese sublineari.

La teoria delle EDP fully non linear di tipo parabolico gioca un ruolo es-senziale nella dimostrazione dei nuovi risultati della LGN e del TCL. Nel casoclassico l’EDP corrispondente diventa un’equazione del calore.

E interessante notare che la dimostrazione del TCL sotto attese sublinearepermette di provare in modo alternativo e originale il TCL della toria classica.

Una volta introdotta la nozione di distribuzione G-normale ci siamo occu-pati di definire e studiare il Moto G-Browniano (Bt)t≥0 che essenzialmente eun processo continuo con incrementi indipendenti e stazionari sotto una dataattesa sublineare E. Il Moto G-Browniano ha una struttura molto ricca ed in-teressante; non risulta, infatti, essere una banale generalizzazione di quella delMoto Browiano classico. Ci siamo infine occupati del calcolo stocastico sottoincertezza con particolare attenzione al G-integrale di Ito e al relativo processodi variazione quadratica 〈B〉. Quest’ultimo e anch’esso un processo continuocon incrementi stazionari ed indipendenti e puo essere cosı visto come un MotoBrowniano. Infine abbiamo studiato la G-formula di Ito.

Page 6: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

6 INDICE

La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19]ed e organizzata nel modo seguente.

Nel Capitolo 1 sono introdotti concetti standard e risultati di base di teo-ria della probabilita e di analisi funzionale, che verrano utilizzati nei capitoliseguenti. Nell’ultima parte del capitolo richiamiamo la nozione di soluzione vis-cosa per equazioni alle derivate parziali di tipo parabolico. Sono riportati anchealcuni risultati di regolarita per EDP fully nonlinear di tipo parabolico.

Nel Capitolo 2 sono introdotte le attese sublineari. Sono esposte le nozioni dibase, le proprieta fondamentali, il teorema di rappresentazione di attesa sublin-eare (Teorema 2.2.1) nonche i concetti di funzione di distribuzione di variabilialeatorie e di indipendenza sotto attese sublineari.

Un’applicazione interessante dell’ attesa sublineare e sviluppata nel Capitolo3 dedicato alle misure di rischio coerenti. Seguendo l’idee sviluppate da Artznere Delbaen in [1], [7], sono illustrati alcuni requisiti fondamentali caratterizzantitali misure. Inoltre e mostrato che possono essere definite a partire dalle attesesublineari.

Si e analizzato inoltre il problema di quantificare il rischio di una posizionefinanziaria; dopo aver ricordato le caratteristiche e proprieta piu importanti,viene introdotta la principale applicazione di misura di rischio utilizzata in fi-nanza, il VaR (si veda la [3]), ovvero, una misura della perdita potenziale di unportafoglio in un certo intervallo di tempo. Il VaR rappresenta, quindi, l’obiet-tivo di racchiudere in un solo numero, il rischio complessivo di un portafogliodi attivita finanziarie. Si e arrivati a concludere che non e una misura di ris-chio coerente, in quanto non risulta essere subadditivo, che e una condizionenecessaria (si veda la [21]).

Nel Capitolo 4 e definita una nuova nozione di distribuzione normale sottoattesa sublineare e sono presentati gli importanti risultati della Legge dei GrandiNumeri e del Teorema Centrale del Limite sotto attese sublineari.

La relativa nozione di Moto Browniano sotto attesa sublineare e definita nelCapitolo 5. Limitandoci al caso 1-dimensionale si sono studiate le piu importantiproprieta di questo processo. Sono, inoltre, introdotti i primi fondamentalielementi di calcolo stocastico sotto incertezza: l’integrale stocastico e la formuladi Ito.

Page 7: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

0.2. RINGRAZIAMENTI 7

0.2 Ringraziamenti

Il primo ringraziamento per questo elaborato non puo che essere diretto allaprofessoressa Fulvia Confortola che, nonostante sia stato il suo primo studenteda seguire, la distanza oceanica che ci ha separato per un certo periodo e illavoro che ultimamente occupava la maggior parte del mio tempo, mi ha assistitopazientemente mettendo a mia disposizione tutte le sue conoscenze e tutta lasua passione . La ringraziero sempre perche mi ha spronato a credere nel miolavoro e nelle mie capacita anche nei momenti piu difficili.

Non potrei che ringraziare tutti i miei colleghi del corso di Ing. Mtm, com-pagni di questo viaggio che e giunto al termine, in particolar modo Enrico eDavide con i quali sono sicuro la nostra amicizia continuera anche in futuro. Seper Enrico questi anni sono stati la continuazione e il rafforzamento dei quattroanni passati insieme al liceo, in Davide ho trovato una persona valida, sincerae solidale, con la quale potevo discutere ogni mattina di cosa avveniva la notteprecedente. Entrambi sono stati sempre dei veri punti di riferimento, senza iquali non so come sarebbe andata questa avventura.

Un grazie particolare va ai miei genitori e i miei nonni per tutti i sacrifici chehanno fatto in questi anni con il solo desiderio di aiutarmi e rendermi la vitapiu agevole. Sono sicuro che di averli ripagati e di renderli felici e orgogliosi pertutto quello che ho fatto.

Un ultimo grazie non puo che andare ai miei amici, sia quelli dello Chalet,che quelli di Piacenza, che in tutti questi anni mi sono stati sempre vicino ehanno sempre trovato il modo di farmi sorridere anche nei momenti piu delicati.

Page 8: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

8 INDICE

Page 9: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Capitolo 1Capitolo Introduttivo

Nell’elaborazione di questa tesi sono stati utilizzati vari teoremi e definizioni ap-partenenti a vari campi dell’analisi matematica e, per facilitare la comprensioneal lettore vengono raccolti in questo capitolo introduttivo.

1.1 Convergenza di leggi di probabilita e di vari-abili aleatorie

Nel Capitolo 2 vengono utilizzate le principali convergenze di leggi di prob-abilita e di variabili aleatorie, che verranno enunciate in breve, facendo riferi-mento a [25] e [2].

In questa sezione (E, β(E)) indica uno spazio misurabile costituito da unospazio topologico E con la σ-algebra β(E) dei boreliani di E. Vi sono vari modidi definire la convergenza di v.a.

• Sia (µn)n una successione di misure finite su (E, β(E)). Si dice che essaconverge a µ debolmente se per ogni funzione f continua e limitata su E si ha

limn→∞

∫fdµn =

∫fdµ

Siano Xn, n ∈ N e X v.a. su (Ω, F,P) a valori in (E, β(E)).• Si dice che (Xn)n converge a X quasi certamente (q.c.) e si indica Xn

q.c.→ Xse esiste N ∈ F trascurabile (cioe P(N) = 0) tale che

limn→∞

Xn(ω) = X(ω) ∀ω /∈ N.

• Se E = Rm si dice che (Xn)n converge a X in Lp e si scrive XnLp

→ X seX ∈ Lp e

limn→∞

E(|Xn −X|p) = 0.

Se p > q la convergenza in Lp implica quella in Lq.• Se la successione (Xn)n e a valori in uno spazio metrico E diremo che essa

converge a X in probabilita e si indica con XnP→ X se per ogni δ > 0,

9

Page 10: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

10 CAPITOLO 1. CAP. INTRODUTTIVO

limn→∞

P(d(Xn, X) > δ) = 0.

• Si dice che (Xn)n converge in legge e si scrive XnL→ X se µn → µ

debolmente dove µn, µ sono rispettivamente le leggi di Xn e X.

1.2 Teorema di Hahn-Banach

Il Teorema di Hahn-Banach, che enunceremo qui in seguito, e uno dei prin-cipali risultati dell’analisi funzionale ed e fondamentale nel Teorema 2.2.1di rappresentazione di attesa sublineare. Vengono proposte le sue estensioniin spazi lineari reali e normati. Per una definizione piu approfondita, con ladimostrazione basata sul Lemma di Zorn si veda la [14].

Definizione 1.2.1. Siano T1 e T2 due operatori lineari con domini D(T1)e D(T2) etrambi contenuti in uno spazio lineare H e con rango R(T1) e R(T2)entrambi contenuti in uno spazio lineare M. Allora T1 = T2 se e solo se D(T1) =D(T2) e T1x = T2x per ogni x ∈ D(T1). Se D(T1) ⊆ D(T2) e T1x = T2x perogni x ∈ D(T1), allora T2 e chiamata estensione di T1, o T1 si dice restrizionedi T2.

Teorema 1.2.2 (estensione del teorema di Hahn-Banach in spazi linearireali). Sia H uno spazio lineare reale e p(x) una funzione a valori reali definitasu H che soddisfa le seguenti condizioni:

p(x + y) ≤ p(x) + p(y) (subadditivita)p(αx) = αp(x) per α ≤ 0 (omogeneita positiva)

Sia L un sottospazio lineare di H e f0 un funzionale lineare a valori reali definitosu L:

f0(αx + βy) = αf0(x) + βf0(y) per x, y ∈ L e α, β ∈ R.

Dato f0 che soddisfa f0(x) ≤ p(x) su L, allora esiste un funzionale lineare avalori reali F definito su H tale che,

1. F e un’ estensione di f0, ovvero F (x) = f0(x) per ogni x ∈ L.

2. F (x) ≤ p(x) per x ∈ H.

Teorema 1.2.3 (estensione del teorema di Hahn-Banach in spazi linearinormati). Siano H uno spazio lineare normato sotto la norma ‖ · ‖, L unsottospazio lineare di H e f1 un funzionale lineare continuo definito su L. Alloraesiste un funzionale lineare continuo f definito su H, tale che

1. f e un’estensione di f1.

2. ‖f1‖ = ‖f‖.

Page 11: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

1.3. TEOREMA DI DANIELL-STONE 11

1.3 Teorema di Daniell-Stone

Nell’Osservazione 2.2.2 viene applicato il Teorema di Daniell-Stone pertrovare una certa misura di probabilita σ-additiva; prima di approfondire questoteorema e fondamentale dare la definizione di reticolo [13].

Definizione 1.3.1 (Reticolo). Si consideri un insieme R in cui siano definitedue leggi di composizione, dette rispettivamente, intersezione e unione (cias-cuna delle quali associa ad ogni coppia a, b di elementi di R, uno e uno soloelemento di R). Indichiamo con a ∩ b, l’intersezione di a, b e con a ∪ b la lorounione. Diciamo che R e un reticolo, rispetto alle suddette leggi di compo-sizione se, comunque, si scelgano gli elementi di a, b, c ∈ R, sono soddisfatte leseguenti condizioni:

1. Leggi commutative:

a ∩ b = b ∩ a, a ∪ b = b ∪ a;

2. Leggi associative:

(a ∩ b) ∩ c = a ∩ (b ∩ c), (a ∪ b) ∪ c = a ∪ (b ∪ c);

3. Leggi di assorbimento:

a ∪ (a ∩ b) = a, a ∩ (a ∪ b) = a.

Dato (Ω, F, µ) uno spazio di misura sul quale possiamo definire un’inte-grazione. Una proprieta essenziale dell’integrazione e la sua linearita, tale chepossa esser visto come funzionale lineare su L1(Ω, F, µ). Questa idea ci guidaad un ulteriore approccio per definire l’integrale di Daniell.

Definizione 1.3.2. Dato Ω un insieme astratto e H uno spazio lineare formatoda una famiglia di funzioni a valori reali . H e chiamato reticolo vettoriale se

f ∈ H ⇒ |f | ∈ H, f ∧ 1 ∈ H.

Definizione 1.3.3. Supponiamo che H sia un reticolo vettoriale su Ω e I e unfunzionale positivo lineare su H,

f, g,∈ H, α, β ∈ R⇒ I(αf + βg) = αI(f) + βI(g);

f ∈ H, f ≥ 0 ⇒ I(f) ≥ 0.

Se I soddisfa la seguente condizione:

fn ∈ H, fn ↓ 0 ⇒ I(fn) → 0,

o equivalentemente,

fn ∈ H, fn ↑ f ∈ H ⇒ I(f) = limn→∞

I(fn),

cosı I e chiamato integrale di Daniell su H.

Teorema 1.3.4 (di Daniell-Stone). Supponiamo che H sia un reticolo vet-toriale su Ω e I e un integrale di Daniell su H. Allora esiste una misura µ ∈ F,dove F := σ(f : f ∈ H), tale che H ⊂ L1(Ω, F, µ) e I(f) = µ(f), ∀f ∈ H.Inoltre, se 1 ∈ H∗

+, dove H∗+ := f : ∃fn ≥ 0, fn ∈ H tale che fn ↑ f, allora

questa misura µ e unica ed e σ-finita.

Page 12: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

12 CAPITOLO 1. CAP. INTRODUTTIVO

1.4 Definizione di soluzioni viscose

La nozione di soluzione viscosa per equazioni Hamilton-Jacobi del primo or-dine fu introdotta inizialmente da Crandall e Lions, [4] e [5] con in quest’ultimoannessa la dimostrazione di unicita. La dimostrazione per le equazioni del sec-ondo ordine di Hamilton-Jacobi-Bellman fu sviluppata da sempre da Lions nella[11], utilizzando il controllo stocastico. Un’importante svolta fu realizzata nellateoria delle EDP del secondo ordine da Jensen (si veda la [9]). Altri impor-tanti contributi allo sviluppo di questa teoria si possono trovare nell’articolo diCrandall, Lions e Ishii [6].

Prima di effettuare un’analisi di soluzioni viscose, diamo la definizione pre-liminare di funzioni superiormente e inferiormente semicontinue, fondamentaliper la comprensione dell’argomento, facendo riferimento alla [24].

Definizione 1.4.1 (Funzioni semicontinue). Consideriamo un insieme lo-calmente compatto Ω ⊂ Rn. Una funzione u : Ω → R si dice inferiormentesemicontinua (i.s.c.) in x0 ∈ Ω se u > −∞ e

u(x0) ≤ lim infx→x0

u(x),

Se u e i.s.c. in ogni punto di Ω diremo che e i.s.c. in Ω. Analogamente, u : Ω → Rsi dice superiormente semicontinua (s.s.c.) in x0 ∈ Ω se u < +∞ e

u(x0) ≤ lim supx→x0

u(x).

Se u e s.s.c. in ogni punto di Ω diremo che e s.s.c. in Ω. Indichiamo con

• s.s.c.(Ω) la classe delle funzioni superiormente semicontinue in Ω.

• i.s.c.(Ω) la classe delle funzioni inferiormente semicontinue in Ω.

Una funzione u ∈ i.s.c.(Ω) e caratterizzata dalla seguente proprieta: per ognia ∈ R,

u−1(a,+∞) e un aperto in Ω

Una funzione u ∈ s.s.c.(Ω) e caratterizzata dalla seguente proprieta: per ognia ∈ R,

u−1(−∞, a) e un aperto in Ω

Passiamo ora quindi, all’analisi di soluzioni viscose; sia T > 0 e O ⊂ [0, T ]×RN . Definiamo

SSC(O) = funzioni superiormente semicontinue u : O → R ,

ISC(O) = funzioni inferiormente semicontinue u : O → R ,Consideriamo la seguente EDP parabolica (edp):

(E) ∂tu−G(t, x, u, Du, D2u) = 0 su (0, T )× Rn

(IC) u(0, x) = ϕ(x) per x ∈ Rn,

dove G : [0, T ]×RN ×RN ×RN × S(N) → R, ϕ ∈ C(RN ). Supponiamo cheG sia continua e soddisfi la seguente condizione di ellitticita degenere,

Page 13: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

1.4. DEFINIZIONE DI SOLUZIONI VISCOSE 13

G(t, x, r, p,X) ≥ G(t, x, r, p, Y ) se X ≥ Y.

Sia u : (0, T ) × Rn → R e (t, x) ∈ (0, T ) × RN . Denotiamo con P2,+u(t, x)(il supergetto parabolico di u in (t, x) ) l’insieme delle triple (a, p,X) ∈ R ×RN × S(N) tale che

u(s, y) ≤u(t, x) + a(s− t) + 〈p, y − x〉+

12〈X(y − x), y − x〉+ o(|s− t|+ |y − x|2).

Definiamo

P2,+u(t, x) := (a, p, X) ∈ R× RN × S(N) : ∃(tn, xn, an, pn, Xn)

tale che (an, pn, Xn) ∈ P2,+u(tn, xn) e(tn, xn, u(tn, xn), an, pn, Xn) → (t, x, u(t, x), a, p, X).

Allo stesso modo definiamo P2,−u(t, x) (il sottogetto parabolico di u in(t, x) )come P2,−u(t, x) := −P2,+(−u)(t, x) e P2,−u(t, x) come P2,−u(t, x) :=−P2,+(−u)(t, x).

Definizione 1.4.2. Una sottosoluzione viscosa della (4.6) su (0, T )×RN e unafunzione u ∈ SSC((0, T )× Rn) tale che per ogni (t, x) ∈ (0, T )× RN ,

a−G(t, x, u(t, x), p, X) ≤ 0 per (a, p, X) ∈ P2,+u(t, x)

Allo stesso modo, Una soprasoluzione viscosa della (4.6) su (0, T ) × RN e unafunzione v ∈ ISC((0, T )× Rn) tale che per ogni (t, x) ∈ (0, T )× RN ,

a−G(t, x, u(t, x), p, X) ≥ 0 per (a, p, X) ∈ P2,−v(t, x)

e una soluzione viscosa della (4.6) su (0, T )×RN e una funzione che e sia unasottosoluzione che una soprasoluzione della (4.6) su (0, T )× RN . Una funzioneu ∈ USC([0, T )×RN ) e chiamata sottosoluzione viscosa della (4.6) su [0, T )×RN

se u e una sottosoluzione viscosa della (4.6) su (0, T )×RN e u(0, x) ≤ ϕ(x) perx ∈ RN .

Diamo anche la seguente definizione equivalente

Definizione 1.4.3. Una sottosoluzione viscosa della (4.6), o G-sottosoluzione,su (0, T )× RN e una funzione u ∈ USC((0, T )× Rn) tale che per ogni (t, x) ∈(0, T ) × RN , φ ∈ C2((0, T ) × RN ) e tale che u(t, x) = φ(t, x) e u < φ su(0, T )× RN\(t, x), allora abbiamo

∂tφ(t, x)−G(t, x, φ(t, x), Dφ(t, x), D2φ(t, x)) ≤ 0;

cosı come una soprasoluzione viscosa della (4.6), o G-soprasoluzione, su (0, T )×RN e una funzione v ∈ LSC((0, T )×Rn) tale che per ogni (t, x) ∈ (0, T )×RN ,φ ∈ C2((0, T ) × RN ) e tale che v(t, x) = φ(t, x) e v > φ su (0, T ) × RN\(t, x),allora abbiamo

∂tφ(t, x)−G(t, x, φ(t, x), Dφ(t, x), D2φ(t, x)) ≥ 0;

e una soluzione viscosa della (4.6) su (0, T ) × RN e una funzione che e simul-taneamente una sottosoluzione e una soprasoluzione della (4.6) su (0, T )×RN .La definizione di soluzione viscosa della (edp) su [0, T ) × RN e la stessa delladefinizione appena spiegata.

Page 14: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

14 CAPITOLO 1. CAP. INTRODUTTIVO

1.5 Stima di regolarita di Krylov su EDP paraboliche.

La dimostrazione del Teorema 4.3.6 che vedremo, e basata sulla stima di re-golarita C1+ α

2 ,2+α per EDP paraboliche non lineari ottenute da Krylov [10].Consideriamo la seguente EDP

∂tu + G(D2u, Du, u) = 0, u(T, x) = ϕ(x), (1.1)

dove G : S(d)×Rd ×R→ R e una funzione data e ϕ ∈ Cb(Rd). Fissiamo lecostanti K ≥ ε > 0, T > 0 e poniamo Q = (0, T )×Rd. Diamo ora la definizionedi G(ε,K,Q) e G(ε,K, Q).

Definizione 1.5.1. Sia G : S(d)×Rd×R→ R e lo denotiamo come G(uij , ui, u),i, j = 1, · · · , d. Denotiamo G ∈ G(ε,K, Q) se G e sia derivabile in modo continuorispetto a (uij , ui, u), e per ogni valore reale uij = uji, uij = uji, ui, ui, u, u eλi sono valide le seguenti disuguaglianze:

ε|λ|2 ≤∑

i,j

λiλj∂uijG ≤ K|λ|2,

|G−∑

i,j

uij∂uij G| ≤ MG1 (u)(1 +

i

|ui|2),

|∂uG|+ (1 +∑

i

|ui|)∑

i

|∂uiG| ≤ MG1 (u)(1 +

i

|ui|2 +∑

i,j

|uij |),

|MG2 (u, uk)|−1G(η)(η) ≤

i,j

|uij |[∑

i

|ui|+ (1 +∑

i,j

|uij |)|u|]

+∑

i

|ui|2(1 +∑

i,j

|uij |) + (1 +∑

i,j

|uij |3)|u|2,

dove gli argomenti (uij , ui, u) di G e le loro derivate sono omesse, η = (uij , ui, u),e

G(η)(η) :=∑

i,j,r,s

uij urs∂2uijurs

G + 2∑

i,j,r

uij ur∂2uijur

G + 2∑

i,j

uij u∂2uijuG

+∑

i,j

uiuj∂2uiuj

G + 2∑

i

uiu∂2uiuG + |u|2∂2

uuG, (1.2)

MG1 (u) e MG

1 (u, uk) sono funzioni continue che crescono con |u| e con ukuk eMG

2 ≥ 1.

Osservazione 1.5.2. Sia εI ≤ A = (aij) ≤ KI. Si puo notare che

G(uij , ui, u) =∑

i,j

aijuij +∑

i

biui + cu

appartiene a G(ε,K, Q)

La seguente definizione e la Definizione 6.1.1 in [10].

Definizione 1.5.3. Sia una funzione G = G(uij , ui, u) : S(d) × Rd × R →R. Denotiamo con G ∈ G(ε, K,Q) se esiste una sequenza Gn ∈ G(ε,K, Q)convergente a G per n →∞ in ogni punto (uij , ui, u) ∈ S(d)× Rd × R tale che

Page 15: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

1.5. STIMA DI REGOLARITA DI KRYLOV SU EDP PARABOLICHE. 15

1. MG1i = MG2

i = · · · =: MGi , i = 1, 2;

2. per ogni n = 1, 2, · · · la funzione Gn e infinitamente derivabile rispetto a(uij , ui, u);

3. esistono due costanti δ0 =: δG0 > 0 e M0 =: MG

0 > 0

Gn(uij , 0,−M0) ≤ δ0, Gn(−uij , 0,M0) ≤ −δ0

per ogni n ≤ 1 e matrici simmetriche non negative (uij).

Il seguente teorema e il Teorema 6.4.3 del [10], e gioca un ruolo importantenella dimostrazione del Teorema Centrale del Limite.

Teorema 1.5.4. Supponiamo che G ∈ G(ε,K, Q) e ϕ ∈ Cb(Rd) con supx∈Rd

|ϕ(x)| ≤MG

0 . Allora la EDP (1.1) ha una soluzione u che possiede le seguenti proprieta:

• u ∈ C([0, T ]× Rd), |u| ≤ MG0 su Q;

• esiste una costante α ∈ (0, 1) dipendente solo da d,K, ε tale che per ogniκ > 0

‖u‖C1+ α

2 ,2+α([0,T−κ]×Rd)< ∞. (1.3)

Consideriamo ora la G-equazione. Sia G : Rd × S(d) → R una funzionecontinua sublineare e monotona in A ∈ S(d). Allora esiste un sottoinsiemechiuso, limitato e convesso Σ ⊂ Rd × S+(d) tale che

G(p,A) = sup(q,B)∈Σ

[12tr[AB] + 〈p, q〉] per (p, A) ∈ Rd × S(d) (1.4)

La G-equazione e

∂tu + G(Du, D2u) = 0, u(T, x) = ϕ(x). (1.5)

Poniamo

u(t, x) = et−T u(t, x). (1.6)

E facile notare che u soddisfa la seguente EDP:

∂tu + G(Du,D2u)− u = 0, u(T, x) = ϕ(x). (1.7)

Supponiamo che esista una costante ε > 0 tale che per ogni A, A ∈ S(d) conA ≥ A, abbiamo

G(0, A)−G(0, A) ≥ εtr[A− A]. (1.8)

Poiche G e continua, e facile dimostrare che esiste una costante K > 0 taleche per ogni A, A ∈ S(d) con A ≥ A, abbiamo

G(0, A)−G(0, A) ≤ εK[A− A]. (1.9)

Cosı, per ogni (q,B) ∈ Σ abbiamocon A ≥ A, abbiamo

Page 16: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

16 CAPITOLO 1. CAP. INTRODUTTIVO

2εI ≤ B ≤ 2KI.

Dall’Osservazione 1.5.2 e facile dimostrare che G(uij , ui, u) := G(uij , ui, u)−u ∈ G(ε,K, Q) e δG

0 = MG0 puo essere una costante positiva. Dal Teorema 1.5.4

e dalla (1.6) abbiamo la seguente stima di regolarita per la G-equazione (1.5).

Teorema 1.5.5. Sia G che soddisfi la (1.4) e la (1.8), ϕ ∈ Cb(Rd) e sia uuna soluzione della G-equazione (1.5). Allora esiste una costante α ∈ (0, 1)dipendente solamente da d,G, ε tale che per ogni κ > 0,

‖u‖C1+ α

2 ,2+α([0,T−κ]×Rd)< ∞.

Page 17: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Capitolo 2Attesa sublineare

L’attesa sublineare viene utilizzata nelle situazioni in cui i modelli di probabilitahanno incertezza. In questo capitolo verranno presentati alcuni cenni relativi aquesto tipo di previsione, le condizioni che deve soddisfare e alcune proprietaderivanti da esse, tra cui l’autodominazione e la convessita. Verranno presentatianche i rispettivi spazi di attesa sublineare. Viene dimostrato inoltre il Teoremadi rappresentazione di attesa sublineare (Teorema 2.2.1), sfruttando il Teore-ma di Hahn-Banach (1.2.2) e le nozioni base di distribuzioni di variabili casualie indipendenza di vettori sotto attese sublineari.

2.1 Attesa sublineare e spazi di attesa sublin-eare

Siano Ω un insieme e H uno spazio lineare di funzioni a valori reali definite suΩ. Assumiamo che tutte le costanti c ∈ R stiano in H e che se X ∈ H allora|X| ∈ H.

Definizione 2.1.1. Un funzionale E : H → R e definito attesa sublineare sesoddisfa le seguenti condizioni:

1. Monotonia:E[X] ≥ E[Y ] se X ≥ Y con X, Y ∈ H.

2. Conservazione delle costanti:E[c] = c per c ∈ R.

3. Subadditivita: Per ogni X, Y ∈ H

E[X + Y ] ≤ E[X] + E[Y ].

4. Omogeneita positiva:E[λX] = λE[X] per λ ≥ 0.

La terna (Ω, H,E) e detta spazio di attesa sublineare. Se sono soddisfattele condizioni (1) e (2), E e chiamata attesa non lineare e la terna (Ω, H,E) e

17

Page 18: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

18 CAPITOLO 2. ATTESA SUBLINEARE

chiamata spazio di attesa non lineare.

Definizione 2.1.2. Siano E1 e E2 due attese non lineari definite su (Ω, H); sidice che E1 e dominato da E2 se

E1[X]− E1[Y ] ≤ E2[X − Y ] per X, Y ∈ H. (2.1)

Osservazione 2.1.3. Per la condizione (3) un’attesa sublineare e dominata dase stessa. Questa proprieta e chiamata di autodominazione. Se nella condizione(3) vale l’uguaglianza, allora E e un’attesa lineare, cioe E e un funzionale lineareche soddisfa (1) e (2)

Osservazione 2.1.4. Le condizioni (3) e (4) sono chiamate condizioni di sub-linearita. Tale sublinearita implica la(5) Convessita

E[αX + (1− α)Y ] ≤ αE[X] + (1− α)E[Y ] per α ∈ [0, 1] (2.2)

Se l’attesa non lineare E soddisfa la convessita, e chiamata attesa convessa. Leproprieta (2) e (3) implicano invece la(6) Cash translatability

E[X + c] = E[X] + c per c ∈ RInfatti abbiamo

E[X] + c = E[X]− E[−c] ≤ E[X + c] ≤ E[X] + E[c] = E[X] + c

La condizione (4) e equivalente a

E[λX] = λ+E[X] + λ−E[−X] per λ ∈ ROsservazione 2.1.5. E facile verificare che

E[X] ≥ −E[−X].

Dim. Sapendo che E[0] = 0, abbiamo dalla proprieta di Subadditivita

E[0] = E[X −X] = E[X + (−X)]≤ E[X] + E[−X]

Quindi E[X] + E[−X] ≥ 0, da cui segue che E[X] ≥ −E[−X]. ¤

Nei prossimi capitoli vengono sistematicamente studiati spazi di attese sub-lineari (Ω,H,E) nei prossimi capitoli. Consideriamo i seguenti spazi di at-tese sublineari: se X1, · · · , Xn ∈ H allora ϕ(X1, · · · , Xn) ∈ H per ogni ϕ ∈Cl,Lip(Rn), dove Cl,Lip(Rn) denota lo spazio di funzioni lineari ϕ soddisfacenti

|ϕ(x)− ϕ(y)| ≤ C(1 + |x|m + |y|m)|x− y| perx, y ∈ Rn

per qualche C > 0 , m ∈ N dipendente da ϕ.In questo caso X = (X1, · · · , Xn) e detto vettore casuale n-dimensionale, deno-tato da X ∈ Hn.

Page 19: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

2.1. ATTESA SUBLINEARE E SPAZI DI ATTESA SUBLINEARE 19

Osservazione 2.1.6. E chiaro che se X ∈ H allora |X|, Xm ∈ H. Piu ingenerale, ϕ(X)ψ(Y ) ∈ H se X, Y ∈ H e ϕ,ψ ∈ Cl.Lip(R). In particolare, seX ∈ H allora E[|X|n] < ∞ per ogni n ∈ N.

Usiamo Cl.Lip(Rn) solo per convenienza. Infatti, la nostra richiesta essenzialee che H contenga tutte le costanti ed inoltre, X ∈ H implichi |X| ∈ H. Ingenerale Cl.Lip(Rn) puo esser sostituito da uno qualsiasi dei seguenti spazi difunzioni definiti su Rn.

• L∞(Rn) : lo spazio delle funzioni Borel misurabili limitate;

• Cb(Rn) : lo spazio delle funzioni limitate e continue;

• Ckb (Rn) : lo spazio delle funzioni derivabili e continue k volte con le derivate

di ordine minore o uguali a k limitate.

• Cunif (Rn): lo spazio delle funzioni limitate e uniformemente continue.

• Cb.Lip(Rn): lo spazio delle funzioni limitate e Lipschitziane.

• L0(Rn): lo spazio delle funzioni Borel misurabili.

Diamo ora due esempi di attese sublineari.

Esempio 2.1.7. In un gioco bisogna scegliere una pallina da un’urna conte-nente W palline bianche, B nere e Y gialle. Il proprietario dell’urna, che e anchel’arbitro del gioco, non dice l’esatto numero di palline per ogni colore, ma cidice solamente che il numero di palline totali e 100 e W = B ∈ [20, 25]. Sia ξuna variabile casuale definita da

ξ =

1 se la pallina e bianca0 se la pallina e gialla−1 se la pallina e nera

Problema: come misurare la perdita X = ϕ(ξ) per una data funzione ϕ su R.Sappiamo che la distribuzione di ξ e

−1 0 1p2 1− p p

2

con incertezza p ∈ [µ, µ] = [0.4, 0.5]. Allora l’attesa robusta di X = ϕ(ξ) e

E[ϕ(ξ)] := supP∈P

EP [ϕ(ξ)]

= supp∈[µ,µ]

[p

2(ϕ(1) + ϕ(−1)) + (1− p)ϕ(0)].

ξ ha quindi distribuzione incerta.

Esempio 2.1.8. Una situazione piu generale si ha quando l’arbitro del giocopuo scegliere tra un’insieme di distribuzioni F (θ, A)A∈B(R),θ∈Θ di una vari-abile casuale ξ. In questa situazione l’attesa robusta di una posizione di rischioϕ(ξ) per qualche ϕ ∈ Cl.Lip(R) e

E[ϕ(ξ)] := supθ∈Θ

Rϕ(x)F (θ, dx).

Page 20: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

20 CAPITOLO 2. ATTESA SUBLINEARE

Esercizio 2.1.9. Dimostrare che un funzionale E soddisfa la sublinearita se esolo se soddisfa la convessita e la omogeneita positiva.(=⇒) Sia E un funzionale sublineare, allora e subadditivo e omogeneo positivo.Presi X,Y ∈ H, α ∈ [0, 1],

E[αX + (1− α)Y ] ≤ E[αX] + E[(1− α)Y ] = αE[X] + (1− α)E[Y ]

dove la disuguaglianza e dovuta alla subadditivita, e l’uguaglianza all’omogeneapositivita. Quindi E e convesso.(⇐=) Sia E un funzionale convesso. Allora dalla proprieta (2) con α = 0.5 siha,

E[0.5X + 0.5Y ] ≤ 0.5E[X] + 0.5E[Y ] = 0.5[E[X] + E[Y ]] (2.3)

D’altra parte dato che il funzionale e positivamente omogeneo

E[0.5X + 0.5Y ] = E[0.5(X + Y )] = 0.5E[X + Y ] (2.4)

Dalla (2.3) e dalla (2.4), segue

E[X + Y ] ≤ E[X] + E[Y ]

Quindi E e subadditivo, e dato che soddisfa anche la omogeneita positiva esublineare.

Esercizio 2.1.10. Supponiamo che tutti gli elementi in H siano limitati.Dimostrare che l’attesa sublineare piu forte su H e:

E∞[X] := X∗ = supω∈Ω

X(ω)

Mostrare, cioe, che tutte le altre attese sublineari sono dominate da E∞[·].Dimostriamo che E∞[X] e un’attesa sublineare:

1. Monotonia: Per ogni X, Y ∈ H, se X ≥ YE∞[X] = sup

ω∈ΩX(ω) ≥ sup

ω∈ΩY (ω) = E∞[Y ]

2. Conservazione delle costanti: Per ogni c ∈ RE∞[c] = sup

ω∈Ωc = c

in quanto c e indipendente da ω.

3. Subadditivita: Per ogni X, Y ∈ H

E∞[X + Y ] := supω∈Ω

[X + Y ](ω) ≤ supω∈Ω

X(ω) + supω∈Ω

Y (ω) = E∞[X] +E∞[Y ]

4. Omogeneita positiva:Se λ ≥ 0 allora E∞[λX] = sup

ω∈ΩλX(ω) = λsup

ω∈ΩX(ω) = λE∞[X]

Page 21: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

2.2. RAPPRESENTAZIONE DI ATTESA SUBLINEARE 21

Dimostriamo ora, che presa una qualsiasi altra attesa sublineare E, essa e dom-inata da E∞. Presi X,Y ∈ H, ed E[·] un funzionale sublineare qualsiasi su Ωabbiamo,

E[X] = E[X − Y + Y ] ≤ E[X − Y ] + E[Y ]≤ E sup

ω∈Ω[X − Y ](ω) + E[Y ]

≤ supω∈Ω

[X − Y ](ω) + E[Y ]

= E∞[X − Y ] + E[Y ]

dove la prima disuguaglianza segue dalla subadditivita, la seconda dalla mono-tonia, la terza dalla proprieta di conservazione delle costanti. Quindi,

E[X]− E[Y ] ≤ E∞[X − Y ]

cioe E∞ e la piu forte attesa sublineare su H.

2.2 Rappresentazione di attesa sublineare

Un’attesa sublineare puo essere espressa come estremo superiore di attese lineari.

Teorema 2.2.1. Sia E un funzionale definito su uno spazio lineare H subad-ditivo e positivamente omogeneo. Allora esiste una famiglia di funzionali lineariEθ : θ ∈ Θ definita su H t.c.

E[X] = supθ∈Θ

Eθ[X] per X ∈ H

e per ogni X ∈ H, esiste θX ∈ Θ t.c. E[X] = EθX[X]. Inoltre se E e un’attesa

sublineare, il corrispondente EθXe un’attesa lineare.

Dim. Sia Q = Eθ : θ ∈ Θ la famiglia di tutti i funzionali lineari dominatida E, cioe Eθ[X] ≤ E[X] ,∀X ∈ H , Eθ ∈ Q. Q e non vuoto. Infatti per undato X ∈ H, poniamo L = aX : a ∈ R un sottospazio di H. Definiamo ilfunzionale I : L → R nel seguente modo: I[aX] = aE[X], ∀a ∈ R . I[·] e unfunzionale lineare su L e I ≤ E su L. I e un funzionale lineare su L in quanto,considerando α, β ∈ R

I(αaX + βbX) = I[(αa + βb)X] = (αa + βb)E[X] =

αaE[X] + βbE[X] = αI(aX) + βI(bX)

Dimostriamo che I ≤ E su L.Se a > 0, I(aX) = aE[X] = E[aX] poiche E e positivamente omogeneo. Se

a < 0, grazie all’Osservazione 2.1.5 abbiamo

E[X] + E[−X] ≥ 0

a−E[X] + a−E[−X] ≥ 0

− a−E[X]− a−E[−X] ≤ 0

− a−E[X] ≤ a−E[−X]

Page 22: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

22 CAPITOLO 2. ATTESA SUBLINEARE

e, dall’Osservazione 2.1.4 E[aX] = a−E[−X], quindi

I[aX] = aE[X] = −(−a)E[X] = −a−E[X] ≤ a−E[−X] = E[aX]. (2.5)

Dato che E e subadditivo e positivamente omogeneo, per il teorema di Hahn-Banach, esiste un funzionale lineare E su H tale che E = I su L e E ≤ E su H.Allora E e un funzionale dominato da E t.c. E[X] = E[X]. Definiamo ora

EΘ[X] := supθ∈Θ

Eθ[X] per X ∈ H

E chiaro che EΘ = E.Inoltre, se E e un’attesa sublineare, allora per ogni elemento non negativo diX ∈ H, si ha E[X] = −E[−X] ≥ −E[−X] ≥ 0 perche vale E ≤ E. Per ognic ∈ R− E[c] = E[−c] ≤ E[−c] = −c e E[c] ≤ E[c] = c; quindi abbiamo E[c] = c.Quindi E e un’attesa lineare. ¤

Osservazione 2.2.2. E importante osservare che l’attesa lineare Eθ e solofinitamente additiva. Una condizione sufficiente per la σ-additivita di Eθ e quelladi assumere che E[Xi] → 0 per ogni sequenza Xi∞i=1 di H t.c. Xi(ω) ↓ 0 perogni ω. In questo caso, e chiaro che Eθ[Xi] → 0. Allora possiamo applicare ilteorema di Daniell-Stone (1.3.4) per trovare una misura di probabilita σ-additivaPθ su (Ω, σ(H)) t.c.

Eθ[X] =∫

Ω

X(ω)dPθ, X ∈ H.

Il corrispondente modello di probabilita e il sottoinsieme Pθ : θ ∈ Θ, e lacorrispondente distribuzione di incertezza per un vettore casuale n-dimensionaleX in H e FX(θ, A) := Pθ(X ∈ A) : A ∈ B(Rn)

Diamo ora un’altra versione del teorema precedente.Sia Pf la collezione di tutte le misure finitamente additive su (Ω, F), L∞0 (Ω,F)

la collezione delle posizioni di rischio con valori finiti X della forma

X(ω) =N∑

i=1

xiIAi(ω), xi ∈ R, Ai ∈ F, i = 1, · · · , N

E facile verificare che sotto la norma ‖ · ‖∞, L∞0 (Ω, F) e denso in L∞(Ω, F). Peruna fissata misura Q ∈ Pf e X ∈ L∞0 (Ω, F), definiamo

EQ[X] = EQ[N∑

i=1

xiIAi(ω)] :=N∑

i=1

xiQ(Ai) =∫

Ω

X(ω)Q(dω).

EQ : L∞0 (Ω, F) → R e un funzionale lineare. Si puo provare che EQ soddisfa laproprieta di monotonia e preserva le costanti ed e inoltre continua sotto ‖X‖∞.

|EQ[X]| ≤ supω∈Ω

|X(ω)| = ‖X‖∞.

Possiamo estendere EQ da L∞0 a un funzionale lineare continuo su L∞(Ω,F),dato che L∞0 e denso in L∞.

Page 23: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

2.2. RAPPRESENTAZIONE DI ATTESA SUBLINEARE 23

Proposizione 2.2.3. Il funzionale lineare EQ[·] : L∞(Ω, F) → R soddisfa 1.e 2. Viceversa ogni funzionale lineare η(·) : L∞(Ω,F) → R, che soddisfa 1. e2., induce una misura di probabilita finitamente additiva definita da Qη(A) :=η(IA) , A ∈ F. La corrispondente attesa e η stessa,

η(X) =∫

Ω

X(ω)Qη(dω) (2.6)

Teorema 2.2.4. Un’attesa sublineare E ha la seguente rappresentazione: esisteun sottoinsieme Q ⊂ Pf t.c.

E[X] = supQ∈Q

EQ[X] per X ∈ H.

Dim. Segue dal Teorema 2.2.1 che

E[X] = supθ∈Θ

Eθ[X] per X ∈ H ,

dove Eθ e un’attesa lineare su H per un fissato θ ∈ Θ. Possiamo definire unanuova attesa sublineare su L∞(Ω, σ(H)) come

Eθ[X] := infEθ[Y ]; Y ≥ X, Y ∈ H

Non e difficile verificare che Eθ[X] e un’attesa sublineare su L∞(Ω, σ(H)), doveσ(H) e la piu piccola σ−algebra generata da H. Abbiamo anche che Eθ ≤ Eθ

su H ∩ L∞(Ω, σ(H)). Grazie al teorema di Hahn-Banach Eθ puo essere estesada H ∩ L∞(Ω, σ(H)) a L∞(Ω, σ(H)). Dalla Proposizione (2.2.3) esiste Q ∈ Pf

t.c.

Eθ[X] = EQ[X] per X ∈ H.

Esiste quindi Q ⊂ Pf , t.c.

E[X] = supQ∈Q

EQ[X] per X ∈ H.

Esercizio 2.2.5. Dimostrare che Eθ e un’attesa sublineare.

1. Monotonia:Eθ[X] ≥ Eθ[Z] se X ≥ Z

infEθ[Y ]; Y ≥ X, Y ∈ H ≥ infEθ[Y ]; Y ≥ Z, Y ∈ Hsfruttando le proprieta dell’ inf.

2. Constant preserving: Dato che c ∈ H ed E e un’attesa lineare quindipreserva le costanti

Eθ[c] := infEθ[Y ]; Y ≥ c, Y ∈ H = Eθ[c] = c

Page 24: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

24 CAPITOLO 2. ATTESA SUBLINEARE

3. Subadditivita:

Eθ[X + Z] = infEθ[Y ];Y ≥ X + Z ≤ Eθ[X] + Eθ[Z]

Siano due v.a. Y1, Y2 ∈ H, t.c. Y1 ≥ X, Y2 ≥ Z

infEθ[Y ]; Y ≥ X + Z ≤ infEθ[Y ];Y = Y1 + Y2 == infEθ[Y ];Y ≥ X+ infEθ[Y ]; Y ≥ Z =

= Eθ[X] + Eθ[Z]

4. Omogeneita positiva: Sia λ > 0; se Y ∈ H allora Yλ ∈ H

Eθ[λX] = infEθ[Y ]; Y ≥ λX, Y ∈ H = infλEθ[Y

λ]; Y

λ ≥ X, Yλ ∈ H

Posto U = Yλ ,

infλEθ[U ]; U ≥ X, U ∈ H = λ infEθ[U ]; U ≥ X, U ∈ H = λEθ[X]

Se λ = 0 allora

Eθ[λX] = Eθ[0 ·X] = Eθ[0] = 0 = 0 · Eθ[X]

2.3 Distribuzione, indipendenza e spazi prodot-to

Diamo ora la nozione di distribuzione di variabili casuali sotto attese sublineari.Dato X = (X1, · · · , Xn) un vettore casuale sullo spazio di attesa non lineare(Ω, H,E), definiamo un funzionale su Cl.Lip(Rn) nel modo seguente,

FX [ϕ] := E[ϕ(X)] : ϕ ∈ Cl.Lip(Rn) → R

La terna (Rn, Cl.Lip(Rn),FX) forma uno spazio di attesa non lineare e FX echiamata distribuzione di X sotto E.Dall’ Osservazione 2.2.2 possiamo provare che esiste una famiglia di misuredi probabilita F θ

X(·)θ∈Θ definita su (Rn, B(Rn)) tale che

FX [ϕ] = supθ∈Θ

Rn

ϕ(x)F θX(dx), ∀ϕ ∈ Cb.Lip(Rn)

Cosı F[·] caratterizza l’incertezza delle distribuzioni di X.

Definizione 2.3.1. Dati X1 e X2 due vettori n-dimensionali definiti rispetti-vamente sugli spazi di attesa non lineare (Ω1,H1,E1) e (Ω2,H2,E2), essi sonodetti identicamente distribuiti, i.e. X1

d= X2, se

E1[ϕ(X1)] = E2[ϕ(X2)], ∀ϕ ∈ Cl.Lip(Rn)

Quindi X1d= X2 se e solo se le loro distribuzioni coincidono, e la distribuzione

di X1 si definisce piu forte di quella di X2 se E1[ϕ(X1)] ≥ E2[ϕ(X2)] per ogniϕ ∈ Cl.Lip(Rn).

Page 25: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

2.3. DISTRIBUZIONE, INDIPENDENZA E SPAZI PRODOTTO 25

Osservazione 2.3.2. Nel caso di attese sublineari, X1d= X2 implica che

i sottoinsiemi di incertezza delle distribuzioni di X1 e X2 sono gli stessi nelcontesto dell’Osservazione 2.2.2, i.e

FX1(θ1, ·) : θ1 ∈ Θ1 = FX2(θ2, ·) : θ2 ∈ Θ2Analogamente, se la distribuzione di X1 e piu forte di quella di X2, allora

FX1(θ1, ·) : θ1 ∈ Θ1 ⊃ FX2(θ2, ·) : θ2 ∈ Θ2La distribuzione di X ∈ H e caratterizzata dai seguenti 4 parametri

µ := E[X], µ := −E[−X], σ2 := E[X2], σ2 := −E[−X2]

Gli intervalli [µ, µ] e [σ2, σ2] caratterizzano rispettivamente l’media-incertezzae la varianza-incerta di X. Una domanda che sorge spontanea e: possiamotrovare una famiglia di distribuzioni di misure che rappresentano la distribuzionesublineare di X? La risposta e affermativa:

Lemma 2.3.3. Preso (Ω,H,E) uno spazio di attesa sublineare. Dato X ∈ Hd,allora per ogni sequenza ϕn∞n=1 ⊂ Cl.Lip(Rd) soddisfacente ϕn ↓ 0, abbiamoE[ϕn(X)] ↓ 0.

Dim. Per ogni fissato N > 0,

ϕn(x) ≤ kNn + ϕ1(x)I[|x|>N ] ≤ kN

n +ϕ1(x)|x|

Nper ogni x ∈ Rd×m ,

dove kNn = max

|x|≤Nϕn(x). Abbiamo allora,

E[ϕn(X)] ≤ kNn +

1N δE[ϕ1(X)|X|δ].

Segue che, da ϕn ↓ 0 allora kNn ↓ 0. Cosı abbiamo lim

n→∞E[ϕn(X)] ≤

CNE[ϕ1(X)|X|]. Siccome N puo esser arbitrariamente grande, abbiamo E[ϕn(X)] ↓0. ¤Lemma 2.3.4. Siano (Ω, H,E) uno spazio di attesa sublineare e FX [ϕ] :=E[ϕ(X)] la distribuzione sublineare di X ∈ Hd. Allora esiste una famiglia dimisure di probabilita Fθθ∈Θ definita su (Rd, B(Rd)) tale che

FX [ϕ] = supθ∈Θ

Rd

ϕ(x)Fθ(dx), ϕ ∈ Cl.Lip(Rd). (2.7)

Dim. Dal teorema di rappresentazione, per l’attesa sublineare FX [ϕ] defini-ta su (Rd, Cl.Lip(Rn)), esiste una famiglia di attese lineari fθθ∈Θ su (Rd, Cl.Lip(Rn))t.c.

FX [ϕ] = supθ∈Θ

fθ[ϕ], ϕ ∈ Cl.Lip(Rn).

Dal lemma precedente, per ogni sequenza ϕn∞n=1 in Cb.Lip t.c. ϕn ↓ 0su Rd, FX [ϕn] ↓ 0, allora fθ[ϕn] ↓ 0 per ogni θ ∈ Θ. Segue dal Teorema diDaniell-Stone che, per ogni θ ∈ Θ, esiste un’unica misura di probabilita Fθ(·)su (Rd, σ(Cb.Lip(Rd))) = (Rd,B(Rd)) tale che fθ[ϕ] =

∫Rd ϕ(x)Fθ(dx). Cosı

abbiamo la (2.7).

Page 26: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

26 CAPITOLO 2. ATTESA SUBLINEARE

Osservazione 2.3.5. Il lemma precedente ci dice che la distribuzione sub-lineare FX di X caratterizza l’incertezza della distribuzione di X, che e unsottoinsieme di distribuzioni Fθθ∈Θ.

La seguente proposizione e molto utilizzata nella teoria delle attese sublin-eari.

Proposizione 2.3.6. Sia (Ω, H,E) uno spazio di attesa sublineare e X, Y duevariabili aleatorie t.c. E[Y ] = −E[−Y ], allora abbiamo

E[X + αY ] = E[X] + αE[Y ] per α ∈ RIn particolare, se E[Y ] = E[−Y ] = 0, allora E[X + αY ] = E[X].

Dim. Abbiamo

E[αY ] = α+E[Y ] + α−E[−Y ] = α+E[Y ]− α−E[Y ] = αE[Y ] per α ∈ R.

Cosı

E[X + αY ] ≤ E[X] + E[αY ] = E[X] + αE[Y ] = E[X]− E[−αY ] ≤ E[X + αY ]

dove la prima disuguaglianza e dovuta alla proprieta di subadditivita e laprima uguaglianza all’omogeneita positiva. ¤Proposizione 2.3.7. Assumiamo le stesse condizioni della precedente propo-sizione. Sia E un’attesa non lineare su (Ω, H) dominata dall’attesa sublineareE nel senso della (2.1). Se E[Y ] = E[−Y ], allora abbiamo

E[αY ] = αE[Y ] = αE[Y ], α ∈ R. (2.8)

eE[X + αY ] = E[X] + αE[Y ] X ∈ H, α ∈ R. (2.9)

In particolare,E[X + c] = E[X] + c, per c ∈ R

Dim. Abbiamo

−E[Y ] = E[0]− E[Y ] ≤ E[−Y ] = −E[Y ] ≤ −E[Y ]

e

E[Y ] = −E[−Y ] ≤ −E[−Y ] (2.10)

= E[0]− E[−Y ] ≤ E[Y ]

Dalla precedente relazione, abbiamo E[Y ] = E[Y ] = −E[−Y ] e cosı otteni-amo la (2.8). Ancora dalla proprieta di dominazione,

E[X + αY ]− E[X] ≤ E[αY ], (2.11)

E[X]− E[X + αY ] ≤ E[−αY ] = −E[αY ]. (2.12)

E cosı otteniamo la (2.9).

Page 27: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

2.3. DISTRIBUZIONE, INDIPENDENZA E SPAZI PRODOTTO 27

Definizione 2.3.8. Una sequenza di vettori casuali n-dimensionali ηi∞i=1,definita su uno spazio di attesa sublineare (Ω,H,E) converge in distribuzione(o in legge) sotto E se ∀ϕ ∈ Cb.Lip(Rn), la sequenza E[ϕ(ηi)]∞i=1 converge.

E facile quindi dimostrare la seguente proposizione.

Proposizione 2.3.9. Sia ηi∞i=1 una serie di vettori aleatori convergente inlegge. Allora la mappa F[·] : Cb.Lip(Rn) → R definita da

F[ϕ] := limi→∞

E[ϕ(ηi)] per ϕ ∈ Cb.Lip(Rn)

e un’attesa sublineare definita su (Rn, Cb.Lip(R)n).

Un ruolo chiave nella teoria delle attese sublineari e rappresentato dallaseguente nozione d’indipendenza.

Definizione 2.3.10. In uno spazio di attesa non lineare (Ω, H,E), un vettorecasuale Y ∈ Hn e detto indipendente da un altro vettore casuale X ∈ Hm sottoE[·] se per ogni funzione ϕ ∈ Cl.Lip(Rm+n) si ha

E[ϕ(X, Y )] = E[E[ϕ(x, Y )]x=X ]

Osservazione 2.3.11. Per spazi di attese sublineari (Ω, H,E), Y e indipen-dente da X significa che l’incertezza delle distribuzioni FY (θ, ·) : θ ∈ Θ di Ynon muta dopo la realizzazione di X = x. In altre parole l’ attesa sublinearecondizionata di Y rispetto a X e E[ϕ(x, Y )]x=X . Nel caso di attesa lineare, lanozione di indipendenza corrisponde a quella classica.

Osservazione 2.3.12. E importante sottolineare che sotto le attese sublinearila condizione Y e indipendente da X non implica automaticamente che X eindipendente da Y.

Esempio 2.3.13. Consideriamo il caso in cui E e un’attesa sublineare e X, Y ∈H sono identicamente distribuiti con E[X] = E[−X] = 0 e σ2 = E[X2] >σ2 = −E[−X2]. Assumiamo anche che E[|X|] = E[X+ + X−] > 0, quindiE[X+] = 1

2E[|X| + X] = 12E[|X|] > 0. Nel caso in cui Y e indipendente da X,

abbiamoE[XY 2] = E[X+σ2 −X−σ2] = (σ2 − σ2)E[X+] > 0.

Ma se X e indipendente da Y , abbiamo

E[XY 2] = 0.

La proprieta di indipendenza di due vettori casuali X, Y coinvolge solo ladistribuzione congiunta di (X,Y ). Il seguente risultato ci dice come costruirevettori casuali con distribuzioni marginali assegnate e con una specifica direzionedi indipendenza.

Definizione 2.3.14. Dati (Ωi, Hi,Ei), i = 1, 2 due spazi di attesa sublineare.Denotiamo

H1 ⊗H2 := Z(ω1, ω2) = ϕ(X(ω1), Y (ω2)) : (ω1, ω2) ∈ Ω1 × Ω2,

(X, Y ) ∈ Hm1 ×Hn

2 , ϕ ∈ Cl.Lip(Rm+n),

Page 28: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

28 CAPITOLO 2. ATTESA SUBLINEARE

e, per ogni variabile casuale della forma Z(ω1, ω2) = ϕ(X(ω1), Y (ω2)),

(E1 ⊗ E2)[Z] := E1[ϕ(X)], dove ϕ(x) := E2[ϕ(x, Y )], x ∈ Rm.

E facile verificare che la terna (Ω1 × Ω2, H1 ⊗ H2,E1 ⊗ E2) forma uno spaziodi attesa sublineare che chiameremo spazio prodotto degli spazi di attese nonlineari e sublineari (Ω1, H1,E1) e (Ω2,H2,E2). Possiamo cosı definire lo spazioprodotto

(n∏

i=1

Ωi,

n⊗

i=1

Hi,

n⊗

i=1

Ei)

degli spazi di attesa sublineare (Ωi, Hi,Ei), i = 1, 2, · · · , n. In particolarequando (Ωi, Hi,Ei) = (Ω1, H1,E1) abbiamo lo spazio prodotto della forma(Ωn

1 , H⊗n1 ,E⊗n

1 ).

Siano X, X due vettori casuali n-dimensionali definiti sullo spazio di attesasublineare (Ω,H,E). X e detta una copia indipendente di X se X

d= X e X eindipendente da X.

Proposizione 2.3.15. Sia Xi un vettore casuale ni-dimensionale definito sul-lo spazio di attesa sublineare (Ωi, Hi,Ei) per i = 1, · · · , n rispettivamente.Denotiamo

Yi(ω1, · · · , ωn) := Xi(ωi), i = 1, · · · , n.

Allora Yi, i = 1, · · · , n, sono vettori casuali su (∏n

i=1 Ωi,⊗ni=1Hi,⊗n

i=1Ei). In-

oltre abbiamo Yid= Xi e Yi+1 e indipendente da (Y1, · · · , Yi) per ogni i.

Inoltre se (Ωi,Hi,Ei) = (Ω1,H1,E1) e Xid= X1, per ogni i, allora abbiamo

Yid= Y1. In questo caso si dice che Yi e una copia indipendente di Y1 per

i = 1, · · · , n.

Osservazione 2.3.16. Nella precedente proposizione il numero intero n puoesser anche infinito. In questo caso la variabile casuale X ∈ ⊗∞i=1H appartitenea (

∏ki=1 Ωi,⊗k

i=1Hi,⊗ki=1Ei) per k < +∞ intero positivo e

∞⊗

i=1

Ei[X] :=k⊗

i=1

Ei[X]

Osservazione 2.3.17. La situazione Y e indipendente da X avviene spessoquando Y si verifica dopo X.

Esempio 2.3.18. Consideriamo una situazione dove due variabili casuali X, Yin H sono identicamente distribuite e la loro distribuzione comune e

FX [ϕ] = FY [ϕ] = supθ∈Θ

Rϕ(y)F (θ, dy) per ϕ ∈ Cl.Lip(R),

dove, per ogni θ ∈ Θ, F (θ,A)A∈B(R) e una misura di probabilita su (R, B(R)).In questo caso, Y e indipendente da X significa che la distribuzione congiuntadi X e Y e

FX,Y [ψ] = supθ1∈Θ

R[ supθ2∈Θ

Rψ(x, y)F (θ2, dy)]F (θ1, dx) per ψ ∈ Cl.Lip(R2).

Page 29: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Capitolo 3Misure di rischio coerenti

Nell’ambito della finanza matematica ha assunto grande rilievo la nozione dimisura di rischio coerente, introdotta in [1], [7]; dopo una breve introduzioneeconomica vengono riprese le condizioni necessarie e sufficienti a definire questamisura e come puo essere collegata direttamente al concetto di attesa sublineare,sviluppato nel Capitolo 2. Una proprieta interessante e la relazione tra misuracoerente di rischio e attesa sublineare: se E e un’attesa sublineare, definendoρ(X) := E[−X], allora ρ e una misura coerente di rischio, e viceversa, se ρ e unamisura coerente di rischio, definendo E[X] := ρ(−X), allora E e un’attesa sub-lineare. Nell’ultima parte di questo capitolo vengono fornite le nozioni principalirelative al VaR, la misura di rischio piu utilizzata nei mercati finanziari.

3.1 Definizione di rischio e di misura coerente

Il rischio e definito come la variazione di valore tra due istanti temporali, datoche e connesso alla variabilita del valore futuro di una posizione, dovuta aicambiamenti del mercato o all’incertezza degli eventi. La nozione di misura dirischio ha origine dalla necessita di esprimere quale sia il grado di rischiositadei numeri aleatori appartenenti ad un insieme H, ognuno dei quali rappresentail valore che una certa posizione assumera in un istante futuro t = T . Lavalutazione del rischio viene effettuata da un supervisore del rischio che, purnon gestendo direttamente le posizioni, deve decidere se questa posizione puoessere assunta o meno e comunicare a traders, security companies o banche,quali tipi di posizioni di rischio sono inaccettabili e qual e il minimo ammontaredi capitale di rischio che dovrebbe esser depositato per rendere le posizioniaccettabili. Quest’ ultima valutazione viene effettuata tramite strumenti diriferimento in possesso del supervisore. Esistono due tipi di supervisori delrischio: un regulator che prende in esame i casi sfavorevoli permettendo unaposizione di rischio che dovrebbe delineare la situazione futura, e un exchange’sclearing firm, il quale deve aver la fortuna che le promesse fatte da tutte le parti,agenti in un accordo, vengano portate a termine.

Gli assiomi che forniremo non saranno in grado di farci scegliere una specificamisura di rischio, in quanto nella scelta finale sono determinanti anche consider-azioni economiche. Per un rischio inaccettabile, una via d’uscita dovrebbe essere

29

Page 30: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

30 CAPITOLO 3. MISURE DI RISCHIO COERENTI

quella di modificare la posizione o di cercare qualche strumento che, adattatoalla posizione attuale, fa diventare accettabile la posizione al supervisore.

Consideriamo un periodo di tempo (0, T ); le diverse valute sono numeratecon i, 1 ≤ i ≤ I e per ognuna di queste sono dati gli strumenti di riferimentopresenti sul mercato, i quali ci portano da una unita alla data 0 della moneta ia ri unita alla data T .

Il periodo (0, T ) puo esser considerato come il periodo tra l’hedging e ilrehedging, dove il primo e una strategia d’investimento disegnata per ridurre ilrischio di un investimento tramite l’utilizzo di strumenti derivati. Prendiamo inconsiderazione l’attivita di un investitore soggetto a una certa regolamentazionenel paese i = 1; Denotiamo con ei il numero di unita della moneta della nazionei = 1 comprate al tempo t = 0; un portafoglio di un investitore inizialmente eformato da posizioni Ai, 1 ≤ i ≤ I, le quali ci danno Ai(T ) unita di moneta ial tempo T . Chiameremo come rischio il possibile futuro guadagno

∑1≤i≤I ei ·

Ai(T ).Consideriamo la coppia (Ω, H), dove H e la collezione di tutte le possi-

bili posizioni di rischio nel mercato finanziario, Ω e l’insieme finito di tutti ipossibili scenari futuri e lo consideriamo come l’insieme delle possibili uscitedell’esperimento. Possiamo calcolare il risultato finale di una posizione di ris-chio, denotata con X per ogni elemento di Ω. La sua parte negativa e denotatada max(−X, 0) = X−; se X ∈ H, allora per ogni costante c ∈ R, X ∨ c e X ∧ cappartengono ad H. Un esempio tipico in finanza e quando X rappresenta ilprezzo futuro di uno stock. In questo caso anche ogni opzione Call o Put europeacon strike price K della forma (S −K)+, (K − S)+ appartiene ad H.

La collezione delle posizioni accettabili e definita da

A = X ∈ H : X e accettabile (3.1)

Definizione 3.1.1. Un insieme A e detto coerentemente accettabile se soddisfa

1. MonotoniaX ∈ A, Y ≥ X implica Y ∈ A.

2.0 ∈ A ma − 1 /∈ A.

3. Positiva omogeneita

X ∈ A implica λX ∈ A for λ ≥ 0.

4. Convessita

X,Y ∈ A implica αX + (1− α)Y ∈ A per α ∈ [0, 1].

Osservazione 3.1.2. : Le ultime due condizioni, se verificate, implicano laSublinearita,5.

X, Y ∈ A ⇒ µX + νY ∈ A per µ, ν ≥ 0

Osservazione 3.1.3. : Se sono verificate le condizioni (1), (2) e (4), allora A

e un insieme convesso accettabile e un cono positivamente omogeneo.

Page 31: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

3.1. DEFINIZIONE DI RISCHIO E DI MISURA COERENTE 31

In questa sezione studiamo principalmente il caso di rischio coerente. Gliinsiemi dei valori accettabili futuri sono i primi dati da prendere in esame persapere se rifiutare o meno una posizione di rischio.

Definizione 3.1.4. Una misura di rischio e una mappa da A in R.

Definizione 3.1.5. : Dato un insieme coerentemente accettabile A il fun-zionale ρ(·) definito da

ρ(X) = ρA(X) := infm ∈ R : m + X ∈ A, X ∈ H

e chiamato misura di rischio coerente relativa ad A. Nel caso ρ(X) > 0, questamisura di rischio rappresenta il minimo ammontare che e necessario aggiungerealla posizione X, in t = 0, ed investire in tale strumento, per rendere questaposizione accettabile al supervisore. Analogamente, se ρ(X) < 0, −ρ(X) assumeil significato del massimo ammontare che e possibile togliere ad X e mantenerela posizione accettabile.

E facile notare cheρ(X + ρ(X)) = 0

Dim. Scriviamo

ρ(X + ρ(X)) = infm ∈ R : m + X + ρ(X) ∈ A

Per definizione X + ρ(X) ∈ A e quindi anche m + X + ρ(X) ∈ A nel caso incui m ≥ 0. Facendo l’inf tra tutti i possibili m otteniamo m = 0 e quindi

ρ(X + ρ(X)) = 0. ¤

Proposizione 3.1.6. ρ(·) e una misura di rischio coerente soddisfacente leseguenti quattro proprieta:

1. MonotoniaSe il valore di un portafoglio e minore o uguale a quello di un altroportafoglio, allora la sua misura di rischio deve essere maggiore di quelladell’ altro portafoglio.

se X ≥ Y allora ρ(X) ≤ ρ(Y ).

2. Conservazione delle costanti:

ρ(1) = −ρ(−1) = −1.

Page 32: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

32 CAPITOLO 3. MISURE DI RISCHIO COERENTI

3. Subadditivita: La misura di rischio di un portafoglio risultante dallafusione di altri due, non deve mai essere maggiore della somma delle misuredi rischio relative ai due portafogli originari.

∀X, Y ∈ H, ρ(X + Y ) ≤ ρ(X) + ρ(Y ).

4. Omogeneita positiva: Se aumentiamo la dimensione di un portafoglio inbase a un fattore moltiplicativo λ, lasciandone invariata la composizione,la sua misura di rischio deve moltiplicarsi per λ.

ρ(λX) = λρ(X) per λ ≥ 0 .

Dim.

1. Monotonia:Presi X,Y ∈ A e X ≥ Y abbiamo che

ρ(X) = infm ∈ R : m + X ∈ A ≤ infm ∈ R : m + Y ∈ A = ρ(Y )

dove la disuguaglianza e ottenuta sfruttando le proprieta dell’inf.

2. Conservazione delle costanti:ρ(1) = infm ∈ R : m + 1 ∈ A = −1poiche 0 ∈ A.

3. Subadditivita:

ρ(X + Y ) = infm ∈ R : m + (X + Y ) ∈ A= infm + n : m,n ∈ R, (m + X) + (n + Y ) ∈ A≤ infm ∈ R, (m + X) ∈ A+ infn ∈ R, (n + Y ) ∈ A= ρ(X) + ρ(Y )

4. Omogeneita positiva:Per λ = 0 e ovvio; quando λ > 0,

ρ(λX) = infm ∈ R : m + λX ∈ A= λ infn ∈ R : n + X ∈ A= λρ(X)

dove n = mλ . ¤

Osservazione 3.1.7. Affermiamo che la proprieta di subadditivita, che nelcaso di misure di rischio e vista come una specie di fusione che non crei ul-teriori rischi, e un requisito naturale; poiche se esistessero due rischi X ed Yper i quali tale condizione non fosse soddisfatta, un’azienda o un profilo chevolessero prendersi il rischio X + Y troverebbero maggiore convenienza nel-l’assumere separatamente i due rischi stessi, ad esempio attraverso due contidistinti, rispettando comunque gli obblighi imposti dal supervisore.

Page 33: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

3.1. DEFINIZIONE DI RISCHIO E DI MISURA COERENTE 33

Osservazione 3.1.8. Se aggiungiamo un capitale c a un portafoglio, la suamisura di rischio deve diminuire di un importo pari a c. Per ogni X ∈ A e perogni c ∈ R abbiamo

ρ(X + c) = ρ(X)− c

Dim.

ρ(X + c) = infm ∈ R : m + c + X ∈ A= infm ∈ R : m + X ∈ A − c

= ρ(X)− c

Osservazione 3.1.9. Per ogni X ∈ A con X ≤ 0, abbiamo ρ(X) > 0

Esempio 3.1.10. Consideriamo il peggior caso di misura di rischio ρmax

definito daρmax(X) = − inf

ω∈ΩX(ω) per ogni X ∈ A

Il valore ρmax(X) e l’estremo superiore della potenziale perdita che puo avvenirein ogni possibile scenario. ρmax e quindi una misura di rischio coerente; e lamisura di rischio piu conservativa, ovvero che ogni misura monetaria di rischioρ su A soddisfa

ρ(X) ≤ ρ( infω∈Ω

X(ω)) = ρmax

Si nota che ρmax puo essere rappresentata nella forma

ρmax(X) = supQ∈Q

EQ[−X]

dove Q e di classe di tutte le misure di probabilita su (Ω, F).

Se E e un’attesa sublineare, definendo ρ(X) := E[−X], allora ρ e una misuracoerente di rischio.

1. Monotonia Presi X,Y ∈ A e X ≥ Y allora E[X] ≥ E[Y ]. Quindi

ρ(X) = E[−X] ≤ E[−Y ] = ρ(Y )

2. Conservazione delle costanti Preso c ∈ R abbiamo

ρ(c) = E[−c] = −c

3. Subadditivita Presi X, Y ∈ A abbiamo

ρ(X + Y ) = E[−X − Y ] = E[−X + (−Y )] ≤≤ E[−X] + E[−Y ]= ρ(X) + ρ(Y )

4. Omogeneita positiva Sia λ ≥ 0, quindi abbiamo

ρ(λX) = E[−λX] = λE[−X] = λρ(X)

Page 34: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

34 CAPITOLO 3. MISURE DI RISCHIO COERENTI

Vicevera, se ρ e una misura coerente di rischio, definendo E[X] := ρ(−X),allora E e un’attesa sublineare.

1. Monotonia

Siano X, Y ∈ H e X ≥ Y

E[X] = ρ(−X) ≥ ρ(−Y ) = E[Y ]

dove la disuguaglianza segue dal fatto che −Y ≥ −X e dalla proprieta dimonotonia delle misure coerenti di rischio.

2. Conservazione delle costanti Dato c ∈ R, abbiamo

E[c] = ρ(−c) = c

3. Subadditivita Per ogni X,Y ∈ H abbiamo,

E[X + Y ] = ρ(−X − Y ) = ρ(−X + (−Y )) ≤≤ ρ(−X) + ρ(−Y ) == E[X] + E[Y ]

4. Omogeneita positiva Sia λ ≥ 0,

E[λX] = ρ(−λX) = λρ(−X) = λE[X]

Esercizio 3.1.11. Data ρ(·) una misura di rischio coerente. Allora possiamodefinire

Aρ = X ∈ H : ρ(X) ≤ 0Mostrare che Aρ e un insieme coerentemente accettabile.

Dim.

1. MonotoniaX ∈ Aρ, Y ≥ X implica Y ∈ Aρ

Segue dalla proprieta di monotonia della Proposizione 3.1.6 che se X ∈Aρ, allora ρ(X) ≤ 0 e che se Y ≥ X allora ρ(Y ) ≤ ρ(X). Quindi ρ(Y ) ≤ρ(X) ≤ 0.

2. 0 ∈ H per definizione e ρ(0) = infm ∈ R : m + 0 ∈ A = 0 e diconseguenza ρ(0) ≤ 0 cioe 0 ∈ Aρ. Dal (2) della proposizione sopravediamo che ρ(−1) = 1 > 0 e quindi −1 /∈ Aρ.

3. Positiva omogeneita Dato X ∈ A , allora preso λ = 0 abbiamo

ρ(λX) = ρ(0×X) = ρ(0) = 0 ≤ 0,

mentre preso λ > 0 abbiamo

ρ(λX) = λρ(X) ≤ 0.

E quindi possiamo affermare che λX ∈ Aρ.

Page 35: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

3.2. IL VAR: VALUE AT RISK 35

4. Convessita

X, Y ∈ Aρ implica αX + (1− α)Y ∈ Aρ per α ∈ [0, 1]

Se X,Y ∈ Aρ allora ρ(X) ≤ 0 e ρ(Y ) ≤ 0. Preso α ∈ [0, 1], per laproprieta di positiva omogeneita e per la proprieta di monotonia, abbiamoche αX + (1− α)Y ∈ H. Siccome ρ(X) ≤ 0 e ρ(Y ) ≤ 0 allora

ρ(αX + (1− α)Y ) ≤ ρ(αX) + ρ((1− α)Y ) =

= αρ(X) + (1− α)ρ(Y ) ≤ 0

3.2 Il VaR: Value at Risk

Nella misura del rischio di un portafoglio si richiede di investigare le carat-teristiche della distribuzione di probabilita della sua perdita. Molte misure dirischio comunemente impiegate non sono coerenti. Tra queste la piu utilizzatanei mercati finanziari e rappresentata dal VaR, (Value at Risk), che rispondealla domanda:

qual e il livello di denaro tale che la perdita del portafoglio su unorizzonte temporale prefissato sia superiore ad esso con probabilitapari a p?

Questo livello e denotato come V aRp, che e definito come segue:

P(L > V aRp) = p

Ponendo l’orizzonte di tempo giornaliero abbiamo

V aRp(t + 1) = infl ∈ R : P(L(t + 1) > l) ≤ p = infl ∈ R : FL(l) ≥ 1− p

dove L(t + h) = −(V (t + h) − V (t)) e V (t) = f(t, Z(t)), con Z(t) :=(Z1(t), · · · , ZN (t)) che rappresentano i fattori di rischio, f : R × RN → R euna funzione che rappresenta il mapping del rischio e FL(·) e la funzione diprobabilita della perdita di portafoglio. Il VaR ha quindi una duplice interpre-tazione: e sia quel livello di denaro tale che la perdita del portafoglio e superioread esso con probabilita pari a p, sia quel livello di denaro che limita dall’alto laperdita del portafoglio che puo avvenire con probabilita 1− p. Percio abbiamo

V aRp(t + 1) = F−1L (1− p)

che e un quantile della distribuzione di perdita. Il VaR non e una misuradi rischio coerente, infatti vale il seguente risultato, per la cui dimostrazione sirimanda a [7]:

Teorema 3.2.1. Se lo spazio di probabilita (Ω, F,P) e puramente non atomico,ovvero P assegna ai punti probabilita nulla, allora non esiste alcuna misura dirischio coerente a valori reali definita su L0(Ω,F,P).

Page 36: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

36 CAPITOLO 3. MISURE DI RISCHIO COERENTI

Quindi il VaR non puo essere una misura di rischio coerente, essendo avalori reali. Poiche e un quantile, soddisfa l’omogeneita positiva, l’invarianzaper traslazione e la monotonia, ma non soddisfa la proprieta di subadditiv-ita. Tale proprieta pero e molto importante, perche, come gia descritto nel-l’Osservazione 3.1.7, si fonda sul concetto di diversificazione: sommando duerischi, il rischio diminuisce, percio il rischio di un portafoglio e minore o ugualedella somma dei rischi che lo compongono. Possiamo verificare che il VaR nonsoddisfa la proprieta di subadditivita con un esempio. Consideriamo due de-faultable bonds A e B. Ciascun emittente puo fallire con probabilita p = 0.04realizzando una perdita pari a 100, la perdita e invece pari a 0 se non si verificail fallimento. Si nota facilmente che

V aR0.05(A) = V aR0.05(B) = V aR0.05(A) + V aR0.05(B) = 0,

la perdita del portafoglio A + B e:

1. 0 con probabilita (0.96)2 = 0.9216,

2. 200 con probabilita (0.04)2 = 0.0016,

3. 100 con probabilita 1− 0.9216− 0.0016 = 0.0768.

Di conseguenza

V aR0.05(A + B) = 100 > V aR0.05(A) + V aR0.05(B) = 0.

Notiamo che il VaR rappresenta il migliore dei mondi possibili, in terminidi perdita del portafoglio, tra gli stati del mondo piu negativi che avvengonocon probabilita pari a p. Considerando r(t + 1), il rendimento uniperiodale delportafoglio V (t), abbiamo

L(t + 1) = −V (t)(r(t + 1)− 1)

possiamo quindi scrivere

P[−V (t)(r(t + 1)− 1) > V aRp(t + 1)] = p

e se definiamo il V aR relativo al rendimento del portafoglio V aRpr(t + 1) =

V aRp(t+1)V (t) , concludiamo che

P[r(t + 1)− 1 < −V aRpr(t + 1)] = p.

Il V aR puo essere definito anche relativamente al rendimento logaritmico:

L(t + 1) = −(V (t + 1)− V (t)) ≈ −V (t)R(t + 1) = −V (t) logV (t + 1)

V (t).

V aRpR(t + 1) per il rendimento logaritmico e definito come segue

P[R(t + 1) < −V aRpR(t + 1)] = p.

Allora, possiamo scrivere

P[r(t + 1) < e−V aRpR(t+1)] = p

Page 37: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

3.2. IL VAR: VALUE AT RISK 37

e quindi la relazione tra i due V aR

V aRpr(t + 1) = 1− e−V aRp

R(t+1),

quindi possiamo passare da V aRpR(t + 1) a V aRp

r(t + 1) e viceversa, edentrambe le misure possono essere convertite in termini monetari moltiplicandoper il valore del portafoglio V (t).

La valutazione del V aR su un orizzonte di h giorni puo essere semplifica-ta considerando i rendimenti logaritmici come variabili casuali indipendenti eidenticamente distribuiti:

R(t + 1) d∼ (µ, σ2)

allora

R(t + 1; t + h) =h∑

u=1

R(t + u) d∼ (hµ, hσ2).

La distribuzione Normale N(µ, σ2) e un caso particolare di distribuzioneindipendente e identicamnete distribuita. Prendendo in esame un rendimentologaritmico distribuito come una Normale, possiamo scrivere

R(t + 1; t + h) =h∑

u=1

R(t + u) = µ(t + 1; t + h) + σ(t + 1; t + h)z(t + 1; t + h)

dove z(t+1; t+h) e una variabile casuale Normale standardizzata. Assumen-do µ(t + s) = 0, per s ≥ 0 e che i rendimenti abbiano autocorrelazioni nulle,la varianza del rendimento cumulato su h giorni condizionata dall’informazionedisponibile in t (Ft) e

σ2(t + 1; t + h) = E[(h∑

u=1

R(t + u))2|Ft] =h∑

u=1

E[σ2(t + u)|Ft],

se in aggiunta ipotizziamo una varianza dei rendimenti costante, allora σ2(t+1; t + h) = hσ2.

Page 38: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

38 CAPITOLO 3. MISURE DI RISCHIO COERENTI

Page 39: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Capitolo 4Legge dei grandi numeri eTeorema centrale del limite

In questo capitolo vengono presentate due tipi fondamentali di distribuzioninella teoria delle attese sublineari, note come distribuzione massimale e dis-tribuzione G-Normale, che nella teoria classica corrisponde alla distribuzionenormale. Sempre nella teoria delle attese sublineari vengono dimostrati due im-portanti teoremi: la legge dei grandi numeri(LGN) e il teorema centrale dellimite(TCL). Da questi due teoremi seguono due fondamentali conseguenze: sipuo notare che il limite nella LGN e una distribuzione massimale; invece, unavariabile casuale i.i.d. a media zero convergera in legge a una distribuzione G-Normale N(0, [σ2, σ2]). Una variabile casuale X in uno spazio di attesa sublin-eare e detta N(0, [σ2, σ2])-distribuita se per ogni variabile casuale Y i.i.d. rispet-to a X e per ogni a, b ∈ R abbiamo aX + bY ∼ √

a2 + b2X, dove σ2 = E[X2]e σ2 = −E[−X2]. Di conseguenza la distribuzione G-Normale diventa normalenel caso in cui σ2 = σ2.

4.1 Distribuzione massimale e distribuzione G-Normale

Definiamo un tipico esempio di distribuzione, che e conosciuta come il peggiorcaso di misura di rischio.

Definizione 4.1.1 (Distribuzione massimale). Un vettore d-dimensionaleη = (η1, · · · , ηd) definito su uno spazio di attesa sublineare (Ω, H,E) e dettoavere distribuzione massimale se esiste un insieme Γ ⊂ Rd chiuso, convesso elimitato t.c.

E[ϕ(η)] = maxy∈Γ

ϕ(y) ∀ϕ ∈ Cl.Lip(Rd)

Osservazione 4.1.2. Γ fornisce i gradi di incertezza di η. E facile verificareche questo vettore casuale η ha distribuzione massimale e soddisfa,

aη + bηd= (a + b)η per a, b ≥ 0

39

Page 40: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

40 CAPITOLO 4. LGN E TCL

dove η e una copia indipendente di η. Vedremo in seguito che questa relazionecaratterizza una distribuzione massimale.

Osservazione 4.1.3. Quando d = 1 abbiamo Γ = [µ, µ] dove µ = E[η] eµ = −E[−η]. La distribuzione di η e quindi

Fη[ϕ] = E[ϕ(η)] = supµ≤y≤µ

ϕ(y) per ϕ ∈ Cl.Lip(R).

Richiamiamo ora una caratterizzazione ben nota delle variabili aleatorienormali centrate: X

d= N(0, Σ) se e solo se

aX + bXd=

√a2 + b2X per a, b ≥ 0 (4.1)

dove X e una copia indipendente di X. La matrice di covarianza Σ e definitacome Σ = E[XXT ].

Definizione 4.1.4 (Distribuzione G-normale). Un vettore casuale d-dimensionaleX = (X1, · · · , Xd)T definito su uno spazio di attesa sublineare (Ω, H,E) e dettoavere distribuzione G-Normale se

aX + bXd=

√a2 + b2X per a, b ≥ 0

dove X e una copia indipendente di X.

Osservazione 4.1.5. Notando che E[X + X] = 2E[X] e E[X + X] =√

2E[X]allora abbiamo E[X] = 0. Allo stesso modo si puo provare che E[−X] = 0. Cosı,X non ha incertezza sulla media.

Proposizione 4.1.6. Dato X un vettore con distribuzione G-Normale. Alloraper ogni A ∈ Rm×d, anche AX ha distribuzione G-Normale. In particolare, perogni a ∈ Rd, 〈a, X〉 e una variabile aleatoria con distribuzione G-Normale, mail viceversa non e vero.

Dim. Dato X ∈ Rd , A ∈ Rm×d e a, b ∈ R , sfruttando le proprieta dellematrici abbiamo

aAX + bAX = A(aX) + A(bX) = A(aX + bX) d= A(√

a2 + b2X)

=√

a2 + b2(AX)

Denotiamo con S(d) la collezione delle matrici simmetriche d×d. Dato X condistribuzione G-Normale e η un vettore casuale d-dimensionale con distribuzionemassimale su (Ω, H,E). La seguente funzione e importante per caratterizzarele loro distribuzioni:

G(p,A) := E[12〈AX, X〉+ 〈p, η〉], (p,A) ∈ Rd × S(d). (4.2)

E facile verificare che G e una funzione monotona sublineare in A ∈ S(d) nelsenso seguente: per ogni p, p ∈ Rd e A, A ∈ S(d),

G(p + p, A + A) ≤ G(p, A) + G(p, A),G(λp, λA) = λG(p,A), ∀λ ≥ 0;G(p,A) ≥ G(p, A), se A ≥ A.

(4.3)

Page 41: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 41

dove per A ≥ A intendiamo A− A ≥ 0e cioe

〈(A− A)y, y〉 ≥ 0 ∀y ∈ Rd

i,j

(aij − aij)yiyj ≥ 0.

Dim. La prima disuguaglianza si ottiene sfruttando le proprieta di linearitadel prodotto scalare e la proprieta di subadditivita delle attese sublineari.

G(p + p, A + A) = E[12〈(A + A)X, X〉+ 〈p + p, η〉]

= E[12〈AX, X〉+

12〈AX, X〉+ 〈p, η〉+ 〈p, η〉]

= E[12〈AX, X〉+ 〈p, η〉+

12〈AX, X〉+ 〈p, η〉]

≤ E[12〈AX, X〉+ 〈p, η〉] + E[

12〈AX, X〉+ 〈p, η〉]

= G(p,A) + G(p, A)

La seconda uguaglianza si ottiene utilizzando la proprieta di positiva omo-geneita delle attese sublineari.

G(λp, λA) = E[12〈λAX, X〉+ 〈λp, η〉] = E[λ · 1

2〈AX, X〉+ λ〈p, η〉] =

= λE[12〈AX, X〉+ 〈p, η〉] = λG(p,A)

Per l’ultima disuguaglianza sfruttiamo la proprieta di monotonia delle attesesublineari. Se A ≥ A, allora 〈(A− A)X, X〉 ≥ 0

G(p,A) = E[12〈AX, X〉+ 〈p, η〉] ≥ E[

12〈AX, X〉+ 〈p, η〉] = G(p, A). ¤

Chiaramente G e anche una funzione continua. Dal Teorema 2.2.1 esisteun sottoinsieme chiuso e limitato Γ ⊂ R× Rd×d tale che

G(p,A) = sup(q,Q)∈Γ

[12tr[AQQT ] + 〈p, q〉] per (p,A) ∈ Rd × S(d). (4.4)

Abbiamo quindi il seguente risultato, che verra provato nella prossima sezione.

Proposizione 4.1.7. Sia G : Rd×S(d) → R una funzione continua e sublineare,monotona, nel senso della (4.3) in A ∈ S(d), allora esiste un vettore casuale d-dimensionale X distribuito G-Normale e una distribuzione massimale η su unospazio di attesa sublineare (Ω,H,E) che soddisfa la (4.2) e

(aX + bX, a2η + b2η) d= (√

a2 + b2X, (a2 + b2)η) per a, b ≥ 0 (4.5)

dove (X, η) e una copia indipendente di (X, η).

Page 42: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

42 CAPITOLO 4. LGN E TCL

Definizione 4.1.8. La coppia (X, η) soddisfacente la (4.5) e detta G-distribuita.

Osservazione 4.1.9. Se la coppia (X, η) soddisfa la (4.5), allora

aX + bXd=

√a2 + b2X, aη + bη

d= (a + b)η per a, b ≥ 0

Quindi X e G-Normale e η ha distribuzione massimale.

La coppia (X, η) e caratterizzata dalla seguente equazione alle derivate parziali(EDP) di tipo parabolico, chiamata G-equazione definita su [0,∞)×Rd×Rd:

∂tu−G(Dyu,D2xu) = 0, (4.6)

con condizioni di Cauchy u|t=0 = ϕ, dove G : Rd×S(d) → R e definita dalla(4.2) e D2u = (∂2

xi,xju)d

i,j=1, Du = (∂xiu)di=1

Proposizione 4.1.10. Per la coppia (X, η), soddisfacente la (4.5) e per unafunzione ϕ ∈ Cl.Lip(Rd × Rd), definiamo

u(t, x, y) := E[ϕ(x +√

tX, y + tη)], (t, x, y) ∈ [0,∞)× Rd × Rd.

Allora, si ha

u(t + s, x, y) = E[u(t, x +√

sX, y + sη)] s ≥ 0 (4.7)

Valgono inoltre le stime: per ogni T > 0, esistono delle costanti C, k > 0 taleche, per ogni t, s ∈ [0, T ] e x, x, y, y ∈ Rd,

|u(t, x, y)− u(t, x, y)| ≤ C(1 + |x|k + |y|k + |x|k + |y|k)(|x− x|+ |y − y|) (4.8)

e|u(t, x, y)− u(t + s, x, y)| ≤ C(1 + |x|k + |y|k)(s + |s| 12 ) (4.9)

Inoltre, u e l’unica soluzione viscosa, continua nel senso della (4.8) e della (4.9)della EDP (4.6).

Dim.Dato che

u(t, x, y)− u(t, x, y) = E[ϕ(x +√

tX, y + tη)]− E[ϕ(x +√

tX, y + tη)]

≤ E[ϕ(x +√

tX, y + tη)− ϕ(x +√

tX, y + tη)

≤ E[C1(1 + |X|k + |η|k + |x|k + |y|k + |x|k + |y|k)]× (|x− x|+ |y − y|)≤ C(1 + |x|k + |y|k + |x|k + |y|k)(|x− x|+ |y − y|)

abbiamo la (4.8).Sia (X, η) una copia indipendente di (X, η). Dalla (4.5) abbiamo

u(t + s, x, y) = E[ϕ(x +√

t + sX, y + (t + s)η)]

= E[ϕ(x +√

sX +√

tX, y + sη + tη)]

= E[E[ϕ(x +√

sx +√

tX, y + sy + tη)](x,y)=(X,η)]

= E[u(t, x +√

sX, y + sη)],

Page 43: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 43

e cosı otteniamo la (4.7). Da questa e dalla (4.8) segue che

u(t + s, x, y)− u(t, x, y) = E[u(t, x +√

sX, y + sη)− u(t, x, y)]

≤ E[C1(1 + |x|k + |y|k + |X|k + |η|k)(√

s|X|+ s|η|)],

e cosı otteniamo la (4.9).Ora per un fissato (t, x, y) ∈ (0,∞)×Rd×Rd, sia ψ ∈ C2,3

b ([0,∞)×Rd×Rd)tale che ψ ≥ u e ψ(t, x, y) = u(t, x, y). Dalla (4.7) e grazie allo sviluppo diTaylor, segue che, per δ ∈ (0, t),

0 ≤ E[ψ(t− δ, x +√

δX, y + δη)− ψ(t, x, y)]

≤ C(δ32 + δ2)− ∂tψ(t, x, y)δ

+ E[〈Dxψ(t, x, y), X〉√

δ + 〈Dyψ(t, x, y), η〉δ +12〈D2

xψ(t, x, y)X, X〉δ]

≤ −∂tψ(t, x, y)δ + E[〈Dyψ(t, x, y), η〉+12〈D2

xψ(t, x, y)X,X〉]δ + C(δ32 + δ2)

= −∂tψ(t, x, y)δ + δG(Dyψ,D2xψ)(t, x, y) + C(δ

32 + δ2),

da cui si deduce facilmente che

[∂tψ −G(Dyψ, D2xψ)](t, x, y) ≤ 0

Cosı u e una sottosoluzione viscosa di (4.6); nello stesso modo si puo provareche u e una supersoluzione viscosa di (4.6).

Corollario 4.1.11. Se (X, η) e (X, η) soddisfano entrambe la (4.5) con lastessa G, cioe

G(p,A) := E[12〈AX, X〉+〈p, η〉] = E[

12〈AX, X〉+〈p, η〉] per (p,A) ∈ Rd × S(d) ,

allora (X, η) d= (X, η). In particolare, Xd= −X.

Dim.Per ogni ϕ ∈ Cl.Lip(Rd × Rd) poniamo

u(t, x, y) := E[ϕ(x +√

tX, y + tη)],

u(t, x, y) := E[ϕ(x +√

tX, y + tη)], (t, x, y) ∈ [0,∞)× Rd × Rd.

Dalla proposizione (4.1.10) sia u che u sono soluzioni viscose della G-equazione(4.6) con le condizioni Cauchy u|t=0 = u|t=0 = ϕ. Segue dall’unicita dellasoluzione viscosa che u ≡ u. In particolare,

E[ϕ(X, η)] = E[ϕ(X, η)]

Cosı (X, η) d= (X, η).

Corollario 4.1.12. Data la coppia (X, η) soddisfacente la (4.5). Per ogniψ ∈ Cl.Lip(Rd) definiamo

v(t, x) := E[ψ(x +√

tX + tη)], (t, x) ∈ [0,∞)× Rd. (4.10)

Page 44: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

44 CAPITOLO 4. LGN E TCL

Allora v e l’unica soluzione viscosa della seguente EDP parabolica:

∂tv −G(Dxv, D2xv) = 0, v|t=0 = ϕ. (4.11)

Inoltre abbiamo v(t, x + y) ≡ u(t, x, y), dove u e la soluzione della EDP (4.6)con condizioni iniziali u(t, x, y)|t=0 = ψ(x + y).

Esempio 4.1.13. Sia X con distribuzione G-Normale, e la sua distribuzionee caratterizzata da

u(t, x) = E[ϕ(x +√

tX)], ϕ ∈ Cl.Lip(Rd).

In particolare, E[ϕ(X)] = u(1, 0) dove u e la soluzione della seguente EDPdefinita su [0,∞)× Rd:

∂tu−G(D2u) = 0, u|t=0 = ϕ, (4.12)

dove G = GX(A) : S(d) → Rd e definita da

G(A) :=12E[〈AX, X〉], A ∈ S(d).

Dim. Fissato (t, x) ∈ (0,∞) × Rd, presa ψ ∈ C2,3b ([0,∞) × Rd) t.c. ψ ≥ u e

ψ(t, x) = u(t, x) e siccome u(t+ s, x) = E[u(x+√

sX)] dallo sviluppo di Taylor,abbiamo per δ ∈ (0, t)

0 ≤ E[ψ(t− δ, x +√

δX)− ψ(t, x)]

≤ C(δ32 + δ2)− ∂tψ(t, x) · δ + E[〈Dxψ(t, x), X〉

√δ +

12〈D2

xψ(t, x)X, X〉δ]≤ −∂tψ(t, x)δ + δG(Dxψ)(t, x) + C(δ

32 + δ2) (4.13)

E quindi,[∂tψ −G(D2

xψ)](t, x) ≤ 0

u e cioe sottosoluzione viscosa della (4.12). Analogamente si puo dimostrare cheu e anche soprasoluzione viscosa, e di conseguenza u e soluzione viscosa della(4.12). L’equazione (4.12) e detta G-equazione del calore. E facile verificareche G e una funzione sublineare definita su S(d). Dal Teorema 2.2.1 esiste unsottoinsieme chiuso,convesso e limitato Θ ⊂ S(d) tale che

12E[〈AX,X〉] = G(A) =

12

supQ∈Θ

tr[AQ], A ∈ S(d). (4.14)

Dato che G(A) e monotona, segue che

Θ ⊂ S+(d) = θ ∈ S(d) : θ ≥ 0 = BBT : B ∈ Rd×d,dove Rd×d e l’insieme di tutte le matrici d × d. Se Θ e un singoletto: Θ =Q, allora X e distribuita come una densita normale di media 0 e matricedi covarianza Q. In generale, Θ caratterizza l’incertezza di covarianza di X.Denotiamo X

d= N(0 ×Θ).Quando d = 1, abbiamo X

d= N(0 × [σ2, σ2]), dove σ2 = E[X2] e σ2 =−E[−X2]. La corrispondente G-equazione del calore e

∂tu− 12(σ2(∂2

xxu)+ − σ2(∂2xxu)−) = 0 u|t=0 = ϕ.

quando σ2 > 0, questa equazione e anche chiamata equazione di Barenblatt.

Page 45: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 45

Nelle seguenti due situazioni il calcolo di E[ϕ(X)] e molto facile:

• Per ogni funzione convessa ϕ abbiamo,

E[ϕ(X)] =1√2π

∫ ∞

−∞ϕ(σy) exp(−y2

2)dy. (4.15)

Infatti, per ogni fissato t ≥ 0, e facile verificare che la funzione u(t, x) :=E[ϕ(x +

√tX)] e convessa in x:

u(t, αx + (1− α)y) =E[ϕ(αx + (1− α)y +√

tX)]

≤ αE[ϕ(x +√

tX)] + (1− α)E[ϕ(x +√

tX)]= αu(t, x) + (1− α)u(t, x).

Segue che (∂2xxu)− ≡ 0 e cosı la precedente G-equazione del calore diventa

∂tu =σ2

2∂2

xx, u|t=0 = ϕ.

• Per ogni funzione concava ϕ, abbiamo

E[ϕ(X)] =1√2π

∫ ∞

−∞ϕ(σy) exp(−y2

2)dy. (4.16)

In particolare,

E[X] = E[−X] = 0, E[X2] = σ2, −E[−X2] = σ2

e

E[X4] = 3σ4 (4.17)

−E[−X4] = 3σ4. (4.18)

Dim.

Per dimostrare la (4.17) viene utilizzata la (4.15), mentre per la (4.18) la(4.16); viene dimostrata esclusivamente la (4.17), in quanto i calcoli per la (4.18)sono analoghi.

Page 46: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

46 CAPITOLO 4. LGN E TCL

E[X4] =1√2π

∫ +∞

−∞(σy)4 exp(−y2

2)dy

=1√2π

∫ +∞

−∞σ4y4 exp(−y2

2)dy

=σ4

√2π

∫ +∞

−∞y4 exp(−y2

2)dy

=σ4

√2π

∫ +∞

−∞y3 · (y exp(−y2

2))dy

=−σ4

√2π

∫ +∞

−∞y3 d

dy(− exp(−y2

2))dy

=−σ4

√2π

[y3(− exp(−y2

2))]+∞−∞ −

∫ +∞

−∞3y2 · (− exp(−y2

2))dy

=3σ4

√2π

∫ +∞

−∞y2(− exp(−y2

2))dy

=3σ4

√2π

∫ +∞

−∞y(−y exp(−y2

2))dy

=3σ4

√2π

∫ +∞

−∞

d

dy(−y exp(−y2

2))dy

=3σ4

√2π

[y(− exp(−y2

2))]+∞−∞ −

∫ +∞

−∞(− exp(−y2

2))dy

=3σ4

√2π

∫ +∞

−∞exp(−y2

2)dy

=3σ4

√2π

·√

= 3σ4

Esempio 4.1.14. Sia η con distribuzione massimale. La sua distribuzione ecaratterizzata dalla seguente EDP parabolica definita su [0,∞)× Rd:

∂tu− g(Du) = 0, u|t=0 = ϕ, (4.19)

dove g = gη(p) : Rd → R e definita da,

gη(p) := E[〈p, η〉], p ∈ Rd.

Fissato (t, y) ∈ (0,∞)× Rd, presa ψ ∈ C2,3b ([0,∞)× Rd) t.c. ψ ≥ u e ψ(t, y) =

u(t, y) e siccome u(t + s, y) = E[u(t, y + sη)] dallo sviluppo di Taylor, abbiamoper δ ∈ (0, t)

0 ≤ E[ψ(t− δ, y + δη)− ψ(t, y)]

≤ C(δ2)− ∂tψ(t, y) · δ + E[〈Dyψ(t, y), η〉δ]≤ −∂tψ(t, y)δ + δgη(Dyψ)(t, y) + C(δ2) (4.20)

Page 47: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.2. ESISTENZA DI VARIABILI CASUALI G-DISTRIBUITE 47

Segue che δtψ − gη ≤ 0. u e una sottosoluzione viscosa della (4.19). Analoga-mente si puo dimostrare che u e anche una soprasoluzione viscosa , e di con-seguenza u e soluzione viscosa della (4.19). E facile verificare che gη e unafunzione sublineare definita su Rd. Dal Teorema 2.2.1 del primo capitoloesiste un sottoinsieme chiuso, convesso e limitato Θ ⊂ Rd tale che

g(p) = supq∈Θ

〈p, q〉 p ∈ Rd (4.21)

Da questa caratterizzazione, possiamo provare che la distribuzione di η e datada

Fη[ϕ] = E[ϕ(η)] = supv∈Θ

ϕ(v) = supv∈Θ

Rd

ϕ(x)δv(dx), ϕ ∈ Cl.Lip(Rd), (4.22)

dove δv e la misura di Dirac. Infatti essa e la distribuzione massimale conincertezza descritta dal sottoinsieme di probabilita formato dalle misure di Diracconcentrate in Θ. Denotiamo η

d= N(Θ× 0.) In particolare, per d = 1,

gη(p) := E[pη] = µp+ − µp−, p ∈ R,

dove µ = E[η] e µ = −E[−η]. La distribuzione di η e data dalla (4.26).

Denotiamo ηd= N([µ, µ]× 0).

4.2 Esistenza di Variabili casuali G-distribuite

In questa sezione viene dimostrata l’esistenza di variabili casuali G-distribuite,ovvero la dimostrazione della Proposizione 4.1.7.

Sia G : Rd × S(d) → R una funzione sublineare e monotona in A ∈ S(d)nel senso della (4.3). Costruiamo una coppia di vettori casuali d-dimensionali(X, η) su uno spazio di attesa sublineare (Ω, H,E) soddisfacente la (4.2) e la(4.5).

Per ogni ϕ ∈ Cl.Lip(Rd×d), sia u = uϕ l’unica soluzione viscosa della G-equazione (4.6) con uϕ|t=0 = ϕ. Prendiamo Ω = R2d,H = Cl.Lip(R2d) e ω =(x, y) ∈ R2d.

La corrispondente attesa sublineare E[·] e definita da E[ξ] = uϕ(1, 0, 0), perogni ξ ∈ H della forma ξ(ω) = (ϕ(x, y))(x,y)∈R2d ∈ Cl.Lip(R2d). La monotonia,la positivita omogenea, la proprieta di preservare le costanti e la subadditivitadi uϕ rispetto a ϕ sono note nella teoria delle soluzioni viscose. Il funzionaleE[·] : H → R forma un’attesa sublineare.

Consideriamo una coppia di vettori casuali d-dimensionali (X, η)(ω) = (x, y).Abbiamo

E[ϕ(X, η)] = uϕ(1, 0, 0), ϕ ∈ Cl.Lip(R2d) .

In particolare, ponendo ϕ0(x, y) = 12 〈AX,X〉 + 〈p, y〉, possiamo verificare

che

uϕ0(t, x, y) = G(p,A)t +12〈Ax, x〉+ 〈p, y〉.

Cosı abbiamo,

Page 48: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

48 CAPITOLO 4. LGN E TCL

E[12〈AX, X〉+ 〈p, η〉] = uϕ0(1, 0, 0) = G(p, A), (p, A) ∈ Rd × S(d).

Costruiamo uno spazio-prodotto

(Ω, H,E) = (Ω× Ω, H ⊗ H, E⊗ E),

e introduciamo due coppie di vettori casuali

(X, η)(ω1, ω2) = ω1, (X, η)(ω1, ω2) = ω2 (ω1, ω2) ∈ Ω× Ω .

Dalla Proposizione 2.3.15, (X, η) d= (X, η) e (X, η) e una copia indipen-dente di (X, η).

Proviamo che la distribuzione di (X, η) soddisfa le condizioni (4.5). Per ogniϕ ∈ Cl.Lip(R2d) e per ogni fissato λ > 0, (x, y) ∈ R2d, dato che la funzione v

definita da v(t, x, y) := uϕ(λt, x +√

λx, y + λy) risolve esattamente la stessaequazione (4.6), ma con le condizioni di Cauchy

v|t=0 = ϕ(x +√

λ× ·, y + λ× ·).Quindi

E[ϕ(x +√

λX, y + λη)] = v(1, 0, 0) = uϕ(λ, x, y).

Dalla definizione di E, per ogni t > 0 e s > 0,

E[ϕ(√

tX +√

sX, tη + sη)] = E[E[ϕ(√

tx +√

sX, ty + sη)](x,y)=(X,η)]

= E[uϕ(s,√

tX, tη)] = uuϕ(s,·,·)(t, 0, 0)

= uϕ(t + s, 0, 0)

= E[ϕ(√

t + sX, (t + s)η)].

Pertanto (√

tX+√

sX, tη+sη) d= (√

t + sX, (t+s)η). Quindi la distribuzionedi (X, η) soddisfa la (4.5).

Osservazione 4.2.1. D’ora in avanti, quando viene richiamato lo spazio diattesa sublineare (Ω,H,E), supponiamo che esiste una coppia di vettori (X, η)su (Ω, H,E) tale che (X, η) sia G-distribuita.

Esercizio 4.2.2. Provare che E[X3] > 0 per Xd= N(0 × [σ2, σ2]) con σ2 <

σ2. Provare anche che E[ϕ(X)] non sempre equivale al supσ2≤σ2≤σ2 Eσ[ϕ(X)]per ϕ ∈ Cl.Lip(R), dove Eσ rappresenta l’attesa lineare corrispondente ad unafunzione densita normale N(0, σ2).

Page 49: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.2. ESISTENZA DI VARIABILI CASUALI G-DISTRIBUITE 49

Dim.

Possiamo dividere il problema in 2 parti, in quanto x3 e una funzione concavada (−∞, 0) mentre e convessa da (0, +∞). Il problema si puo vedere comerisoluzione della seguente G-equazione del calore.

∂tu− 1

2G(D2u) = 0u(0, x) = x3I[0,+∞)

∂tu− 1

2G(D2u) = 0u(0, x) = x3I(−∞,0)

Possiamo scrivere quindi E[X3] come

E[X3] = E[X3I[0,+∞)] + E[X3I(−∞,0)] (4.23)

e analizzare separatamente i due addendi, mediante la (4.15) abbiamo

E[X3]I[0,+∞) =1√2π

∫ +∞

0

(σy)3 exp(−y2

2)dy

=σ3

√2π

∫ +∞

0

y3 · exp(−y2

2)dy

=σ3

√2π

∫ +∞

0

y2 · (y exp(−y2

2)dy

=σ3

√2π

∫ +∞

0

y2 · [ d

dy(− exp(−y2

2))]dy

=σ3

√2π

[(y2e−y2

2 )|+∞0 −∫ +∞

0

2y · (− exp(−y2

2))dy]

=σ3

√2π

[0 + 2∫ +∞

0

y · (exp(−y2

2))dy]

=2σ3

√2π

[− exp(−y2

2)]∞0

=2σ3

√2π

[0 +√

2π]

= 2σ3

e, per il secondo addendo della (4.23), mediante la (4.16) abbiamo

Page 50: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

50 CAPITOLO 4. LGN E TCL

E[X3]I(−∞,0] =1√2π

∫ 0

−∞(σy)3 exp(−y2

2)dy

=σ3

√2π

∫ 0

−∞y3 · exp(−y2

2)dy

=σ3

√2π

∫ 0

−∞y2 · (y exp(−y2

2)dy

=σ3

√2π

∫ 0

−∞y2 · [ d

dy(− exp(−y2

2))]dy

=σ3

√2π

[(y2e−y2

2 )|0−∞ −∫ 0

−∞2y · (− exp(−y2

2))dy]

=σ3

√2π

[0 + 2∫ 0

−∞y · (exp(−y2

2))dy]

=2σ3

√2π

[− exp(−y2

2)]0−∞

=2σ3

√2π

[0 +√

2π]

= 2σ3

Sommando i due termini otteniamo

E[X3] = 2σ3 + 2σ3 > 0. (4.24)

Poiche X ∼ N(0, σ2), consideriamo il momento terzo Eσ[X3] come

Eσ[X3] =1√

2πσ2

∫ +∞

−∞x3 exp(− x2

2σ2)dx

[t =x

σ] =

1√2πσ2

∫ +∞

−∞t3σ3 exp(− t2

2)σdt

=1√2πσ

∫ +∞

−∞t3σ3 exp(− t2

2)σdt

= σ3

∫ +∞

−∞

1√2π

t3σ3 exp(− t2

2)σdt

= σ3 · 0 = 0

in quanto i momenti terzi di una normale sono tutti uguali a 0, e quindi

E[X3] = supσ2≤σ2≤σ2

Eσ[X3] = supσ2≤σ2≤σ2

0 = 0,

Ma,dalla (4.24), E[X3] > 0, e quindi E[X3] non puo esser visto come ilsup

σ2≤σ2≤σ2Eσ[X3]. ¤

Page 51: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.3. LEGGE DEI GRANDI NUMERI E TEOREMA CENTRALE DEL LIMITE51

4.3 Legge dei Grandi Numeri e Teorema Cen-trale del Limite

Teorema 4.3.1 (Legge dei grandi Numeri). Presa Yi∞i=1 una sequenzadi variabili casuali valutate in Rd su uno spazio di attesa sublineare (Ω,H,E).Assumiamo che Yi+1

d= Yi e Yi+1 e indipendente da Y1, · · · , Yi per ogni i =1, 2, · · · . Allora la sequenza Sn∞n=1 definita da

Sn :=1n

n∑

i=1

Yi

converge in legge a una distribuzione massimale, i.e.,

limn→∞

E[ϕ(Sn)] = E[ϕ(η)], (4.25)

per ogni funzione ϕ ∈ C(Rd) soddisfacente la condizione di crescita lineare(|ϕ(x)| ≤ C(1 + |x|)) dove η e un vettore casuale distribuzione massimale e lacorrispondente funzione sublineare g : Rd → R e definita da

g(p) := E[〈p, Y1〉], p ∈ Rd .

Osservazione 4.3.2. Quando d = 1, la sequenza Sn∞n=1 converge in legge aN([µ, µ]× 0), dove µ = E[Y1] e µ = −E[−Y1]. Per il caso generale, la somma1n

∑∞i=1 Yi converge in legge a N(Θ×0), dove Θ ⊂ Rd e il sottoinsieme chiuso,

convesso e limitato definito nell’esempio (1.14). Se prendiamo ϕ(y) = dΘ(y) =inf|x − y| : x ∈ Θ, allora dalla (4.25) abbiamo la seguente generalizzazionedella Legge dei Grandi Numeri:

limn→∞

E[dΘ(1n

n∑

i=1

Yi)] = supθ∈Θ

dΘ(θ) = 0. (4.26)

Se Θ si riduce ad un solo elemento, Θ = θ, allora la (4.26) diventa

limn→∞

E[| 1n

n∑

i=1

Yi − θ|] = 0.

Teorema 4.3.3 (Teorema Centrale del Limite a media zero). Sia Xi∞i=1

una sequenza di variabili casuali a valori in Rd e definite su uno spazio di atte-sa sublineare (Ω, H,E). Assumiamo che Xi+1

d= Xi e Xi+1 e indipendente daX1, · · · , Xi per i = 1, 2, · · · . Inoltre assumiamo che

E[X1] = E[−X1] = 0.

Allora la sequenza Sn∞n=1 definita da

Sn :=1√n

n∑

i=1

Xi

converge in legge a X, cioe

limn→∞

E[ϕ(Sn)] = E[ϕ(X)],

Page 52: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

52 CAPITOLO 4. LGN E TCL

per tutte le funzioni ϕ ∈ C(Rd) a crescita lineare, dove X e un vettore casualecon distribuzione G-normale e la corrispondente funzione sublineare G : S(d) →R e definita da

G(A) := E[12〈AX1, X1〉], A ∈ S(d).

Osservazione 4.3.4. Quando d = 1, la sequenza Sn∞n=1 converge in legge a(0 × [σ2, σ2]), dove σ2 = E[X2

1 ] e σ2 = −E[−X21 ]. In particolare, se σ2 = σ2,

allora diventa il classico teorema centrale del limite.Il seguente teorema e una generalizzazione non banale dei teoremi sopracitati.

Teorema 4.3.5 (Teorema centrale del limite con legge dei Grandi Nu-meri). Data (Xi, Yi)∞i=1 una sequenza di vettori casuali a valori in Rd × Rd

definito su uno spazio di attesa sublineare (Ω, H,E). Assumiamo (Xi+1, Yi+1)d=

(Xi, Yi) e (Xi+1, Yi+1) indipendente da (X1, Y1), · · · , (Xi, Yi) per ogni i =1, 2, · · · . Inoltre supponiamo che

E[X1] = E[−X1] = 0.

Allora la sequenza Sn∞n=1 definita da

Sn :=n∑

i=1

(Xi√

n+

Yi

n)

converge in legge a X + η, cioe

limn→∞

E[ϕ(Sn)] = E[ϕ(X + η)], (4.27)

per tutte le funzioni ϕ ∈ C(Rd) a crescita lineare, dove la coppia (X, η) e G-distribuita. La corrispondente funzione sublineare G : Rd× S(d) → R e definitada

G(p,A) := E[〈p, Y1〉+12〈AX1, X1〉], A ∈ S(d), p ∈ Rd.

Inoltre, E[ϕ(X + η)] puo essere calcolata grazie al Corollario 4.1.12.

Il seguente risultato e equivalente al precedente Teorema centrale del limite.

Teorema 4.3.6. Sotto le ipotesi del Teorema 4.3.5,per ogni funzione ϕ ∈C(Rd × Rd) a crescita lineare, abbiamo

limn→∞

E[ϕ(n∑

i=1

Xi√n

,

n∑

i=1

Yi

n)] = E[ϕ(X, η)].

Dim.E facile provare il Teorema 4.3.5 dal 4.3.6. Per provare il Teorema 4.3.6

dal 4.3.5 e sufficiente definire una coppia di vettori casuali 2d-dimensionali

Xi = (Xi, 0), Yi = (0, Yi) per i = 1, 2, · · · .

Abbiamo

limn→∞

E[ϕ(n∑

i=1

Xi√n

,

n∑

i=1

Yi

n)] = lim

n→∞E[ϕ(

n∑

i=1

(Xi√

n+

Yi

n))] = E[ϕ(X + η)]

Page 53: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.3. LEGGE DEI GRANDI NUMERI E TEOREMA CENTRALE DEL LIMITE53

= E[ϕ(X, η)]

con X = (X, 0) e η = (0, η).Per provare il Teorema 4.3.5 abbiamo bisogno delle seguenti norme per

misurare la regolarita di una data funzione reale u definita su Q = [0, T ]× Rd:

‖u‖C0,0(Q) = sup(t,x)∈Q

|u(t, x)|

‖u‖C1,1(Q) = ‖u‖C0,0(Q) + ‖∂tu‖C0,0(Q) +d∑

i=1

‖∂xiu‖C0,0(Q),

‖u‖C1,2(Q) = ‖u‖C1,1(Q) +d∑

i,j=1

‖∂xixju‖C0,0(Q).

Per delle costanti α, β ∈ (0, 1) assegnate, denotiamo

‖u‖Cα,β(Q) = supx,y∈Rd,x6=y,s,t∈[0,T ],s 6=t

|u(s, x)− u(t, y)||r − s|α + |x− y|β ,

‖u‖C1+α,1+β(Q) = ‖u‖Cα,β(Q) + ‖∂tu‖Cα,β(Q) +d∑

i=1

‖∂xiu‖Cα,β(Q),

‖u‖C1+α,2+β(Q) = ‖u‖C1+α,1+β(Q) +d∑

i,j=1

‖∂xixj u‖Cα,β(Q).

Se, per esempio, ‖u‖C1+α,2+β(Q) < ∞, allora u e una funzione C1+α,2+β suQ.

Lemma 4.3.7. Supponiamo che esista una costante β > 0 tale che, per ogniA, A ∈ S(d) con A ≥ A,

E[〈AX1, X1〉]− E[〈AX1, X1〉] ≥ βtr[A− A] (4.28)

Allora vale la (4.27) sotto le ipotesi del Teorema 4.3.5.

Dim.Inizialmente proviamo la (4.27) per ϕ ∈ Cb.Lip(Rd). Per un fissato h > 0

piccolo a piacere, sia V l’unica soluzione viscosa di

∂tV + G(DV, D2V ) = 0, (t, x) ∈ [0, 1 + h)× (Rd), V |t=1+h = ϕ. (4.29)

Poiche (X, η) soddisfa la (4.5), abbiamo

V (h, 0) = E[ϕ(X + η)], V (1 + h, x) = ϕ(x) per qualche α ∈ (0, 1) . (4.30)

Siccome la (4.29) e una EDP parabolica e G e una funzione convessa, dallaregolarita interna di V abbiamo

Page 54: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

54 CAPITOLO 4. LGN E TCL

‖V ‖C1+ α

2 ,2+α([0,1]×Rd)< ∞ per qualche α ∈ (0, 1)

Poniamo δ = 1n e S0 = 0. Allora

V (1, S − n)− V (0, 0) =n−1∑

i=0

V ((i + 1)δ, Si+1)− V (iδ, Si

n−1∑

i=0

[V ((i + 1)δ, Si+1)− V (iδ, Si+1)] + [V (iδ, Si+1)− V (iδ, Si)]

=n−1∑

i=0

Iiδ + J i

δ

dove, dallo sviluppo di Taylor, otteniamo

J iδ = ∂tV (iδ, Si)δ +

12〈D2V (iδ, Si)Xi+1, Xi+1〉δ + 〈DV (iδ, Si), Xi+1

√δ + Yi+1δ〉

Iiδ = δ

∫ 1

0

[∂tV ((i + β)δ, Si+1)− ∂tV (iδ, Si+1)]dβ + [∂tV (iδ, Si+1)− ∂tV (iδ, Si)]δ

+ 〈D2V (iδ, Si)Xi+1, Yi+1〉δ 32 +

12〈D2V (iδ, Si)Yi+1, Yi+1〉δ2

+∫ 1

0

∫ 1

0

〈Θiβγ(Xi+1

√δ + Yi+1δ), Xi+1

√δ + Yi+1δ〉γdβdγ

con

Θiβγ = D2V (iδ, Si + γβ(Xi+1

√δ + Yi+1δ))−D2V (iδ, Si).

Quindi,

E[n−1∑

i=0

J iδ]− E[−

n∑

i=0

Iiδ] ≤ E[V (1, Sn)]− V (0, 0) ≤ E[

n−1∑

i=0

J iδ] + E[

n∑

i=0

Iiδ]. (4.31)

Ora proviamo che E[∑n−1

i=0 J iδ] = 0. Per J i

δ, osserviamo che

E[〈DV (iδ, Si), Xi+1

√δ〉] = E[−〈DV (iδ, Si), Xi+1

√δ〉] = 0.

Allora, dalla definizione della funzione G, abbiamo

E[J iδ] = E[∂tV (iδ, Si) + G(DV (iδ, Si), D2V (iδ, Si))]δ.

Combinando le due uguaglianze con ∂tV + G(DV, D2V ) = 0 cosı comedall’indipendenza di (Xi+1, Yi+1) da (X1, Y1), · · · , (Xi, Yi) segue che

E[n−1∑

i=0

J iδ] = E[

n−2∑

i=0

J iδ] = · · · = 0.

Page 55: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.3. LEGGE DEI GRANDI NUMERI E TEOREMA CENTRALE DEL LIMITE55

Cosı la (4.31) puo esser riscritta come

−E[−n−1∑

i=0

Iiδ] ≤ E[V (1, Sn)]− V (0, 0) ≤ E[

n−1∑

i=0

Iiδ].

Poiche ∂tV e D2V sono uniformemente α-Holder continue in t e α-Holdercontinue in x su [0, 1]× Rd, allora abbiamo

|Iiδ| ≤ Cδ1+ α

2 (1 + |Xi+1|2+α + |Yi+1|2+α).

Segue che

E[|Iiδ|] ≤ Cδ1+ α

2 (1 + E[|Xi+1|2+α + |Yi+1|2+α]).

Cosı

−C(1n

)α2 (1 + E[|Xi+1|2+α + |Yi+1|2+α]) ≤ E[V (1, Sn)]− V (0, 0)

≤ C(1n

)α2 (1 + E[|Xi+1|2+α + |Yi+1|2+α]).

Cosı per n →∞, abbiamo

limn→∞

E[V (1, Sn)] = V (0, 0). (4.32)

Dall’altra parte, per ogni t, t′ ∈ [0, 1 + h] e x ∈ Rd abbiamo

|V (t, x)− V (t′, x)| ≤ C(√|t− t′|+ |t− t′|).

Cosı |V (0, 0− V (h, 0))| ≤ C(√

h + h) e dalla (4.32)

|E[V (1, Sn)]− E[ϕ(Sn)]| = |E[V (1, Sn)]− E[V (1 + h, Sn)]| ≤ C(√

h + h).

Segue dalla (4.30) e dalla (4.32) che,

lim supn→∞

|E[ϕ(Sn)]− E[ϕ(X + η)]| ≤ 2C(√

h + h).

Poiche h puo esser scelto arbitrariamente, abbiamo

limn→∞

E[ϕ(Sn)] = E[ϕ(X + η)]. ¤

Osservazione 4.3.8. Si puo notare che le principali assunzioni fatte sullaidentica distribuzione Xi, Yi∞i=1 possono essere indebolite da

E[〈p, Yi〉+12〈AXi, Xi〉] = G(p,A) i = 1, 2, · · · , p ∈ Rd, A ∈ S(d).

Un’altra condizione essenziale e E[|Xi|2+δ] + E[|Yi|1+δ] ≤ C per δ > 0. Non enecessaria la condizione E[|Xi|n] + E[|Yi|n] < ∞ per ogni n ∈ N.

Page 56: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

56 CAPITOLO 4. LGN E TCL

Dim. del Teorema 4.3.5Per i casi in cui la condizione (4.28) non e valida, introduciamo una per-

turbazione per dimostrare la convergenza per ϕ ∈ Cb.Lip(Rd). In accordocon la Definizione 2.3.14 e la Proposizione 2.3.15, possiamo costriureuno spazio di attesa sublineare (Ω, H, E) e una sequenza di tre vettori casuali(Xi, Yi, ki)∞i=1 tale che, per ogni n = 1, 2, · · · , (Xi, Yi)n

i=1d= (Xi, Yi)n

i=1 e(Xn+1, Yn+1, kn+1) e indipendente da (Xi, Yi, ki)n

i=1 e inoltre,

E[ψ(Xi, Yi, ki)] = (2π)−d2

Rd

E[ψ(Xi, Yi, x)]e−|x|2 dx per ψ ∈ Cl.Lip(R3×d)

Utilizziamo ora la perturbazione Xεi = Xi + εki per un fissato ε > 0. E facile

notare che la sequenza (Xεi , Yi)∞i=1 soddisfa tutte le condizioni del Teorema

Centrale del Limite, in particolare,

Gε(p,A) := E[12〈AXε

1, Xε1〉+ 〈p, Y1〉] = G(p,A) +

ε2

2tr[A].

Cosı diventa strettamente ellittica. Possiamo allora applicare il Lemma4.3.7 a

Sεn :=

n∑

i=1

(Xε

i√n

+Y ε

i

n) =

n∑

i=1

(Xi√

n+

Yi

n) + εJn, Jn =

n∑

i=1

ki√n

e otteniamo

limn→∞

E[ϕ(Sεn)] = E[ϕ(X + η + εk)],

dove ((X, k), (η, 0)) e G-distribuita sotto E[·] e

G(p, A) := E[12〈A(X1, k1)T , (X1, k1)T 〉+ 〈p, (Y1, 0)T 〉], A ∈ S(2d), p ∈ R2d.

Dalla proposizione 4.1.6 e facile dimostrare che (X + ε, η) e Gε-distribuito e(X, η) e G-distribuito. Ma, abbiamo

|E[ϕ(Sn)]− E[ϕ(Sεn)]| = |E[ϕ(Sε

n − εJn)]− E[ϕ(Sεn)]|

≤ εCE[|Jn|] ≤ C ′ε (4.33)

e allo stesso modo,

|E[ϕ(X + η)]− E[ϕ(X + η + εk)]| = |E[ϕ(X + η)]− E[ϕ(X + η + εk)]| ≤ Cε

Poiche ε puo essere arbitrariamente piccolo, segue che

limn→∞

E[ϕ(Sn)] = E[ϕ(X + η)] per ϕ ∈ Cb.Lip(Rd) .

Si puo inoltre verificare che supn E[|Sn|2]+E[|X +η|2] < ∞. Possiamo alloraapplicare il lemma seguente per dimostrare che la convergenza e valida per ϕ ∈C(Rd) con condizioni di crescita lineare. La dimostrazione e cosı completata.

Page 57: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

4.3. LEGGE DEI GRANDI NUMERI E TEOREMA CENTRALE DEL LIMITE57

Lemma 4.3.9. Siano (Ω,H,E) e (Ω, H, E) due spazi di attesa sublineare edati Yn ∈ H e Y ∈ H per n = 1, 2, · · · . Assumiamo che per p ≥ 1 siasupn(E[|Yn|p] + E[|Y |p] < ∞. Se la convergenza limn→∞ E[ϕ(Yn)] = E[ϕ(Y )] evalida per ogni ϕ ∈ Cb.Lip(Rd), allora e valida per ogni funzione ϕ ∈ C(Rd) acrescita polinomiale |ϕ(x)| ≤ C(1 + |x|p−1).

Dim. Proviamo che la convergenza e valida per ϕ ∈ Cb(Rd) a supportocompatto. In questo caso, per ogni ε > 0, possiamo trovare una funzione ϕ ∈Cb.Lip(Rd) tale che supx∈Rd |ϕ(x)− ¯ϕ(x)| ≤ ε

2 . Abbiamo

|E[ϕ(Yn)]− E[ϕ(Y )]| ≤ |E[ϕ(Yn)]− E[ϕ(Yn)]|+ |E[ϕ(Y )]− E[ϕ(Y )]|

+|E[ϕ(Yn)]− E[ϕ(Y )]| ≤ ε + |E[ϕ(Yn)]− E[ϕ(Y )]|.Cosı lim supn→∞ |E[ϕ(Yn)]− E[ϕ(Y )]| ≤ ε. La convergenza deve esser valida

poiche ε deve essere arbitrariamente piccolo. Sia ora ϕ una funzione arbitrariain C(Rd) con condizioni di crescita |ϕ(x)| ≤ C(1 + |x|p−1). Per ogni N > 0possiamo trovare ϕ1, ϕ2 ∈ C(Rd) tale che ϕ = ϕ1 + ϕ2, dove ϕ1 ha supportocompatto e ϕ2(x) = 0 per |x| ≤ N , e |ϕ2(x)| ≤ |ϕ(x)| per ogni x. E chiaro che

|ϕ2(x)| ≤ 2C(1 + |x|p)N

per x ∈ Rd

Cosı

|E[ϕ(Yn)]− E[ϕ(Y )]| = |E[ϕ1(Yn) + ϕ2(Yn)]− E[ϕ1(Y )− ϕ2(Y )]|≤ |E[ϕ1(Yn)]− E[ϕ1(Y )]|+ E[|ϕ2(Yn)|] + E[|ϕ2(Y )|]≤ |E[ϕ1(Yn)]− E[ϕ1(Y )]|+ 2C

N(2 + E[|Yn|p] + E[|Y |p])

≤ |E[ϕ1(Yn)]− E[ϕ1(Y )]|+ C

N,

dove C = 2C(2+supn E[|Yn|p]+E[|Y |p]). Abbiamo cosı lim supn→∞ |E[ϕ(Yn)]−E[ϕ(Y )]| ≤ C

N . Siccome N puo esser arbitrariamente largo, E[ϕ(Yn)] deveconvergere a E[ϕ(Y )].

Page 58: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

58 CAPITOLO 4. LGN E TCL

Page 59: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Capitolo 5Moto G-Browniano eIntegrale di Ito1-dimensionale

L’obiettivo di questo capitolo e quello di introdurre il concetto di Moto G-Browniano nel caso 1-dimensionale, di studiare le sue proprieta e di costruireun integrale di Ito rispetto al Moto G-Browniano stesso. Diversamente dallasituazione classica, non e possibile trovare un sistema di coordinate sotto lequali le rispettive componenti Bi, i = 1, · · · , d siano indipendenti tra loro; lavariazione quadratica 〈Bi, Bj〉 giochera un ruolo fondamentale nel caratterizzarela parte di incertezza del moto G-Browniano.

5.1 Moto G-Browniano 1-dimensionale

Definizione 5.1.1. Un processo Bt(ω)t≥0, in uno spazio di attesa sublineare(Ω, H, E) e chiamato moto G-Browniano, se per ogni n ∈ N, 0 < t1, · · · , tn < ∞,e Bt1 , · · · , Btn ∈ H vengono soddisfatte le seguenti proprieta:

1. B0(ω) = 0;

2. Per ogni t, s > 0, l’incremento Bt+s − Bt ha distribuzione come unaN(0; [σ2s, σ2s]) ed e indipendente da (Bt1 , Bt2 , · · · , Btn) per ogni n ∈ N e0 ≤ t1 ≤ · · · ≤ tn ≤ t.

Osservazione 5.1.2. La lettera G indica che il processo B e caratterizzatodalla funzione generatrice G definita da

G(α) := E[αB21 ], α ∈ R.

Possiamo provare che, per ogni α > 0 , (α−12 Bαt)t≥0 e ancora un G-moto

Browniano. Per ogni t0 > 0, (Bt+t0−Bt0)t≥0 e anch’esso un moto G-Browniano.

59

Page 60: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

60 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

E questa la proprieta di riscalamento del moto G-Browniano, che e la stessa delmoto Browniano tradizionale.

Assumeremo σ = 1 , σ = σ ≤ 1.

Teorema 5.1.3. Dato (Bt)t≥0 un processo definito su uno spazio di attesasublineare (Ω, H, E) tale che

1. B0 = 0;

2. Per ogni t, s ≥ 0, la differenza Bt+s − Bt e Bs sono identicamente dis-tribuite e indipendenti da (Bt1 , Bt2 , · · · , Btn

), per ogni n ∈ N e 0 ≤ t1 ≤· · · ≤ tn ≤ t.

3. B0 = 0 , E[Bt] = E[−Bt] = 0 e limt↓0 E[|Bt|3]t−1 = 0.

Quindi B e un moto Gσ,σ-Browniano con σ2 = E[B21 ] e σ2 = −E[−B2

1 ].

Dim. Bisogna solo dimostrare che Bt e distribuita come una N(0, [σ2t, σ2t]).Inizialmente viene provato che

E[B2t ] = σ2t − E[−B2

t ] = σ2t

Poniamo b(t) := E[B2t ]. Allora b(0) = 0 e limt↓0 b(t) ≤ E[|Bt|3] 2

3 → 0. Perogni t, s ≥ 0, abbiamo

b(t + s) = E[(Bt+s)2] = E[(Bt+s − Bs + Bs)2] = E[(Bt+s − Bs)2 + B2s ]

= b(t) + b(s)

Quindi b(t) e lineare e uniformemente continua in t; cosı esiste una costanteσ ≥ 0 tale che E[B2

t ] = σ2t. Allo stesso modo esiste anche un’altra costanteσ ∈ [0, σ] t.c. −E[−B2

t ] = σ2t. Quindi abbiamo σ2 = E[B21 ] ≥ −E[−B2

1 ] = σ2

Proviamo ora che Bt sia distribuita come una N(0, [σ2t, σ2t]). Basteradimostrare che, per ogni ϕ ∈ Cl.Lip(R) la funzione

u(t, x) := E[ϕ(x + Bt)], (t, x) ∈ [0,∞)× Re la soluzione viscosa della seguente Gσ,σ-equazione del calore

∂tu−G(∂2xx) = 0, per t > 0 u|t=0 = ϕ. (5.1)

con G(a) = 12 (σ2a+ − σ2a−). Cosı per ogni variabile ξ distribuita come una

N(0, [σ2, σ2]), abbiamo

E[ϕ(Bt)] = E[ϕ(√

tξ)] ∀ϕ ∈ Cl.Lip(R)

Quindi Bt ∼√

tξ ∼ N(0, [σ2t, σ2t]).Come prima cosa mostriamo che u e localmente Lipschitz in x e localmente

12 -Holder in t. Infatti, per ogni fissato t, u(t, ·) ∈ Cl.Lip(R) si ha

Page 61: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.1. MOTO G-BROWNIANO 1-DIMENSIONALE 61

|E[ϕ(x + Bt)]− E[ϕ(y + Bt)]| ≤ E[|ϕ(x + Bt)− ϕ(y + Bt)|]≤ E[C(1 + |x|m + |y|m + |Bt|m)|x− y|]≤ C1(1 + |x|m + |y|m)|x− y|.

Per ogni δ ∈ [0, t], dato Bt − Bδ e indipendente da Bδ abbiamo

u(t, x) = E[ϕ(x + Bδ + (Bt − Bδ))]

= E[E[ϕ(y + (Bt − Bδ))]y=x+Bδ],

quindi si ha,

u(t, x) = E[u(t− δ, x + Bδ)] (5.2)

Cosı,

|u(t, x)− u(t− δ, x)| = |E[u(t− δ, x + Bδ)− u(t− δ, x)]|≤ E[|u(t− δ, x + Bδ)− u(t− δ, x)|]≤ E[C(1 + |x|m + |Bδ|m)|Bδ|]≤ C1(1 + |x|m)σδ

12 .

Per dimostrare che u e una soluzione viscosa della (5.1), fissiamo un vettoretempo-spazio (t, x) ∈ (0,∞)× R e prendiamo v ∈ C2,3

b ([0,∞)× R) tale che siav ≥ u e v(t, x) = u(t, x). Dalla (5.2) abbiamo

v(t, x) = E[u(t− δ, x + Bδ)] ≤ E[v(t− δ, x + Bδ)]

In questo modo, dallo sviluppo di Taylor, abbiamo

0 ≤ E[v(t− δ, x + Bδ)− v(t, x)]

= E[v(t− δ, x + Bδ)− v(t, x + Bδ) + (v(t, x + Bδ)− v(t, x))]

= E[−∂tv(t, x)δ + ∂xv(t, x)Bδ +12∂2

xxv(t, x)B2δ + Iδ]

≤ −∂tv(t, x)δ + E[12∂2

xxv(t, x)B2δ ]− E[Iδ]

= −∂tv(t, x)δ + G(∂2xx(t, x))δ − E[Iδ].

dove

Iδ =∫ 1

0

−[∂tv(t− βδ, x + Bδ)− ∂tv(t, x)]δdβ

+∫ 1

0

∫ 1

0

[∂2xxv(t, x + αβBδ)− ∂2

xxv(t, x)]αdβdαB2δ

Page 62: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

62 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

Dall’ipotesi (3) del Teorema 5.1.3 segue che limδ↓0 E[|Iδ|]δ−1 = 0; da ques-ta otteniamo ∂tv(t, x) − G(∂2

xx(t, x)) ≤ 0; cosı u e una sottosoluzione viscosadella (5.1). Analogamente si puo provare che u e anche soprasoluzione. Dalladefinizione di distribuzione G-normale abbiamo

Bt ∼√

tξ ∼ N(0; [σ2t; σ2t]).

In questo modo (Bt)t≥0 e un moto G-Browniano.

5.2 Esistenza del Moto G-Browniano

D’ora in poi denoteremo con Ω = C0(R+) lo spazio di tutte le traiettorie continue(ωt)t∈R+ a valori in R con ω0 = 0 munito della distanza

ρ(ω1, ω2) :=∞∑

i=1

2−i[( maxt∈[0,i]

|ω1t − ω2

t |) ∧ 1].

Per ogni fissato T ≥ 0 consideriamo il seguente spazio di variabili casuali:

(H0T ) = L0

ip(FT) := X(ω) =ϕ(ωt1 , · · · , ωtm), ∀m ≥ 1,

t1, · · · , tm ∈ [0, T ],∀ϕ ∈ Cl.Lip(Rm).

E chiaro che H0t ⊆ L0

ip(FT ), per t ≤ T . Denotiamo anche

(H0) = L0ip(F) :=

∞⋃n=1

L0ip(Fn).

Osservazione 5.2.1. Ovviamente, Cl.Lip(Rm) e anche L0ip(FT ) , L0

ip(F) sonoreticoli vettoriali. Inoltre, siccome ϕ, ψ ∈ Cl.Lip(Rm) implica ϕ·ψ ∈ Cl.Lip(Rm),di conseguenza X, Y ∈ L0

ip(FT ) implica X · Y ∈ L0ip(FT ).

D’ora in avanti consideriamo lo spazio canonico e l’insieme Bt(ω) = ωt,t ∈ [0,∞), per ω ∈ Ω. Per ogni fissato T ∈ [0,∞), poniamo

Lip(FT ) := ϕ(Bt1 , · · · , Btm) : 0 ≤ t1, · · · , tn ≤ T, ϕ ∈ Cl.Lip(Rn), n ∈ N.

In particolare, per ogni t ∈ [0,∞), allora Bt ∈ Lip(Ft).Consideriamo la funzione sublineare G(a) = 1

2 (a+ − σ2a−), a ∈ R. Sia ξuna variabile con distribuzione G-normale. Introduciamo una attesa sublineareE definita su H0

T = L0ip(FT ), nello stesso modo in cui e stata introdotta H0 =

L0ip(F). Per ogni X ∈ H0

T con

X = ϕ(Bt1 −Bt0 , Bt2 −Bt1 , · · · , Btm −Btm−1)

con ϕ ∈ Cl.Lip(Rm) e 0 = t0 < t1 < · · · < tm < ∞, sia

E[ϕ(Bt1 −Bt0 , Bt2 −Bt1 , · · · , Btm −Btm−1)]

E[ϕ(√

t1 − t0ξ1, · · · ,√

tm − tm−1ξm)],

Page 63: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.2. ESISTENZA DEL MOTO G-BROWNIANO 63

dove (ξ1, · · · , ξn) e un vettore casuale m-dimensionale con distribuzione G-normale su uno spazio di attesa sublineare (Ω, H, E) tale che ξi ∼ N(0; [σ2, 1])e tale che ξi+1 sia indipendente da (ξ1, · · · , ξi) per ogni i = 1, · · · ,m− 1.

La relativa attesa condizionale di X = ϕ(Bt1 , Bt2 − Bt1 , · · · , Btm − Btm−1)dato Htj

e definita da

E[X|Htj] = E[ϕ(Bt1 , Bt2 −Bt1 , · · · , Btm

−Btm−1)|Htj] (5.3)

= ψ(Bt1 , · · · , Btj −Btj−1)

dove

ψ(x1, · · · , xj) = E[ϕ(x1, · · · , xj ,√

tj+1 − tjξj+1, · · · ,√

tm − tm−1ξm)]

Si puo quindi verificare che E[·] definisce un’attesa sublineare su L0ip(F);

soddisfa quindi le proprieta (a)− (d) della Definizione 2.1.1.

Definizione 5.2.2. L’attesa E[·] : Lip(F) → R appena definita e chiamataG-attesa. Il corrispondente processo canonico (Bt)t≥0 nello spazio di attesasublineare (Ω, H, E) e chiamato moto G-Browniano.

Proposizione 5.2.3. Elenchiamo le proprieta di E[·|Ht] valide per ogni X, Y ∈H0 = L0

ip(F):

1. Se X ≥ Y , allora E[X|Ht] ≥ E[Y |Ht].

2. E[η|Ht] = η, per ogni t ∈ [0,∞) e η ∈ H0t .

3. E[X|Ht]− E[Y |Ht] ≤ E[X − Y |Ht].

4. E[ηX|Ht] = η+E[X|Ht] + η−E[−X|Ht] per ogni η ∈ H0t .

Abbiamo anche

E[E[ηX|Ht]|Hs] = E[ηX|Ht∧s] in particolare E[E[ηX|Ht]] = E[X].

Per ogni X ∈ L0ip(F

tT ), E[X|Ht] = E[X], dove L0

ip(FtT ) = Ht

T e lo spaziodelle variabili casuali della forma

ϕ(Bt2 −Bt1 , Bt3 −Bt2 , · · · , Btm−1 −Btm),

m = 1, 2, · · · , ϕ ∈ Cl.Lip(Rm), t1, · · · , tm, tm+1 ∈ [t,∞).

Osservazione 5.2.4. Le proprieta (2)− (3) della Proposizione 5.2.3 impli-cano

E[X + η|Ht] = E[X|Ht] + η.

Page 64: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

64 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

Inoltre, se Y ∈ L0ip(F) soddisfa E[Y |Ht] = −E[−Y |Ht] allora

E[X + Y |Ht] = E[X|Ht] + E[Y |Ht].

Esempio 5.2.5. Per ogni s < t, abbiamo E[Bt−Bs|Hs] = 0 e per n = 1, 2, · · · ,

E[|Bt −Bs|n|Hs] = E[|Bt−s|n] =1√

2π(t− s)

∫ ∞

−∞|x|n exp(− x2

2(t− s))dx.

Ma abbiamo

E[−|Bt −Bs|n|Hs] = E[−|Bt−s|n] = −σnE[|Bt−s|n].

Esattamente come nel caso classico, abbiamo

E[(Bt −Bs)2|Hs] = t− s, E[(Bt −Bs)4|Hs] = 3(t− s)2,

E[(Bt −Bs)6|Hs] = 15(t− s)3, E[(Bt −Bs)8|Hs] = 105(t− s)4,

E[|Bt −Bs||Hs] =

√2(t− s)√

π, E[|Bt −Bs|3|Hs] =

2√

2(t− s)32√

π,

E[|Bt −Bs|5|Hs] = 8√

2(t− s)52√

π.

Riporto alcuni di questi esempi:

E[|Bt −Bs||Hs] = E[|Bt−s|] =1√

2π(t− s)

∫ +∞

−∞|x| exp(− x2

2(t− s))dx

=1√

2π(t− s)· [−(t− s) · 1√

2π(t− s)

∫ +∞

0

(x

t− s) exp(− x2

2(t− s))dx

+ (t− s) · 1√2π(t− s)

∫ 0

−∞(− x

t− s) exp(− x2

2(t− s))dx]

=1√

2π(t− s)· [−(t− s) · [exp(− x2

2(t− s))]+∞0

+ (t− s) · [exp(− x2

2(t− s))]0−∞]

=1√

2π(t− s)· 2(t− s) =

√2(t− s)√

π.

E[(Bt −Bs)2|Hs] = E[(Bt−s)2] =1√

2π(t− s)

∫ +∞

−∞x2 exp(− x2

2(t− s))dx

= − t− s√2π(t− s)

∫ +∞

−∞x · (− x

t− s) exp(− x2

2(t− s))dx

= − t− s√2π(t− s)

∫ +∞

−∞x · (exp(− x2

2(t− s)))′dx

= − t− s√2π(t− s)

· [[x · exp(− x2

2(t− s))]+∞−∞

∫ +∞

−∞exp(− x2

2(t− s))dx]

= t− s.

Page 65: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.2. ESISTENZA DEL MOTO G-BROWNIANO 65

E[|Bt −Bs|3|Hs] = E[|Bt−s|3] =1√

2π(t− s)

∫ +∞

−∞|x|3 exp(− x2

2(t− s))dx

=1√

2π(t− s)[∫ 0

−∞−x3 exp(− x2

2(t− s))dx +

∫ +∞

0

x3 exp(− x2

2(t− s))dx]

=1√

2π(t− s)[∫ 0

−∞(−x2) · (− x

t− s) exp(− x2

2(t− s))dx

+∫ +∞

0

x2 · (− x

t− s) exp(− x2

2(t− s))dx]

=1√

2π(t− s)[∫ 0

−∞(−x2) · (exp(− x2

2(t− s)))′dx

+∫ +∞

0

x2(exp(− x2

2(t− s)))′dx]

= − t− s√2π(t− s)

[[x2 exp(− x2

2(t− s))]+∞0 −

∫ +∞

0

2x exp(− x2

2(t− s))dx

+ [x2 exp(− x2

2(t− s))]+∞0 −

∫ +∞

0

2x exp(− x2

2(t− s))dx]

= − t− s√2π(t− s)

[[x2 exp(− x2

2(t− s))]0−∞−

2∫ 0

−∞x exp(− x2

2(t− s))dx + [x2 exp(− x2

2(t− s))]+∞0

− 2∫ +∞

0

x exp(− x2

2(t− s))dx]

=2(t− s)

√2(t− s)

π.

E[(Bt −Bs)4|Hs] = E[(Bt−s)4] =1√

2π(t− s)

∫ +∞

−∞x4 exp(− x2

2(t− s))dx

= − t− s√2π(t− s)

∫ +∞

−∞x3 · (− x

t− s) exp(− x2

2(t− s))dx

= − t− s√2π(t− s)

∫ +∞

−∞x3 · (exp(− x2

2(t− s)))′dx

= − t− s√2π(t− s)

· [[x3 · exp(− x2

2(t− s))]+∞−∞ −

∫ +∞

−∞3x2 exp(− x2

2(t− s))dx]

= − t− s√2π(t− s)

· [−3∫ +∞

−∞x2 exp(− x2

2(t− s))dx]

=3(t− s)(t− s)√

2π(t− s)·√

2π(t− s) = 3(t− s)2.

Le altre si svolgono in modo prettamente analogo.

Definizione 5.2.6. Un processo (Mt)t≥0 e chiamato G-martingala se per ogni

Page 66: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

66 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

t ∈ [0,∞),Mt ∈ L0ip(Ω) per ogni s ∈ [0, t] abbiamo

E[Mt|Hs] = Ms,

Esempio 5.2.7. Per t > s , (Bt)t≥0 e (−Bt)t≥0 sono G-martingale. (B2t )t≥0 e

una G-submartinagala poiche

E[B2t |Hs] = E[(Bt −Bs)2 + B2

s + 2Bs(Bt −Bs)|Hs]

= E[(Bt −Bs)2] + B2s = t− s + B2

s ≥ B2s . (5.4)

5.3 Spazi completi di attese sublineari

Sia (Ω, H,E) uno spazio di attesa sublineare. Valgono le seguenti uguaglianze.

Lemma 5.3.1. Per r > 0 e p < 1 e q < ∞ con 1p + 1

q = 1, abbiamo

|a + b|r ≤ max1, 2r−1(|a|r + |b|r), ∀a, b ∈ R; (5.5)

|ab| ≤ |a|pp

+|b|qq

. (5.6)

Proposizione 5.3.2. Per ogni X, Y ∈ L0ip(F), abbiamo

E[|X + Y |r] ≤ Cr(E[|X|r] + E[|Y |r]), (5.7)

E[|XY |] ≤ E[|X|p] 1p · E[|Y |q] 1

q , (5.8)

E[|X + Y |p] 1p ≤ E[|X|p] 1

p + E[|Y |p] 1p , (5.9)

In particolare, per 1 ≤ p < p′, abbiamo E[|X|p] 1p ≤ E[|X|p′ ] 1

p′ .

Dim.La (5.7) segue dalla (5.5). Poniamo

ξ =X

E[|X|p] 1p

, η =Y

E[|Y |q] 1q

Dalla (5.6) abbiamo

E[|ξη] ≤ E[|ξ|pp

+|η|qq

] ≤ E[|ξ|pp

] + E[|η|qq

]

=1p

+1q

= 1.

Cosı segue la (5.8). Ora possiamo dimostrare la (5.9):

E[|X + Y |p] = E[|X + Y | · |X + Y |p−1]

≤ E[|X| · |X + Y |p−1] + E[|Y | · |X + Y |p−1]

≤ E[|X|p] 1p · E[|X + Y |(p−1)q]

1q

+ E[|Y |p] 1p · E[|X + Y |(p−1)q]

1q .

Page 67: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.4. MOTO G-BROWNIANO E INT. ITO 1-DIM 67

Ma, osserviamo che (p − 1)q = p e cosı abbiamo la (5.9). Per ogni p, q > 0con 1

p + 1q = 1 abbiamo

‖XY ‖ = E[|XY |] ≤ ‖X‖p‖X‖q.

In questo modo abbiamo ‖X‖p ≤ ‖X‖p′ , se p ≤ p′.

Osservazione 5.3.3. Per ogni fissato p ≥ 1, osserviamo che H0p = X ∈

H, E[|X|p] = 0 e un sottospazio lineare di H. Prendendo Hp0 come il nostro

spazio nullo, possiamo introdurre lo spazio quoziente H/Hp0. Osserviamo che,

per ogni X ∈ H/Hp0, possiamo definire un attesa E[X] = E[X] che sod-

disfi le proprieta (a) − (d) della Definizione 2.1.1. Poniamo anche ‖X‖p :=E[|X|p] 1

p .

Osservazione 5.3.4. E facile notare che H/Hp0 e dotato della norma ‖ · ‖p

e uno spazio di Banach. Allora estendiamo H/Hp0 al suo completamento Hp

sotto questa norma. L’attesa sublineare E[·] puo anch’essa essere estesa in modocontinuo da H/H0 a Hp, in modo tale da soddisfare le proprieta (1)− (4).

Per ogni X ∈ H, le mappe

X+(ω) : H → H X−(ω) : H → H

soddisfano

|X+ − Y +| ≤ |X − Y | e |X− − Y −| = |(−X)+ − (−Y )+| ≤ |X − Y |.Di conseguenza, esse sono mappe di contrazione sotto ‖ · ‖p e possono essere

estese in modo continuo allo spazio di Banach (Hp, ‖ · ‖p). In questo spaziodefiniamo una relazione di ordine parziale denotata con ≥.

Definizione 5.3.5. Un elemento X in (H, ‖ · ‖) e detto essere non negativoo X ≥ 0, 0 ≤ X se X = X+. Denotiamo anche con X ≥ Y , o Y ≤ X seX − Y ≥ 0.

E semplice notare che se X ≥ Y e Y ≥ X implica X = Y in (Hp, ‖ · ‖p).L’attesa sublineare, E[·] puo essere estesa in modo continuo a (Hp, ‖ · ‖p), su

cui le proprieta (a)− (d) della Definizione 2.1.1 sono ancora valide.

5.4 Moto G-Browniano in uno spazio di attesasublineare completo.

Possiamo verificare che, per ogni p > 0 e per ogni X ∈ L0ip(F) della forma

X(ω) = ϕ(Bt1 , · · · , Btm) per qualche ϕ ∈ Cl.Lip(Rm),

E[|X|] = 0 ⇐⇒ E[|X|p] ⇐⇒ ϕ(x) = 0, ∀x ∈ Rm.

Per ogni p ≥ 1, ‖X‖p := E[|X|p] 1p , X ∈ L0

ip(FT ), forma una norma e L0ip(FT )

puo essere estesa in modo continuo a uno spazio di Banach, denotato da

HT = LpG(FT )

Page 68: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

68 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

Per ogni 0 ≤ t ≤ T < ∞ abbiamo LpG(Ft) ⊆ Lp

G(FT ) ⊂ LpG(F). E facile ver-

ificare che, in LpG(FT ), E[·] soddisfa ancora le proprieta (a)− (d). Consideriamo

ora l’attesa condizionale introdotta in (??). Per ogni fissato t = tj ≤ T , l’attesacondizionale E[·|Ht] : L0

ip(FT ) → H0t e una mappa continua sotto la norma ‖ · ‖,

in quanto E[E[X|Ht]] = E[X], X ∈ L0ip(FT ) e

E[E[X|Ht]]− E[E[Y |Ht]] ≤ E[X − Y ],

‖E[X|Ht]− E[Y |Ht]‖ ≤ ‖X − Y ‖.Segue che E[·|Ht] puo essere estesa come una mappa continua Lp

G(FT ) →Lp

G(Ft). Se la T non e fissata, allora possiamo ottenere E[·|Ht] : L1G(F) →

L1G(Ft)

Proposizione 5.4.1. Le proprieta 1.−4. della Proposizione 5.2.3 di E[·|Ht]sono ancora valide per X, Y ∈ L1

G(F) :

1. Se X ≥ Y , allora E[X|Ht] ≥ E[Y |Ht].

2. E[η|Ht] = η, per ogni t ∈ [0,∞) e η ∈ L1G(Ft).

3. E[X|Ht]− E[Y |Ht] ≤ E[X − Y |Ht].

4. E[ηX|Ht] = η+E[X|Ht] + η−E[−X|Ht] per ogni η ∈ L1G(Ft) limitato.

5. E[E[X|Ht]|Hs] = E[X|Ht∧s] , in particolare E[E[X|Ht]] = E[X].

6. Per ogni X ∈ L1G(Ft

T ), abbiamo E[X|Ht] = E[X].

Definizione 5.4.2. X ∈ L1G(F) e detto essere indipendente da Ft, sotto la G-

attesa E per qualche dato t ∈ [0,∞), se per ogni funzione reale Φ adeguatamentedefinita su R tale che Φ(X) ∈ L1

G(F) abbiamo

E[Φ(X)|Ht] = E[Φ(X)]

Osservazione 5.4.3. E chiaro che tutti gli elementi di a L1G(F) sono in-

dipendenti da F0. Esattamente come nel caso classico, l’incremento del motoG-Browniano (Bt+s −Bs)t≥0 e indipendente da Fs.

Esempio 5.4.4. Per ogni n ∈ N, 0 ≤ t < ∞ e X ∈ L1G(Ft), dalla proprieta (6)

della Proposizione 5.4.1 e in quanto E[B2n−1T−t ] = E[−B2n−1

T−t ], abbiamo

E[X(BT −Bt)2n−1] = E[X+E[(BT −Bt)2n−1|Ht] + X−E[−(BT −Bt)2n−1|Ht]]

= E[X+E[|B2n−1T−t |] + X−E[|B2n−1

T−t |]]= E[(X+ + X−)E[|B2n−1

T−t |]]= E[|X| · E[|B2n−1

T−t |]]= E[|X|] · E[B2n−1

T−t ],

E[X(BT −Bt)|Ht] = E[−X(BT −Bt)|Ht] = 0.

Page 69: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.5. INTEGRALE DI ITO DI UN MOTO G-BROWNIANO. 69

Inoltre vale,

E[X(BT −Bt)2|Ht] = X+(T − t)− σ2X−(T − t).

Osservazione 5.4.5. Possiamo definire quindi un’attesa E[·] su L0ip(F) nello

stesso modo della Definizione 5.1.1 con distribuzione normale standard F =N(0, 1) che sostituisce Fξ = N(0; [σ, 1]) sullo spazio (R, B(R)). Poiche F edominata da Fξ, F[ϕ] − F[ψ] ≤ Fξ[ϕ − ψ], allora E puo essere estesa in modocontinuo a L1

G(F). E[·] e quindi un’attesa lineare sotto la quale (Bt)t≥0 sicomporta come un moto Browniano classico. Abbiamo

E[X] ≤ E[X], ∀X ∈ L1G(F) (5.10)

In particolare, E[B2n−1T−t ] = E[−B2n−1

T−t ] ≥ E[−B2n−1T−t ] = 0.

La seguente proprieta e molto utile

Proposizione 5.4.6. Dati X, Y ∈ L1G(F) tali che E[Y |Ht] = −E[−Y |Ht],

allora abbiamoE[X + Y |Ht] = E[X|Ht] + E[Y |Ht].

In particolare, se t = 0 e E[Y |H0] = E[Y ] = E[−Y ] = 0, allora E[X +Y ] = E[X]

Dim. Per dimostrare la proposizione, basta utilizzare due volte la proprietadi subadditivita di E[·|Ht]:

E[X + Y |Ht] ≥ E[X|Ht]− E[Y |Ht] = E[X|Ht] + E[Y |Ht]

≥ E[X + Y |Ht].

Esempio 5.4.7. Abbiamo

E[B2t −B2

s |Hs] = E[(Bt −Bs + Bs)2 −B2s |Hs]

= E[(Bt −Bs)2 + 2(Bt −Bs)Bs|Hs]= t− s.

in quanto 2(Bt−Bs)Bs soddisfa le condizioni per Y nella Proposizione 5.4.6e

E[(B2t −B2

s )2|Hs] = E[(Bt −Bs + Bs)2 −B2s2|Hs]

= E[(Bt −Bs)4 + 4(Bt −Bs)3Bs + 4(Bt −Bs)2B2s |Hs]

=≤ E[(Bt −Bs)4] + 4E[|Bt −Bs|3]|Bs|+ 4(t− s)B2s

= 3(t− s)2 + 8(t− s)32 |Bs|+ 4(t− s)B2

s .

5.5 Integrale di Ito di un Moto G-Browniano.

Integrale di Bochner

Page 70: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

70 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

Definizione 5.5.1. Per T ∈ R+ una partizione πT di [0, T ] e un sottoinsiemefinito e ordinato π = t1, · · · , tN tale che 0 = t0 < t1 < · · · < tN = T .Denotiamo

µ(πT ) = max|ti+1 − ti| : i = 0, 1, · · · , N − 1.Usiamo πN

T = tN0 , tN1 , · · · , tNN per definire una partizione di [0, T ] tale chelimN→∞ µ(πN

T ) = 0.

Fissato p ≥ 1, consideriamo i seguenti tipi di processi semplici: per una datapartizione t0, · · · , tN = πT di [0, T ], poniamo

ηk(ω) =N−1∑

j=0

ξj(ω)I[tj ,tj+1)(t).

dove ξi ∈ LpG(Fti

), i = 0, 1, 2, · · · , N −1 sono dati. La collezione dei processidi questa forma e denotata da Mp,0

G (0, T ).

Definizione 5.5.2. Per un η ∈ Mp,0G (0, T ) con ηt =

∑N−1j=0 ξj(ω)I[tj ,tj+1)(t) il

relativo integrale di Bochner e

∫ T

0

ηt(ω)dt =N−1∑

j=0

ξj(ω)(tj+1 − tj)

Osservazione 5.5.3. Per ogni η ∈ Mp,0G (0, T ) poniamo

ET [η] :=1T

∫ T

0

E[ηt]dt =1T

N−1∑

j=0

E[ξj(ω)](tj+1 − tj).

E facile notare che ET : Mp,0G (0, T ) → R forma uno spazio di attesa sub-

lineare soddisfacente le proprieta (1) − (4) della definizione di attesa sublin-eare del Capitolo 2. Dall’Osservazione 5.3.3 possiamo introdurre la norma‖η‖Mp

G(0,T ) = ∫ T

0E[|η|p]dt 1

p . Sotto questa norma Mp,0G (0, T ) puo essere estesa

in modo continuo a uno spazio di Banach.

Definizione 5.5.4. Per ogni p ≥ 1 denoteremo con MpG(0, T ) il completamento

di Mp,0G (0, T ) sotto la norma

‖η‖MpG(0,T ) =

∫ T

0

E[|η|p]dt 1p

Per η ∈ Mp,0G (0, T ) abbiamo

E[| 1T

∫ T

0

ηt(ω)dt|p] ≤ 1T

N−1∑

j=0

E[|ξj(ω)|p](tj+1 − tj)

=1T

∫ T

0

E[|ηt|p]dt.

Abbiamo allora la seguente,

Page 71: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.5. INTEGRALE DI ITO DI UN MOTO G-BROWNIANO. 71

Proposizione 5.5.5. La mappa lineare∫ T

0ηt(ω)dt : Mp,0

G (0, T ) → LpG(FT )

e continua; cosı puo essere estesa in modo contnuo a MpG(0, T ) → Lp

G(FT ).Definiamo anche questa mappa estesa con

∫ T

0ηt(ω)dt, η ∈ Mp

G(0, T ). Abbiamo

E[| 1T

∫ T

0

ηt(ω)dt|p] ≤ 1T

∫ T

0

E[|ηt|p]dt, ∀η ∈ MpG(0, T ) (5.11)

Abbiamo MpG(0, T ) ⊃ Mq

G(0, T ) per p ≤ q.Integrale di Ito di un moto G-Browniano

Definizione 5.5.6. Per ogni η ∈ M2,0G (0, T ) della forma

ηt(ω) =N−1∑

j=0

ξj(ω)I[tj ,tj+1)(t),

definiamo

I(η) =∫ T

0

η(s)dBs :=N−1∑

j=0

ξj(Btj+1 −Btj ),

Lemma 5.5.7. La mappa I : M2,0G (0, T ) → L2

G(FT ) e una mappa linearecontinua e puo cosı essere estesa in modo continuo a I : M2

G(0, T ) → L2G(FT ).

Di conseguenza si ha

E[∫ T

0

η(s)dBs] = 0, (5.12)

E[(∫ T

0

η(s)dBs)2] ≤∫ T

0

E[(η(t))2]dt. (5.13)

Definizione 5.5.8. Definiamo, per un fissato η ∈ M2G(0, T ) l’integrale stocas-

tico ∫ T

0

η(s)dBs := I(η).

E chiaro che la (5.12) e la (5.13) sono ancora valide per η ∈ M2G(0, T ).

Dim. del Lemma 5.5.7 Dall’Esempio 5.4.4 per ogni j abbiamo

E[ξj(Btj+1 −Btj )|Htj

]= E[−ξj(Btj+1 −Btj )|Htj ] = 0

Abbiamo

E[∫ T

0

η(s)dBs] = E[∫ tN−1

0

η(s)dBs + ξN−1(BtN −BtN−1)]

= E[∫ tN−1

0

η(s)dBs + E[ξN−1(BtN−BtN−1)|HtN−1 ]]

= E[∫ tN−1

0

η(s)dBs]

Possiamo allora ripetere questa procedura per ottenere la (5.12). Dimostri-amo ora la (5.13):

Page 72: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

72 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

E[(∫ T

0

η(s)dBs)2] = E[(∫ tN−1

0

η(s)dBs + ξN−1(BtN −BtN−1))2]

= E[(∫ TN−1

0

η(s)dBs)2 + E[2(∫ tN−1

0

η(s)dBs)ξN−1

(BtN−BtN−1) + ξ2

N−1(Btn−BtN−1)

2|HtN−1 ]]

= E[(∫ tN−1

0

η(s)dBs) + ξ2N−1(tN − tN−1)].

Cosı, E[(∫ tN

0η(s)dBs)2] ≤ E[(

∫ tN−1

0η(s)dBs)2] + E[ξ2

N−1](tN − tN−1). Pos-siamo allora ripetere questa tecnica e dedurre

E[(∫ T

0

η(s)dBs)2] ≤N−1∑

j=0

E[(ξj)2](tj+1 − tj) =∫ T

0

E[(η(t))2]dt. ¤

Elenchiamo ora le principali proprieta dell’integrale di Ito di un G-motoBrowniano. Denotiamo per 0 ≤ s ≤ t ≤ T,

∫ t

s

ηudBu :=∫ T

0

I[s,t](u)ηudBu.

Abbiamo la

Proposizione 5.5.9. Dati η, θ ∈ M2G(0, T ) e dato 0 ≤ s ≤ r ≤ t ≤ T . Allora

in L1G(FT ), abbiamo

1.∫ t

sηudBu =

∫ r

sηudBu +

∫ t

rηudBu,

2.∫ t

s(αηu + θu)dBu = α

∫ t

sηudBu +

∫ t

sθudBu, se α e limitato e appartiene

ad L1G(Fs).

3. E[X +∫ T

rηudBu|Hs] = E[X], ∀X ∈ L1

G(F).

I processi di variazione quadratica del G-Moto Browniano.Studiamo ora un interessante processo del moto G-Browniano. Presa πN

t , conN = 1, 2, · · · , una sequenza di partizioni di [0, t], consideriamo

B2t =

N−1∑

j=0

[B2tNj+1

−B2tNj

]

=N−1∑

j=0

2BtNj

(BtNj+1

−BtNj

) +N−1∑

j=0

(BtNj+1

−BtNj

)2.

Per µ(πNt ) → 0 il primo termine tende a 2

∫ t

0BsdBs. Il secondo termine

deve convergere; denotiamo il suo limite con 〈B〉t, cioe,

〈B〉t = limµ(πN

t )→0

N−1∑

j=0

(BtNj+1

−BtNj

)2 = B2t − 2

∫ t

0

BsdBs. (5.14)

Page 73: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.5. INTEGRALE DI ITO DI UN MOTO G-BROWNIANO. 73

Dalla precedente costruzione 〈B〉tt≥0 e un processo crescente con 〈B〉0 = 0,chiamato variazione quadratica del moto G-Browniano B. Chiaramente〈B〉 e un processo crescente e caratterizza la parte di incertezza del moto G-Browniano. E importante tenere a mente che 〈B〉t non e un processo deter-ministico se non nel caso σ = 1 cioe quando B e un moto Browniano classico.Infatti abbiamo

Lemma 5.5.10. Per ogni 0 ≤ s ≤ t < ∞

E[〈B〉t − 〈B〉s|Hs] = t− s. (5.15)

E[−(〈B〉t − 〈B〉s)|Hs] = −σ2(t− s). (5.16)

Dim.Dalla definizione di 〈B〉 e dalla proprieta (3) della Proposizione 5.5.9

abbiamo

E[〈B〉t − 〈B〉s|Hs] = E[B2t −B2

s − 2∫ t

s

BudBu|Hs]

= E[B2t −B2

s |Hs] = t− s.

L’ultimo passaggio puo essere provato come nell’Esempio 5.4.7. Cosı ab-biamo la (5.15) e la (5.16) puo essere provata in modo analogo con E[−(B2

t −B2

s )|Hs] = −σ2(t− s). ¤Per definire l’integrazione di un processo η ∈ M1

G(0, T ) rispetto a d〈B〉,definiamo prima una mappa

Q0,T (η) =∫ T

0

η(s)d〈B〉s :=N−1∑

j=0

ξj(〈B〉tj+1 − 〈B〉tj ) : M1,0G (0, T ) → L1(FT ).

Lemma 5.5.11. Per ogni η ∈ M1,0G (0, T ), vale

E[|Q0,T (η)|] ≤∫ T

0

E[|ηs|]ds. (5.17)

Quindi, Q0,T : M1,0G (0, T ) → L1(FT ) e una mappa lineare continua. Di con-

seguenza, Q0,T puo essere in modo unico estesa a L1F(0, T ). Denotiamo questa

mappa ancora

∫ T

0

η(s)d〈B〉s = Q0,T (η), η ∈ M1G(0, T ).

Ancora vale la seguente disuguaglianza

E[|∫ T

0

η(s)d〈B〉s|] ≤∫ T

0

E[|ηs|]ds, ∀η ∈ M1G(0, T ). (5.18)

Dim. Dal Lemma 5.5.10 possiamo dimostrare la (5.18) nel seguente modo:

Page 74: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

74 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

E[|N−1∑

j=0

ξj(〈B〉tj+1 − 〈B〉tj)|] ≤

N−1∑

j=0

E[|ξj | · E[〈B〉tj+1 − 〈B〉tj|Htj

]]

=N−1∑

j=0

E[|ξj |](tj+1 − tj)

=∫ T

0

E[|ηs|]ds. ¤

Un caratteristica molto interessante del processo di variazione quadrati-ca 〈B〉, e che l’incremento 〈B〉t+s − 〈B〉s e indipendente da Fs e identica-mente distribuito come 〈B〉t, esattamente come nel moto G-Browniano. Infatti,abbiamo

Lemma 5.5.12. Per ogni fissato s ≥ 0, (〈B〉s+t − 〈B〉s)t≥0 e indipendente daFs. E il processo di variazione quadratica del moto Browniano Bs

t = Bs+t−Bs,t ≥ 0, cioe, 〈B〉s+t − 〈B〉s = 〈Bs〉t.

Dim. L’indipendenza segue direttamente da

〈B〉s+t − 〈B〉s = B2t+s − 2

∫ s+t

0

BrdBr − [B2s − 2

∫ s

0

BrdBr]

= (Bt+s −Bs)2 − 2∫ s+t

s

(Br −Bs)d(Br −Bs)

= 〈Bs〉t. ¤

Proposizione 5.5.13. Dati 0 ≤ s ≤ t, ξ ∈ L1G(Fs). Allora

E[X + ξ(B2t −B2

s )] = E[X + ξ(Bt −Bs)2]

= E[X + ξ(〈B〉t − 〈B〉s)].

Dim.Dalla (5.14) e dalla Proposizione 5.4.6 abbiamo,

E[X + ξ(B2t −B2

s )] = E[X + ξ(〈B〉t − 〈B〉s + 2∫ t

s

BudBu)]

= E[X + ξ(〈B〉t − 〈B〉s)].

Abbiamo anche

E[X + ξ(B2t −B2

s )] = E[X + ξ(Bt −Bs)2 + 2(Bt −Bs)Bs]= E[X + ξ(Bt −Bs)2]. ¤

Abbiamo quindi la seguente isometria,

Page 75: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.6. LA DISTRIBUZIONE DEL PROCESSO 〈B〉T 75

Proposizione 5.5.14. Dato η ∈ M2G(0, T ), abbiamo

E[(∫ T

0

η(s)dBs)2] = E[∫ T

0

η2(s)d〈B〉s]. (5.19)

Dim.Consideriamo η ∈ M2,0

G (0, T ) della forma

ηt(ω) =N−1∑

j=0

ξj(ω)I[tj ;tj+1)(t)

e cosı∫ T

0η(s)dBs :=

∑N−1j=0 ξj(Btj+1 − Btj

). Dalla Proposizione 5.4.6abbiamo

E[X + 2ξj(Btj+1 −Btj )ξi(Bti+1 −Bti)] = E[X], per X ∈ L1G, i 6= j

Cosı,

E[(∫ T

0

η(s)dBs)2] = E[(N−1∑

j=0

ξj(Btj+1 −Btj ))2] = E[

N−1∑

j=0

ξ2j (Btj+1 −Btj )

2]

E dalla Proposizione 5.5.13 segue che,

E[(∫ T

0

η(s)dBs)2] = E[N−1∑

j=0

ξ2j (〈B〉tj+1 − 〈B〉tj )] = E[

∫ T

0

η2(s)d〈B〉s].

Quindi la (5.19) e valida per η ∈ M2,0G (0, T ). Possiamo quindi estendere

in modo continuo la disuguaglianza precedente al caso in cui η ∈ M2G(0, T ) e

dimostrare la (5.19). ¤

5.6 La distribuzione del processo 〈B〉tUn’interessante particolarita del processo di variazione quadratica 〈B〉 del motoG-Browniano B e che e un tipo di processo con varianza incerta, ma con mediafissata. La varianza incerta e dovuta al processo 〈B〉, che e un tipico processocon media-varianza. Queste proprieta verranno applicate per misurare la mediaincerta di alcune posizioni di rischio.

Lemma 5.6.1. Abbiamo

E[〈Bs〉2t |Hs] = E[〈B〉2t ] ≤ 10t2 (5.20)

Dim.

Page 76: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

76 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

E[〈B〉2t ] = E[(Bt)2 − 2∫ t

0

BudBu2]

≤ 2E[(Bt)4] + 8E[(∫ t

0

BudBu)2]

≤ 6t2 + 8∫ t

0

E[(Bu)2]du

= 10t2. ¤

Teorema 5.6.2. Dato (bt)t≥0 un processo definito su (Ω, H, E) t.c.

1. b0 = 0.

2. Per ogni t, s ≥ 0, la differenza bt+s−bt e bs sono identicamente distribuitieindipendente da (bt1 , bt2 , · · · , btn

) per ogni n ∈ N e 0 ≤ t1, · · · , tn, t.

3. b0 = 0 e limt↓0 E[b2t ]t−1 = 0.

Allora bt e U[µt,µt]-distribuito con µ = E[b1] e µ = −E[−b1].

Dim. Basta dimostrare che bt sia U[µt,µt]-distribuito. Per prima cosadimostriamo che

E[bt] = µt − E[−bt] = µt.

Poniamo ϕ(t) := E[bt]. Allora ϕ(0) = 0 e limt↓0 ϕ(t) → 0. Siccome per ognit, s ≥ 0

ϕ(t + s) = E[bt+s] = E[(bt+s − bs) + bs]= ϕ(t) + ϕ(s).

Cosı ϕ(t) e lineare e uniformemente continua in t, tale che E[bt] = µt.Analogamente, −E[−bt] = µt. Proviamo ora che bt e U[µt,µt]-distribuito. Abbi-amo bisogno di verificare che per ogni fissato ϕ ∈ Cl.Lip(R), la funzione

u(t, x) := E[ϕ(x + bt)], (t, x) ∈ [0,∞)× Re la soluzione viscosa della seguente Gµ,µ-equazione

∂tu− 2G(∂xu) = 0, per t > 0 , u|t=0 = ϕ. (5.21)

con G(a) = Gµ,µ(a) = 12 (µa+ − µa−). Cosı la funzione

u(t, x) = maxv∈[µ,µ]

ϕ(x + vt)

diventa l’unica soluzione della EDP (5.21).Mostriamo che u e localmente Lipschtziana in (t, x). Infatti, per ogni fissato

t, u(t, ·) ∈ Cl.Lip(R), poiche

Page 77: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.6. LA DISTRIBUZIONE DEL PROCESSO 〈B〉T 77

|E[ϕ(x + bt)]− E[ϕ(y + bt)]| ≤ |E[|ϕ(x + bt)− ϕ(y + bt)|]|≤ |E[C(1 + |x|m + |y|m + |bt|m)|x− y|]|≤ C1(1 + |x|m + |y|m)|x− y|.

Per ogni δ ∈ [0, t], siccome bt − bδ e indipendente da bδ, abbiamo

u(t, x) = E[ϕ(x + bδ + (bt − bδ))]

= E[E[ϕ(y + (bt − bδ))]y=x+bδ]

Percio,

u(t, x) = E[u(t− δ, x + bδ)]. (5.22)

Cosı,

|u(t, x)− u(t− δ, x)| = |E[u(t− δ, x + bδ)− u(t− δ, x)]|≤ E[|u(t− δ, x + bδ)− u(t− δ, x)|]≤ E[C(1 + |x|m + |bδ|m)|bδ|]≤ C1(1 + |x|m)δ.

Per provare che u e una soluzione viscosa della EDP (5.21) fissiamo un puntospazio-temporale (t, x) ∈ (0,∞)× R e prendiamo v ∈ C2,2

b ([0,∞)× R) tale chev ≥ u e v(t, x) = u(t, x). Dalla (5.22) abbiamo

v(t, x) = E[u(t− δ, x + bδ)] ≤ E[v(t− δ, x + bδ)]

Cosı, dallo sviluppo di Taylor

0 ≤ E[v(t− δ, x + bδ)− v(t, x)]

= E[v(t− δ, x + bδ)− v(t, x + bδ) + (v(t, x + bδ)− v(t, x))]

= E[−∂tv(t, x)δ + ∂xv(t, x)bδ + Iδ]

≤ −∂tv(t, x)δ + E[∂xv(t, x)bδ] + E[Iδ]

= −∂tv(t, x)δ + 2G(∂xv(t, x))δ + E[Iδ]

dove

Iδ =∫ 1

0

[−∂tv(t− βδ, x + βbδ) + ∂tv(t, x)]dβδ

+∫ 1

0

[∂xv(t− βδ, x + βbδ)− ∂xv(t, x)]dβbδ.

(5.23)

Page 78: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

78 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

Con l’ipotesi che limt↓0 E[b2t ]t−1 = 0 possiamo verificare che

limδ↓0E[|Iδ|]δ−1 = 0;

quindi abbiamo ∂tv(t, x) − 2G(∂x(t, x)) ≤ 0; in questo modo u e la sot-tosoluzione viscosa della (5.21). Allo stesso modo si puo provare che u e anchesoprasoluzione e quindi segue che b1 e U[µ,µ]-distribuito e la dimostrazione ecompletata. ¤Corollario 5.6.3. Per ogni t ≤ T < ∞ abbiamo

µ(T − t) ≤ bT − bt ≤ µ(T − t), in L1G(F)

Dim.E una diretta conseguenza di

E[(bT − bt − (T − t))+] = supµ≤η≤µ

E[(η − µ)+(T − t)] = 0

e

E[(bT − bt − σ2(T − t))−] = supµ≤η≤µ

E[(η − µ)−(T − t)] = 0.

¤Corollario 5.6.4. Abbiamo

E[〈Bs〉2t |Hs] = E[〈B〉2t ] = t2 (5.24)

eE[〈Bs〉3t |Hs] = E[〈B〉3t ] = t3, E[〈Bs〉4t |Hs] = E[〈B〉4t ] = t4.

Teorema 5.6.5. Per ogni x ∈ R, Z ∈ M2G(0, T ) e η ∈ M1

G(0, T ) il processo

Mt = x +∫ t

0

ZsdBt +∫ t

0

ηsd〈B〉s −∫ t

0

2g(ηs)ds, t ∈ [0, T ]

e una martingala:E[Mt|Hs] = Ms, 0 ≤ s ≤ t ≤ T.

Dim. Poiche E[∫ t

sZrdBt|Hs] = E[− ∫ t

sZrdBt|Hs] = 0 dobbiamo solo

provare che

Mt =∫ t

0

ηsd〈B〉s −∫ t

0

2G(ηs)ds

sia una G-martingala. E sufficiente considerare il caso in cui η e un processosemplice, cioe ηt =

∑N−1k=0 ξkI[tk;tk+1)(t). Infatti abbiamo bisogno di prendere in

considerazione il caso a un passo nel quale abbiamo

E[Mtk+1 −Mtk|Htk

] = E[ξk(〈B〉tk+1 − 〈B〉tk)− 2G(ξk)(tk+1 − tk)|Htk

]

= E[ξk(〈B〉tk+1 − 〈B〉tk)|Htk

]− 2G(ξk)(tk+1 − tk)

= ξ+k E[〈B〉tk+1 − 〈B〉tk

] + ξ−k E[−(〈B〉tk+1 − 〈B〉tk)]

− 2G(ξk)(tk+1 − tk)= 0. ¤

Page 79: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.7. FORMULA DI ITO PER UN G-MOTO BROWNIANO 79

5.7 Formula di Ito per un G-Moto Browniano

Abbiamo la seguente formula di Ito di φ(Xt) per un G-processo di Ito X. Persemplificazione tratteremo funzioni φ sufficientemente regolari.

Lemma 5.7.1. Dato φ ∈ C2(Rn) limitato con derivata limitata e ∂2xµxν sono

uniformemente Lipschitz. Dato s ∈ [0, T ] fissato e preso X = (X1, · · · , Xn)T

un processo n-dimensionale su [s,T] della forma

Xνt = Xν

s + αν(t− s) + ην(〈B〉t − 〈B〉s) + βν(Bt −Bs),

dove, per ν = 1, · · · , n, αν , ην e βν sono elementi limitati di L2G(Fs) e Xs =

(X1s , · · · , Xn

s )T e un dato vettore Rn in L2G(Fs). Allora abbiamo

φ(Xt)− φ(Xs) =∫ t

s

∂xν φ(Xu)βνdBu +∫ t

s

∂xνφ(Xu)ανdu (5.25)

+∫ t

s

[Dxν φ(Xu)ην +12∂2

xµxν φ(Xu)βµβν ]d〈B〉u.

E usata la convenzione di Einstein, nella quale ogni singolo termine con indiciripetuti µ e ν implica la sommatoria.

Per ogni N > 0, poniamo δ = (t−s)N e prendiamo la partizione

πN[s,t] = tN0 , tN1 , · · · , tNN = s, s + δ, · · · , s + δN = t.

Abbiamo

φ(Xt) = φ(Xs) +N−1∑

k=0

[φ(XtNk+1

)− φ(XtNk

)]

= φ(Xs) +N−1∑

k=0

[∂xµφ(XtNk

)(Xµ

tNk+1

−Xµ

tNk

)

+12[∂2

xµxν φ(XtNk

)(Xµ

tNk+1

−Xµ

tNk

)(XνtNk+1

−XνtNk

) + ηNk ]] (5.26)

(5.27)

dove

ηNk = [∂2

xµxν φ(XtNk

+θk(XtNk+1−XtN

k))−∂2

xµxν φ(XtNk

)](Xµ

tNk+1−Xµ

tNk

)(XνtNk+1−Xν

tNk

)

con θk ∈ [0, 1]. Abbiamo

E[|ηNk |] = E[|[∂2

xµxν φ(XtNk

+ θk(XtNk+1

−XtNk

))− ∂2xµxν φ(XtN

k)](Xµ

tNk+1

−Xµ

tNk

)×× (Xν

tNk+1

−XνtNk

)|]≤ cE[|XtN

k+1−XtN

k|3] ≤ C[δ3 + δ

32 ] (5.28)

Page 80: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

80 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

dove c e la costante di Lipschitz di ∂2xµxν φn

µ,ν=1. Cosı∑

k E[|ηNk |] → 0. I

restanti termini nella parte destra nella sommatoria della (5.26) sono ξNt + ζN

t

con

ξNt =

N−1∑

k=0

∂xµφ(XtNk

)[αµ(tNk+1 − tNk ) + ηµ(〈B〉tNk+1

− 〈B〉tNk

) + βµ(BtNk+1

−BtNk

)]

+12∂2

xµxν φ(XtNk

)βµβν(BtNk+1

−BtNk

)(BtNk+1

−BtNk

)

e

ζt =12

N−1∑

k=0

∂2xµxν φ(XtN

k)[αµ(tNk+1 − tNk ) + ηµ(〈B〉tN

k+1− 〈B〉tN

k)]

× [αν(tNk+1 − tNk ) + ην(〈B〉tNk+1

− 〈B〉tNk

)]

+ βν [αµ(tNk+1 − tNk ) + ηµ(〈B〉tNk+1

− 〈B〉tNk

)](BtNk+1

−BtNk

). (5.29)

Si verifica che, per ogni u ∈ [tNk , tNk+1)

E[|∂xµφ(Xu)−N−1∑

k=0

∂xµφ(XtNk

)I[tNk ,tN

k+1)(u)|2]

= E[|∂xµφ(Xu)− ∂xµφ(XtNk

)|2]≤ c2E[|Xu −XtN

k|2] ≤ C[δ + δ2].

Quindi∑N−1

k=0 ∂xµφ(XtNk

)I[tNk ,tN

k+1)(·) tende a ∂xµφ(X) in M2

G(0, T ). Allostesso modo,

N−1∑

k=0

∂2xµxν φ(XtN

k)I[tN

k ,tNk+1)

(·) → ∂2xµxν φ(X) in M2

G(0, T ).

Dato N →∞. Dalla definizione di integrazione rispetto a dt, dBt e d〈B〉t illimite di ξN

t in LG2 (Ft) e solo la parte destra dell’equazione (5.25). Dalla stima

della prossima Osservazione 5.7.2 avremo ζNt → 0 in L1

G(Ft), cosı avremoprovata la (5.25). ¤

Osservazione 5.7.2. Abbiamo la seguente stima: per ψN ∈ M1,0G (0, T ) tale

che ψNt =

∑N−1k=0 ξN

tkI[tN

k ,tNk+1)

(t) e πnT = 0 ≤ t1, · · · , tn = T con limN→∞ µ(πN

T ) =

0 e∑N−1

k=0 E[|ξNtk|](tNk+1 − tNk ) ≤ C per tutti gli N = 1, 2, · · · abbiamo

E[|N−1∑

k=0

ξNk (tNk+1 − tNk )2|] → 0,

Page 81: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

5.7. FORMULA DI ITO PER UN G-MOTO BROWNIANO 81

e grazie al Lemma (5.5.12)

E[|N−1∑

k=0

ξNk (〈B〉tN

k+1− 〈B〉tN

k)2|] ≤

N−1∑

k=0

E[|ξNk | · E[(〈B〉tN

k+1− 〈B〉tN

k)2|HtN

k]]

=N−1∑

k=0

E[|ξNk |](tNk+1 − tNk )2 → 0

cosı come

E[|N−1∑

k=0

ξNk (〈B〉tN

k+1− 〈B〉tN

k)(BtN

k+1−BtN

k)|]

≤N−1∑

k=0

E[|ξNk |]E[(〈B〉tN

k+1− 〈B〉tN

k)|(BtN

k+1−BtN

k)|]

≤N−1∑

k=0

E[|ξNk |]E[(〈B〉tN

k+1− 〈B〉tN

k)2]

12 E[|BtN

k+1−BtN

k|2] 1

2

=N−1∑

k=0

E[|ξNk |](tNk+1 − tNk )

32 → 0.

Abbiamo anche

E[|N−1∑

k=0

ξNk (〈B〉tN

k+1− 〈B〉tN

k)(tNk+1 − tNk )|]

≤N−1∑

k=0

E[|ξNk |(tNk+1 − tNk )× E[(〈B〉tN

k+1− 〈B〉tN

k)|HtN

k]]

=N−1∑

k=0

E[|ξNk |](tNk+1 − tNk )2 → 0.

e

E[|N−1∑

k=0

ξNk (tNk+1 − tNk )(BtN

k+1−BtN

k)|] ≤

N−1∑

k=0

E[|ξNk |](tNk+1 − tNk )E[|BtN

k+1−BtN

k|]

=

√2π

N−1∑

k=0

E[|ξNk |](tNk+1 − tNk )

32 → 0.¤

Consideriamo ora una formula di Ito piu generale:

Xνt = Xν

0 +∫ t

0

ανs +

∫ t

0

ηνs d〈B, B〉s +

∫ t

0

βνs dBs

Proposizione 5.7.3. Dati αν , βν e ην , ν = 1, · · · , n processi limitati di M2G(0, T ).

Allora per ogni t ≥ 0 e φ in L2G(Ft), abbiamo

φ(Xt)− φ(Xs) =∫ t

s

∂xν φ(Xu)βνudBu +

∫ t

s

∂xν φ(Xu)ανudu (5.30)

+ [∂xν φ(Xu)ηνu +

12∂2

xνxµφ(Xu)βµuβν

u]d〈B〉u.

Page 82: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

82 CAPITOLO 5. MOTO G-BROWNIANO E INT. ITO 1-DIM

Dim. Consideriamo il caso in cui α, η e β sono processi della forma

ηt(ω) =N−1∑

k=0

ξk(ω)I[tk,tk+1)(t).

Dal Lemma (5.5.12) la (5.30) rimane vera. Dato quindi

Xν,Nt = Xν

0 +∫ t

0

αν,Ns ds +

∫ t

0

ην,Ns d〈B〉s +

∫ t

0

βν,Ns dBs

dove αN , βN ed ηN sono processi uniformemente limitati che convergonorispettivamente a α, β ed η in M2

G(0, T ) per N → 0. Cosı dal Lemma (5.5.12)

φ(Xν,Nt )− φ(X0) =

∫ t

s

∂xν φ(XNu )βν,N

u dBu +∫ t

s

∂xνφ(XN

u )αν,Nu du (5.31)

+ [∂xν φ(XNu )ην,N

u +12∂2

xνxµφ(XNu )βµ,N

u βν,Nu ]d〈B〉u.

Cosı,

E[|Xν,Nt −Xν

t |2] ≤ 3E[|∫ t

0

(αν,Ns − αν

s )ds|2] + 3E[|∫ t

0

(ην,Ns − ην

s )d〈B〉s|2]

+3E[|∫ t

0

(βν,Ns − βν

s )dBs|2] ≤ 3∫ T

0

E[(αν,Ns − αν

s )2]ds + 3∫ T

0

E[|ην,Ns − ην

s |2]ds

+ 3∫ T

0

E[(βν,Ns − βν

s )2]ds.

Inoltre,

∂xν φ(XN )ην,N + ∂2xµxν φ(XN )βµ,Nβν,N → ∂xν φ(X)ην + ∂2

xµxν φ(X)βµβν ;

∂xν φ(XN )αν,N → ∂xν φ(X)αν

∂xν φ(XN )βν,N → ∂xν φ(X)βν

Possiamo quindi passare al limite della (5.31) e ottenere la (5.30).

Page 83: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

Bibliografia

[1] P. Artzner, F. Delbaen, J.M. Eber e D. Heath Coherent mearures of risk.Mathematical Finance, Vol. 9, No. 3, 203-228 (1999).

[2] P. Baldi Equazioni differenziali stocastiche e applicazioni. Bologna, Pitagora(2000).

[3] E. Barucci, C. Marsala, M. Nencini e C. Sgarra Ingegneria Finanziaria:un’introduzione quantitativa. Egea, (2009).

[4] M. G. Crandall e P. L. Lions Condition d’unicite pour les solutions gener-alisees des equations de Hamilton-Jacobi du primere ordre. C.R. Acad. SciParis Ser I Math. 292 (1981).

[5] M. G. Crandall e P. L. Lions Viscosity solutions of Hamilton-Jacobiequations. Trans. Amer. Math. Soc. 277, 1-42 (1983).

[6] M. G. Crandall, H. Ishii e P. L. Lions User’s guide to viscosty solutionsof second order partial differential equations. Bulletin Of The AmericanMathematical Society, 27(1), 1-67 (1992).

[7] F. Delbaen Coherent Risk Measures on General Probability Spaces, Advancesin Finance and Stochastics. Springer, 1-37 (2002).

[8] H. Follmer e A. Schied Stochastic Finance. An introduction in Discrete Time.Walter de Gruyter, Studies in Mathematics, 27 (2004).

[9] R. Jensen The maximum principle for viscosity solutions of fully nonlinearsecond order partial differential equations. Arch. Rat. Mech. Anal. 101, 1-27(1988).

[10] N. V. Krylov Nonlinear parabolic and elliptic equations of the second or-der. Reidel Publishing Company (1987, Original Russian Version by Nauka,Moscow, 1985).

[11] P. L. Lions Some recent results in the optimal control of diffusion processes,Stochastic analysis. Proceedings of the Taniguchi International Symposiumon Stochastic Analysis, Kynokuniya, Tokio(Katata and Kyoto 1982).

83

Page 84: POLITECNICO DI MILANO...La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed µe organizzata nel modo seguente. Nel Capitolo 1 sono introdotti concetti

84 BIBLIOGRAFIA

[12] P. L. Lions Optimal control of diffusion processes and Hamilton-Jacobi-Bellman equations. Part 1 : The dynamic programming principle and ap-plications and Part 2 : Viscosity solutions and uniqueness, Comm. PartialDifferential Equations 8, 1101-1174 e 1229-1276 (1983).

[13] E. Marchionnna, C. Marchionna Tibiletti Lezioni di algebra : per glistudenti dell’universita di Milano. Milano, Masson Italia (1984).

[14] V. Pata Appunti del corso di Analisi Reale e Funzionale. Dipartimento diMatematica F. Brioschi, Politecnico di Milano.

[15] S. Peng G-Expectation, G-Brownian Motion and Related Stochastic Cal-culus of Ito Type. Institute of Mathematics Shandong University 250100,Jinan, China (Jan. 3, 2006), 1st version: arXiv:math.PR/0601035.

[16] S. Peng Law of Large Numbers and Central Limit Theorem under NonlinearExpectations. Institute of Mathematics Shandong University 250100, Jinan,China (Feb. 10, 2006).

[17] S. Peng Multi-Dimensional G-Brownian Motion and Related StochasticCalculus under G-Expectation. Institute of Mathematics Shandong Universi-ty 250100, Jinan, China (Nov. 9, 2006), 1st version: arXiv:math.PR/0601699v1 28 Jan 2006.

[18] S. Peng Survey on normal distributions, central limit theorem, Browni-an motion and the related stochastic calculus under sublinear expectations.Institute of Mathematics Shandong University 250100, Jinan, China (Jul.2009)..

[19] S. Peng Nonlinear Expectations and Stochastic Calculus under Uncertaintywith Robust Central Limit Theorem and G-Brownian Motion. Institute ofMathematics Shandong University 250100, Jinan, China (Feb. 24, 2010).

[20] S. Peng G-Brownian Motion and Dynamic Risk Measure under VolatilityUncertainty. Institute of Mathematics Shandong University 250100, Jinan,China (Nov. 18, 2010).

[21] R. Pelessoni Misure di rischio e coerenza. Dipartimento di MatematicaApplicata Bruno de Finetti Universita di Trieste.

[22] A. Rudd, M. Schroeder The calculation of Minimum Margin. Mgmt, Science28, 1369-1379.

[23] S. Salsa Equazioni a derivate parziali. Metodi, modelli e applicazioni.Springer-Verlag Italia, (2004).

[24] S. Salsa Lezioni su equazioni ellittiche. Corso di dottorato, Politecnico diMilano (2009).

[25] A. N. Shiryaev, R. P. Boas Probability. Springer, 2nd edition (1996).