Formulazioni del Teorema della Media per sistemi ad una ... · ma di Gronwall (utilizzato per...

44

Transcript of Formulazioni del Teorema della Media per sistemi ad una ... · ma di Gronwall (utilizzato per...

Università degli Studi di Milano

Facoltà di Scienze Matematiche, Fisiche e Naturali

Corso di Laurea Triennale in Matematica

Formulazioni del Teoremadella Media per sistemi ad

una variabile veloce

Relatore: Dott. Tiziano PENATI

ELABORATO FINALE DI

Alessandro MENTASTI

Matr. 732831

ANNO ACCADEMICO 2009 - 2010

Indice

Introduzione 2

1 Teorema della Media nel caso isocrono 5

1.1 Introduzione alla Teoria delle Perturbazioni . . . . . . . . . . . . 5

1.1.1 Esistenza e unicità per problemi ai valori iniziali . . . . . 6

1.1.2 Lemma di Gronwall . . . . . . . . . . . . . . . . . . . . . 8

1.1.3 Teorema di dipendenza continua dai parametri . . . . . . 9

1.2 Teorema della Media . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3.1 Esempio 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3.2 Esempio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.3.3 Esempio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Teorema della Media nel caso anisocrono 25

2.1 Teorema della Media . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.2.1 Esempio 1 (media nulla) . . . . . . . . . . . . . . . . . . . 34

2.2.2 Esempio 2 (media non nulla) . . . . . . . . . . . . . . . . 37

2.2.3 Esempio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.2.4 Esempio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

Bibliogra�a 43

1

Introduzione

In questo elaborato si espongono alcune formulazioni del teorema della media

per sistemi di equazioni di�erenziali del prim'ordine ad una variabile veloce. Tale

Teorema è un risultato molto signi�cativo, ed allo stesso tempo elementare, della

teoria perturbativa che, dato un problema di Cauchy della forma

.x= f(x, t, ε); x(0) = x0, x ∈ Rn, 0 < ε� 1, (1)

si occupa di ottenere delle buone approssimazioni della dinamica x(t, ε) su tempi

�lunghi� rispetto al parametro ε piccolo. Il Teorema della media riguarda, in

particolar modo, il caso in cui x sia una variabile che evolve lentamente ed f sia

periodica nel tempo, ovvero

.x= εf(x, t, ε); f(t+ T ) = f(t). (2)

Lo studio di questo tipo di equazioni si sviluppa, ad esempio, nell'ambito

della Meccanica Celeste dalla necessità di giusti�care e descrivere con maggior

precisione le orbite planetarie. É in questo stesso contesto che inizia a svilupparsi

il principio della media. L'idea alla base di tale principio è la seguente: il com-

portamento della soluzione, in una prima scala di tempo su�cientemente lunga,

è in�uenzato essenzialmente dalla media del campo f , mentre l'oscillazione di f

attorno alla sua media dà un apporto trascurabile.

In una sua formulazione più generale con l variabili lente ed una veloce, il

principio della media è giusti�cato dall'omonimo

Teorema 1 (Della Media). Dati i due seguenti problemi di Cauchy con stesso

dato iniziale (I(0), ϕ(0))

Xε =

{ .I= εf(I, ϕ).ϕ= ω(I) + εg(I, ϕ)

Xε =

{ .J= εf(J).ϕ= ω(J) + εg(J)

dove: ϕ mod 2π ∈ S1, I ∈ G ⊂ Rl, f(I, ϕ+2π) = f(I, ϕ), g(I, ϕ+2π) = g(I, ϕ);

f(J) e g(J) indicano, rispettivamente, la media delle funzioni f , g rispetto ϕ.

Supponiamo che:

2

Introduzione 3

• ω,f ,g siano funzioni de�nite per I in una regione limitata G e ivi siano

limitate, così come le loro derivate �no al secondo ordine:

‖ ω, f, g ‖C2(G×S1)≤ c1

• nella regione G si abbia ω(I) > c > 0,

• per 0 ≤ t ≤ 1

εun intorno di raggio d del punto J(t) sia contenuto in G

cioè: J(t) ∈ G− d 1.

Allora esiste ε∗(c, d, c1) tale che per ε ≤ ε∗(c, d, c1) si ha:

| I(t)− J(t) |≤ c6ε ∀t | 0 ≤ t ≤ 1

ε(3)

dove c6 = c6(c1, c, d) > 0 indipendente da ε.

L'enunciato del Teorema tratta il caso più generale (che chiamiamo anisocro-

no) nel quale la frequenza ω(I) può dipendere anche dalle variabili lente I. Si

osservi che tale formulazione include anche il problema (2), che può essere infatti

riscritto (ponendo ϕ = t e I = x) come{ .I= εf(I, ϕ, ε).ϕ= ω(I) = 1

In questo caso, che chiamiamo isocrono, si può ottenere una formulazione del

teorema della media più semplice, in quanto l'ipotesi di limitatezza sulla frequenza

ω(I) è automaticamente soddisfatta dal suo essere costante.

In entambi i casi, isocrono e anisocrono, si ottiene la stima (3) confrontando

la soluzione I(t) e la sua dinamica mediata J(t) con una soluzione ausiliaria P (t).

Nel primo caso P (t) viene costruito direttamente a partire dalla proprietà di iso-

cronia del campo f ; il risultato segue poi da alcune stime classiche come il Lem-

ma di Gronwall (utilizzato per esempio anche nella dimostrazione del teorema di

dipendenza continua dai parametri). Per il caso anisocrono, invece, P (t) viene in-

trodotto tramite una trasformazione delle variabili lente T : P = I+εk(I, ϕ), con

k(I, ϕ) scelta in modo tale che P (t) soddis� un'equazione di�erenziale dominata

dal termine di media f.P= εf(P ) +O(ε2).

L'ipotesi ω(I) > c > 0, automaticamente soddisfatta nel caso isocrono, viene

introdotta per garantire che la trasformazione T sia ε-vicina all'identità.

1Con G− d si indica l'insieme dei punti p per i quali la bolla aperta di raggio d centrata in

p è contenuta in G.

Introduzione 4

In questo elaborato abbiamo approfondito con alcuni esempi il ruolo della

frequenza rispetto alla validità ed ottimalità della stima (3).

In alcuni casi l'approssimazione J(t) alla dinamica lenta è buona solo su tem-

pi molto brevi rispetto a 1ε proprio perchè l'ipotesi ω(I) > c > 0 viene violata:

si osserva infatti che, quando ω(I) diventa molto piccolo rispetto ad ε, il ruolo

delle variabili risulta �invertito�, ovvero è la variabile periodica ϕ ad essere lenta

rispetto a I . In altri casi, invece, il risultato sussiste nonostante l'ipotesi riguar-

dante ω(I) non sia soddisfatta; questo Teorema, infatti, o�re solo una condizione

su�ciente a garantire la stima (3). In�ne, si è osservato che vi sono esempi che

mostrano come il risultato possa sussistere per tempi più lunghi (anche in�niti):

a tali esempi si possono applicare, probabilmente, risultati di teoria perturbativa

(non analizzati in questa sede) molto più forti rispetto al Teorema della Media.

Capitolo 1

Teorema della Media nel caso

isocrono

1.1 Introduzione alla Teoria delle Perturbazioni

La teoria perturbativa tratta problemi di Cauchy della forma

.x= f(x, t, ε); x(0) = x0, x ∈ Rn, 0 < ε� 1, (1.1)

cercando di ottenere delle buone approssimazioni della dinamica x(t, ε) su tempi

�lunghi� rispetto al parametro ε piccolo. Lo studio di questo problema nasce,

attorno alla seconda metà del Seicento, dalla necessità di giusti�care e descrivere

con maggior precisione le orbite planetarie, in quanto dai dati osservativi accu-

mulati nell'arco di decenni, si nota una discrepanza tra il moto reale dei pianeti

e le leggi di Keplero. Ciò è dovuto alla mutua iterazione tra i pianeti che vie-

ne espressa tramite un coe�ciente perturbativo. Solo all'inizio dell'Ottocento,

grazie ai lavori di Clairaut, Lagrange e Laplace, vengono introdotti dei metodi

matematici in grado di trattare in modo adeguato il problema delle perturbazioni

planetarie.

In questa sezione introduciamo alcuni risultati classici della teoria perturbati-

va, come il teorema di dipendenza continua dai parametri e il lemma di Gronwall

che o�re un stima riguardo la crescita delle soluzioni. Inoltre riportiamo alcuni

risultati, riguardanti il problema di Cauchy per sistemi di equazioni di�erenziali,

che ci saranno utili per sviluppare gli argomenti successivi; tra questi ricordiamo

il teorema di esistenza e unicità per problemi ai valori iniziali.

5

1.1 Introduzione alla Teoria delle Perturbazioni 6

1.1.1 Esistenza e unicità per problemi ai valori iniziali

La forma generale dell'equazione che studiamo in questa sezione è:

.x= f(t, x; ε),

dove x e f sono vettori in Rn. In generale assumiamo x ∈ D ⊂ Rn dove D e

un insieme aperto e limitato. La variabile t viene identi�cata con il tempo, di

conseguenza assumiamo t ≥ 0 o t ≥ t0 dove t0 ∈ R costante. Il parametro ε ∈ R+

rappresenta l'ordine di grandezza della perturbazione; siamo interessati, quindi,

a considerarlo piccolo.

Per poter introdurre in modo adeguato il teorema di esistenza e unicità per

problemi di Cauchy premettiamo la seguente

De�nizione 1.1. Consideriamo la funzione vettoriale f(t, x; ε) con f ∈ Rn,t0 ≤ t ≤ t0 + T , x ∈ D ⊂ Rn, 0 ≤ ε ≤ ε0. Diciamo che f è Lipschitziana in x

con costante di Lipschitz L > 0 se in [t0, t0 + T ]×D × (0, ε0] si ha

‖ f(t, x1; ε)− f(t, x2; ε) ‖≤ L ‖ x1 − x2 ‖,

dove x1, x2 ∈ D e L costante.

Se 0 < L < 1 diciamo che f è una contrazione.

Introduciamo ora il

Teorema 1.1. Consideriamo il seguente problema di Cauchy

.x= f(t, x; ε); x(t0) = x0; (1.2)

dove x ∈ D ⊂ Rn, t0 ≤ t ≤ t0 + T , 0 ≤ ε ≤ ε0; D = {x| ‖ x − x0 ‖≤ d}.Assumiamo

• f(t, x; ε) è continua rispetto t, x e ε in G = [t0, t0 + T ]×D × (0, ε0].

• f(t, x; ε) è Lipschitziana in x con costante di Lipschitz L.

Allora il problema di Cauchy (1.2) ammette un'unica soluzione che esiste per

tempi t0 ≤ t ≤ t0 + Inf(T,1

L,d

M) dove M = SupG ‖ f ‖.

Dimostrazione. Notiamo che in f(t, x; ε), ε funge da parametro. Quindi di-

mostriamo il teorema ∀ε ∈ (0, ε0]. Per farlo �ssiamo un ε ∈ (0, ε0] e ride�niamo

M = SupB×D ‖ f ‖ dove B = [t0, t0 + T ]. Dal teorema di Weierstrass sappiamo

che M ∈ R poichè B ×D è compatto. Se M = 0 abbiamo che f è identicamente

1.1 Introduzione alla Teoria delle Perturbazioni 7

nulla e il sistema ammette come unica soluzione x(t) = x0. Quindi supponiamo

M > 0 e de�niamo

δ = Inf

(T,

1

L,d

M

).

Poniamo Iδ = [t0, t0 + δ] e consideriamo lo spazio metrico (X, ‖ · ‖C0) delle

funzioni g : Iδ −→ Rn con la norma dell'estremo superiore come metrica. Ci

restringiamo al sottinsieme Z = {g ∈ G| ‖ g − x0 ‖C0≤ b}. Essendo lo spazio

X completo e Z ⊂ X chiuso allora anche quest'ultimo è completo rispetto alla

metrica indotta.

Procediamo de�nendo l'operatore F : Z −→ Z tale che

F (x) = x̂ = x0 +

∫ t

t0

f(t′, x(t′); ε)dt′. (1.3)

Notiamo che l'operatore (1.3) è ben de�nito in quanto ∀x ∈ B ⇒ F (x) ∈ B,

infatti ∀t ∈ Iδ

‖ x̂− x0 ‖C0 =

∣∣∣∣∣∣∣∣∫ t

t0

f(t′, x(t′); ε)dt′∣∣∣∣∣∣∣∣C0

≤∣∣∣∣∫ t

t0

‖ f(t′, x(t′); ε) ‖C0 dt′∣∣∣∣ ≤ M | t− t0 | ≤ Mδ ≤ b.

Ora è su�ciente dimostrare che l'operatore (1.3) è una contrazione. Infatti il

teorema di punto �sso di Banach-Cacciopoli garantisce l'esistenza e l'unicità di

un punto �sso per l'operatore (1.3) in Z. Nel nostro caso ∃!x = x(t) ∈ Z tale che

F (x) = x, cioè

x(t) = x0 +

∫ t

t0

f(t′, x(t′); ε)dt′,

de�nita su Iδ e che dunque risolve dunque (1.2).

Tenendo conto dell'ipotesi di Lipschitzianità per f scriviamo

‖ F (x1)− F (x2) ‖ =

∣∣∣∣∣∣∣∣∫ t

t0

[f(t′, x1; ε)− f(t′, x2; ε)]dt′∣∣∣∣∣∣∣∣ ≤

≤∣∣∣∣∫ t

t0

‖ f(t′, x1; ε)− f(t′, x2; ε) ‖ dt′∣∣∣∣ ≤

∣∣∣∣∫ t

t0

L ‖ x1 − x2 ‖ dt′∣∣∣∣

≤∣∣∣∣∫ t

t0

L ‖ x1 − x2 ‖C0 dt′∣∣∣∣ ≤ δL ‖ x1 − x2 ‖C0 ≤ ‖ x1 − x2 ‖C0 ,

poichè δL ≤ 1.

Abbiamo quindi dimostrato che l'operatore (1.3) è una contrazione: il risul-

tato segue dal teorema di Banach-Cacciopoli. �

1.1 Introduzione alla Teoria delle Perturbazioni 8

Osservazione 1.1. Osserviamo �n da subito che per i problemi che studieremo

in questa sezione, caratterizzati da f(t, x; ε) = εg(t, x), il teorema precedente

garantisce l'esistenza della soluzione per tempi t0 ≤ t ≤ t0 + Inf(T,1

εLg,d

εMg).

Infatti:

• M = SupG ‖ f ‖= εSupG ‖ g ‖= εMg.

• ‖ f(t, x1; ε)− f(t, x2; ε) ‖= ε ‖ g(t, x1)− g(t, x2) ‖≤ εLg ‖ x1 − x2 ‖⇒ L = εLg dove Lg è la costante di Lipschitz per la funzione g.

Notiamo che l'esistenza della soluzione è garantita per tempi almeno di ordine 1ε ;

ha pertanto senso applicare il Teorema della Media a problemi di questo tipo in

quanto assicura un controllo sulla distanza tra la soluzione del sistema di partenza

e quella del sistema mediato proprio per tempi di ordine ε.

1.1.2 Lemma di Gronwall

Presentiamo un risultato che ci sarà utile per dimostrare il Teorema della

Media nel caso isocrono:

Lemma 1.1 (di Gronwall). Supponiamo che per t0 ≤ t ≤ t+ T vale

φ(t) ≤ δ2(t− t0) + δ1

∫ t

t0

φ(s)ds+ δ3, (1.4)

dove φ(t) ≥ 0, continua per t0 ≤ t ≤ t+ T e δ1 > 0, δ2 ≥ 0, δ3 ≥ 0. Allora:

φ(t) ≤(δ2δ1

+ δ3

)eδ1(t−t0) − δ2

δ1. (1.5)

Dimostrazione. Applichiamo alla (1.4) la sostituzione

φ(t) = ψ(t)− δ2δ1;

in questo modo

ψ(t)− δ2δ1≤ δ2(t− t0) + δ1

∫ t

t0

[ψ(s)− δ2

δ1

]ds+ δ3

⇒ ψ(t) ≤ δ2δ1δ2(t− t0) + δ1

∫ t

t0

ψ(s)ds+ δ2(t− t0) + δ3

⇒ ψ(t) ≤ δ1∫ t

t0

ψ(s)ds+δ2δ1

+ δ3.

1.1 Introduzione alla Teoria delle Perturbazioni 9

Escludendo il caso δ2 = δ3 = 0, in cui φ(t) = 0 in t0 ≤ t ≤ t0 + T , il secondo

membro della disequazione è positivo quindi

ψ(t)

δ1∫ tt0ψ(s)ds+ δ2

δ1+ δ3

≤ 1

⇒ δ1ψ(t)

δ1∫ tt0ψ(s)ds+ δ2

δ1+ δ3

≤ δ1.

Notiamo che a primo membro il numeratore è la derivata rispetto al tempo del

denominatore, integrando si ottiene

ln

(δ1

∫ t

t0

ψ(s)ds+δ2δ1

+ δ3

)− ln

(δ2δ1

+ δ3

)≤ δ1(t− t0)

⇒ ln

(δ1∫ tt0ψ(s)ds+ δ2

δ1+ δ3

δ2δ1

+ δ3

)≤ δ1(t− t0)

⇒ δ1

∫ t

t0

ψ(s)ds+δ2δ1

+ δ3 ≤(δ2δ1

+ δ3

)eδ1(t−t0)

⇒ ψ(t) ≤(δ2δ1

+ δ3

)eδ1(t−t0).

Applicando nuovamente la sostituzione

ψ(t) = φ(t) +δ2δ1,

si ottiene la (1.5) e il lemma risulta dimostrato. �

1.1.3 Teorema di dipendenza continua dai parametri

Data un equazione di�erenziale

.x= f(x); x ∈ Rn; (1.6)

ci interessa studiare il problema �vicino�

.y= f(y) + εg(t); y ∈ Rn, ε� 1. (1.7)

Consideriamo le soluzioni di (1.6) e (1.7) aventi il medesimo dato iniziale x(0) =

y(0). Vogliamo studiare come evolve la quantità d(t) =| x(t) − Y (t) |. Notiamo

che l'evoluzione di d(t) è dovuta a due meccanismi in qualche modo indipendenti

l'uno dall'altro:

• la deviazione delle orbite prodotta dal termine perturbativo εg;

1.1 Introduzione alla Teoria delle Perturbazioni 10

• la possibile divergenza di un 'orbita rispetto all'altra dipendente dalla forma

stessa del campo vettoriale non perturbato f(x).

Per capire come il secondo meccanismo ha luogo presentiamo un

Esempio 1.1. Consideriamo

.x= kx; k ∈ R, x : R −→ R,

dove �ssiamo due dati iniziali distinti x0 e x′0 e chiamiamo la loro distanza d0 =

x′0 − x0.Le soluzioni sono

x(t) = x0ekt, x′(t) = x′0e

kt, ⇒ d(t) = d0ekt.

Ci chiediamo per quanto tempo le soluzioni restano vicine. Ciò dipende ovvia-

mente dalla scelta della costante k. Abbiamo tre casi:

• per k = 0 abbiamo.x= 0. In questo caso tutti i punti sono di equilibrio e

quindi d(t) = d0 per tutti i tempi;

• per k ≤ 0 abbiamo

limt→∞

d(t) = limt→∞

d0ekt = 0.

Le due soluzioni si avvicinano sempre di più, quindi ogni controllo sulla

distanza sarà garantito da un certo istante in poi;

• per k ≥ 0 abbiamo

limt→∞

d(t) = limt→∞

d0ekt = +∞.

Le due soluzioni divergono esponenzialmente (proprietà di caoticità) e la

distanza rimane di ordine 1 per tempi proporzionali a ln

(1

d0

).

Cerchiamo ora di determinare una stima per | d(t) |. Consideriamo

|.d|=| f(x+ d)− f(x) + εg(x+ d) | . (1.8)

Supponiamo che f sia Lipschitziana con costante L e che g sia limitata in Rcon SupR(g) = G. Potremmo chiedere g limitata solo in un dominio D ∈ Rma dovremmo assicurarci a posteriori che le soluzioni rimangano in tale dominio

per i tempi in cui vale la stima, altrimenti quest'ultima risulta inconsistente.

Introduciamo per comodità la nuova variabile δ =| d |. Alla luce di queste ipotesila (1.8) diventa

.δ≤ Lδ + εG

1.2 Teorema della Media 11

⇒.δ −Lδ ≤ εG ⇒ e−Lt(

.δ −Lδ) ≤ εGe−Lt

⇒ d(e−Ltδ)

dt≤ εGeLt,

infatti

d(e−Ltδ)

dt=d(e−Lt)

dtδ + e−Lt

.δ= −Le−Ltδ + e−Lt

.δ= e−Lt(

.δ −Lδ).

Integrando otteniamo ∫ t

0

d(e−Lt′δ(t′))

dt′dt′ ≤

∫ t

0εGe−Lt

′dt′

⇒[e−Ltδ(t′)

]t0≤[−εGLe−Lt

′]t0

⇒ e−Ltδ(t) ≤ −εGL

(e−Lt − 1)

⇒ δ(t) ≤ εG

L(eLt − 1) ≤ εG

LeLt.

Di conseguenza la distanza rimane di ordine 1 per tempi proporzionali a ln

(1

ε

).

Questo è il miglior risultato che si può ottenere nel caso di problemi aventi la

proprietà di caoticità. Vedremo nella sezione successiva che, aggiungendo alcune

ipotesi, si può ottenere un risultato migliore espresso dal Teorema della Media.

1.2 Teorema della Media

Teorema 1.2 (Della Media). Consideriamo:

.x= εf(t, x) + ε2g(t, x); x(t0) = x0; (1.9)

.y= εf(y); y(t0) = x0, (1.10)

dove f(y) =1

T

∫ t0+T

t−0f(t, y)dt; x, y, x0 ∈ D ⊂ Rn; t ∈ [t0,+∞); ε ∈ (0, ε0].

Supponiamo:

• f , g, ∇f sono de�nite, continue e limitate da una costante M indipendente

da ε in [t0,+∞)×D;

• g è Lipschitziana rispetto x in D;

• y(t) appartiene a un sottoinsieme interno di D per tempi 0 ≤ t ≤ 1

ε;

1.2 Teorema della Media 12

• f è periodica in t con periodo T indipendente da ε, cioè f(t+T, x) = f(t, x).

Allora

x(t)− y(t) = O(ε)

per tempi 0 ≤ t ≤ 1

εquando ε −→ 0.

Osservazione 1.2. Facciamo notare quanto il risutato del Teorema della Media

sia migliore rispetto a quello ottenuto dal confronto tra le soluzioni di.x= f(x) e

.y= f(y) + εg(t). Infatti:

• il Teorema della Media garantisce x(t)− y(t) = O (ε) per tempi O

(1

ε

);

• nel caso presentato nella sezione precedente abbiamo x(t)−y(t) = O(1) per

tempi O

(ln

(1

ε

)).

Non solo abbiamo un controllo migliore sulla distanza tra le soluzioni, ma anche

per un tempo più lungo.

Enunciamo il seguente lemma riguardo alcune proprietà delle funzioni perio-

diche che ci saranno utili nel corso della dimostrazione:

Lemma 1.2. Consideriamo una generica funzione g(t, x) periodica in t di periodo

T , cioè tale che g(t, x) = g(t+T, x); costruiamo la funzione g̃(t, x) = g(t, x)−g(x)(dove g(x) è l'usuale media) che è anch'essa periodica in t di periodo T . Allora:

• la funzione G̃(t, x) =

∫ t

0g̃(t′, x)dt′ è periodica;

• la funzione g′(t, x) =∂g(t, x)

∂tha media nulla.

Dimostrazione. Per ogni k ∈ N , considero

G̃(t+kT, x) =

∫ t+kT

0g̃(t′, x)dt′ =

∫ kT

0g̃(t′, x)dt′+

∫ t+kT

kTg̃(t′, x)dt′ =

= k

∫ T

0g̃(t′, x)dt′ +

∫ t

0g̃(t′, x)dt′ =

= k

∫ T

0[g(t′, x)− g(x)]dt′ +

∫ t

0g̃(t′, x)dt′ =

= k

∫ T

0g(t′, x)dt′ −

∫ T

0g(x)dt′ +

∫ t

0g̃(t′, x)dt′ =

1.2 Teorema della Media 13

= Tg(x)− Tg(x) +∫ t

0g̃(t′, x)dt′ = G̃(t, x).

Abbiamo così dimostrato la periodicità di G̃(t, x). Calcoliamo ora la media di

g′(t, x):

g′(x) =1

T

∫ T

0g′(t′, x)dt′ =

1

T

∫ T

0

∂g(t′, x)

∂t′dt′ =

=1

T(g(T, x)− g(0, x)) = 0.

Dimostrazione. Per stimare la quantità | x(t)−y(t) | introduciamo una funzione

z(t) soddisfacente un'equazione di�erenziale che coinvolge un campo vettoriale

intermedio tra.x e

.y. In questo modo siamo in grado di spezzare la stima di

| x(t) − y(t) | nelle due stime | x(t) − z(t) | e | z(t) − y(t) | sfruttando la

disuguaglianza triangolare. La funzione sopracitata è

z(t) = y(t) + εu1(t, y(t)), (1.11)

dove:

u1(t, y) =

∫ t

t0

[f(s, y)− f(y)]ds. (1.12)

Notiamo che la (1.12) è una funzione periodica in t in quanto l'integranda è

periodica e ha media nulla. Cerchiamo quindi una stima di ‖ u1(t, y) ‖ per

t ∈ (t0, t0 + T ].

‖ u1(t, y) ‖ =

∣∣∣∣∣∣∣∣∫ t

t0

[f(s, y)− f(y)]ds∣∣∣∣∣∣∣∣ ≤

∫ t

t0

‖ [f(s, y)− f(y)] ‖ ds ≤

∫ t0+T

t0

‖ [f(s, y)− f(y)] ‖ ds ≤∫ t0+T

t0

[‖ f(s, y) ‖ − ‖ f(y) ‖]ds ≤

≤∫ t0+T

t0

2Mds = 2MT ;

abbiamo quindi la seguente stima

‖ u1(t, y) ‖ ≤ 2MT (1.13)

La funzione (1.11) soddisfa la seguente equazione di�erenziale:

.z (t) = εf(t, y(t)) + ε2∇u1(t, y(t))f(y(t)) (1.14)

1.2 Teorema della Media 14

Infatti:

z(t) = y(t) + εu1(t, y(t))

⇒ .z (t) =

.y (t)+ε

d(u1(t, y(t)))

dt= εf(y(t))+ε∇u1(t, y(t))dy

dt+ε

∂(u1(t, y(t)))

∂t=

= εf(y(t)) + ε2∇u1(t, y(t))f(y(t)) + ε[f(t, y(t))− f(y(t))− f(0, y0) + f(y0)] =

= εf(t, y(t)) + ε2∇u1(t, y(t))f(y(t)).

Sappiamo che

x(t)− z(t) =∫ t

t0

[dx

dt− dz

dt

]dt; (1.15)

quindi calcoliamo

dx

dt− dz

dt= εf(t, x) + ε2g(t, x)− dy

dt− ε∇u1(t, y(t))dy

dt− ε∂(u

1(t, y(t)))

∂t=

= εf(t, x)−εf(t, z)+εf(t, z)+ε2g(t, x)− dydt−ε∇u1(t, y(t))dy

dt−ε∂(u

1(t, y(t)))

∂t=

= εf(t, x)− εf(t, z) +R,

dove

R = εf(t, z) + ε2g(t, x)− dy

dt− ε∇u1(t, y(t))dy

dt− ε∂(u

1(t, y(t)))

∂t=

= εf(t, z)− εf(t, y)− ε2∇u1(t, y(t))f(y) + ε2g(t, x).

Chiaramente si ha l'esistenza di una costante k tale che ‖ R ‖≤ kε2. Infatti:

• dalle ipotesi su f si ottiene l'esistenza di una costante di Lipschitz L ≤M

tale che

‖ f(t, z(t))− f(t, y(t)) ‖≤ L ‖ z(t)− y(t) ‖≤ 2εLMT ;

• ricordando che u1 e una funzione costruita a partire da f si ha

‖ ∇u1(t, y(t))f(y(t)) ‖=∣∣∣∣∣∣∣∣∫ t

t0

∇[f(t, y(t))− f(y(t))]dtf(y(t))∣∣∣∣∣∣∣∣ ≤

≤∫ t

t0

‖ ∇[f(t, y(t))− f(y(t))] ‖ dt ‖ f(y(t)) ‖≤ 2M2T ;

• ‖ g(t, x) ‖≤M .

1.2 Teorema della Media 15

La (1.15) diventa

‖ x(t)− z(t) ‖≤∫ t

t0

∣∣∣∣∣∣∣∣dxdt − dz

dt

∣∣∣∣∣∣∣∣ dt ≤≤∫ t

t0

‖ f(t, x)− f(t, z) ‖ dt+ kε2(t− t0).

Dalla lipschitzianità di f si ha

‖ x(t)− z(t) ‖≤∫ t

t0

L ‖ x(t)− z(t) ‖ dt+ kε2(t− t0). (1.16)

Applicando il Gronwall Lemma alla (1.16), con le costanti δ1 = εL, δ2 = kε2 e

δ3 = 0, si ottiene:

‖ x(t)− z(t) ‖≤ kε

LeεL(t−t0) − kε

L;

quindi ricordando la (1.13)

‖ x(t)− y(t) ‖=‖ x(t)− y(t) + y(t)− z(t) ‖≤‖ x(t)− y(t) ‖ + ‖ y(t)− z(t) ‖≤

≤ ε(k

LeεL(t−t0) − k

L

)+ 2εMT.

Di conseguenza per tempi di ordine 1/ε (ε −→ 0 ) si ha

x(t) = y(t) +O(ε).

Osservazione 1.3.

O(ε) = ε

[k

L(eL − 1) + 2MT

]= εG(M,L).

dove G è una costante dipendente da L e M . In particolare G(M,L) è crescente

in M , che rappresenta il limite superiore del campo vettoriale (1.9). Il dato

iniziale x0 �ssa una regione in cui stanno le soluzioni per tempi di ordine ε che

può essere più o meno grande a seconda dell'evoluzione delle stesse. Questo fatto

implica che la dipendenza di M da x0 sia la stessa con cui il campo (1.9) dipende

dalla variabile lenta x. Ciò sarà reso evidente negli esempi che proporremo nella

sezione successiva.

1.3 Esempi 16

1.3 Esempi

Consideriamo ora tre esempi che, seppur semplici, sono signi�cativi per capire

e approfondire il contenuto del Teorema della Media per problemi

.x= εg(t, x)

dove g(t, x) = l(t)h(x) soddisfa tutte le ipotesi richieste dal teorema. Il vantag-

gio di considerare tali esempi è che trattano equazioni di�erenziabili a variabili

separabili, quindi integrabili; di conseguenza possiamo andare direttamente a con-

frontare la soluzione di queste ultime con quella del problema mediato (anch'esso

integrabile).

1.3.1 Esempio 1

Alla luce dell'osservazione (1.1) proponiamo un esempio in cui possiamo ap-

plicare il Teorema della Media nonostante la soluzione non esista per tutti i tempi.

Consideriamo il problema:

.x= ε sin2(t)x2; x0 = x(0). (1.17)

Calcoliamo f(y):

f(y) =1

∫ 2π

0ε sin2(t)y2dt =

εy2

∫ 2π

0sin2(t)dt =

εy2

∫ 2π

0

(eit − e−it)2

(2i)2dt =

=εy2

∫ 2π

0

e2it + e−2it − 2

−4dt =

εy2

∫ 2π

0−1

2

e2it + e2it

4dt =

=εy2

∫ 2π

0

1

2− 1

2cos(2t)dt =

εy2

[t

2− sin(2t)

4

]2π0

=εy2

2.

Quindi dobbiamo confrontare le soluzioni di (1.17) con le soluzioni di

.y=

εy2

2; y0 = x0. (1.18)

Determiniamo ora la soluzione di (1.17):

dx

dt= ε sin2(t)x2 ⇒ dx

x2= ε sin2(t)dt

⇒∫ x

x0

dx′

x′2=

∫ t

0ε sin2(t′)dt′ ⇒

[− 1

x′

]xx0

=

[t′ + sin(t′) cos(t′)

2

]t0

⇒ 1

x(t)=

1

x0− t+ sin(t) cos(t)

2⇒ 1

x(t)=

4− ε2x0t+ εx0 sin(2t)

4x0

1.3 Esempi 17

⇒ x(t) =4x0

4− ε(2x0t+ x0 sin(2t)).

Dobbiamo imporre la condizione

4− 2ε(2x0t+ x0 sin(2t)) 6= 0.

Il termine εx0 sin(2t) è oscillatorio di ordine ε e non incide considerevolmente

sull'ampiezza dell'intervallo temporale dove esiste la soluzione, quindi, trascu-

randolo, osserviamo che la soluzione esiste per t ∈ [0,2

εx0]. Ha senso applicare il

Teorema della Media in quanto esso o�re una stima per tempi di ordine1

εe per

tali tempi è garantita l'esistenza della soluzione. Ora determiniamo la soluzione

del problema mediato (1.18):

dy

dt= ε

y2

2⇒ dy

y2= ε

1

2dt

⇒∫ y

x0

dy′

y′2=

∫ t

0ε1

2dt′ ⇒

[− 1

y′

]yx0

=

[εt

2

]t0

⇒ 1

y(t)=

1

x0− ε t

2⇒ 1

y(t)=

2− εx0t2x0

⇒ y(t) =2x0

2− εx0t.

Anche la soluzione y(t) esiste per t ∈[0,

2

εx0

]. Dato che entrambe le soluzioni

esistono per 0 ≤ t ≤ 2

x0εe le ipotesi del Teorema della Media sono soddisfatte

dovremmo ottenere per tali tempi un controllo sulla quantità | x(t) − y(t) |. In

questo caso possiamo procedere direttamente:

| x(t)− y(t) |=∣∣∣∣ 4x04− ε(2x0t+ x0 sin(2t))

− 2x02− εx0t

∣∣∣∣ ==

∣∣∣∣4x0(2− εx0t)− 2x0(4− 2ε(2x0t+ x0 sin(2t)))

(2− εx0t)(4− 2ε(2x0t+ x0 sin(2t)))

∣∣∣∣ ==

| 2εx20 sin(2t) || (2− εx0t)(4− ε(2x0t+ x0 sin(2t))) |

≤ | 2εx20 || (2− εx0t)(4− ε(2x0t+ x0 sin(2t))) |

≤ | 2εx20 || (2− εx0t)(4− ε(2x0t+ 1))) |

.

1.3 Esempi 18

Poichè 4− ε(2x0t+ x0 sin(2t)) è positivo per tempi 0 ≤ t ≤ 1

εe sin(2t) ≤ 1 ∀t.

Continuando e limitandoci ai tempi 0 ≤ t ≤ 1

ε, si ha proprio il risultato espresso

dal Teorema della Media

| x(t)− y(t) | | ≤ ε∣∣∣∣ 2x20(2− x0)(4− (2 + ε)x0)

∣∣∣∣'∣∣∣∣ 2x202(2− x0)2

∣∣∣∣ = G1ε.

Figura 1.1: Rappresentazione in coordinate polari (raggio x(t), angolo t) delle soluzioni

di (1.17) e (1.18), quest'ultima in linea tratteggiata, con x0 = 1.5, ε = 0.05 per tempi

1/ε.

In questo esempio la costante che moltiplica ε dipende dal dato iniziale; in

particolare G1 dipende da x20; questo conferma quanto detto nell'osservazione

(1.3) in quanto il campo vettoriale in (1.17) dipende da x2. Osserviamo che il

dato iniziale non può essere scelto arbitrariamente, quindi possiamo distinguere

tre casi:

• Per x0 � 2 si ha che1

ε� 2

x0ε; di conseguenza le soluzioni non si avvicinano

al bordo dell'intervallo di esistenza

[0,

2

x0ε

]in tempi 0 ≤ t ≤ 1

x0ε. Per

1.3 Esempi 19

Figura 1.2: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle

soluzioni di (1.17) e (1.18), quest'ultima in linea tratteggiata, con x0 = 1.5, ε = 0.05 per

tempi 1/ε.

questi tempi, studiando numericamente il problema, si ottiene

4 | x(t)− y(t) |≤ ε.

• Per x0 ' 2 si ha che1

ε' 2

x0ε; di conseguenza le soluzioni sono vicine al

rispettivo asintoto verticale, cioè la retta x =2

x0ε, divergendo rapidamente.

Ciò impedisce di avere un controllo di ordine ε su | x(t)− y(t) |.

• Per x0 ≥ 2 si ha che, studiando numericamente il problema, le soluzioni

raggiungono sempre la zona critica rendendo impossibile un controllo sulla

quantità | x(t)− y(t) |.

1.3.2 Esempio 2

Consideriamo il problema:

.x= ε sin2(t)x; x0 = x(0) ≥ 0. (1.19)

Dall'esempio precedente si ha f(y) =εy

2. Quindi dobbiamo confrontare le

soluzioni di (1.19) con le soluzioni di

.y= ε

y

2; y0 = x0 ≥ 0. (1.20)

1.3 Esempi 20

Determiniamo ora la soluzione di (1.19) supponendo x > 0:

dx

dt= ε sin2(t)x ⇒ dx

x= ε sin2(t)dt

⇒∫ x

x0

dx′

x′=

∫ t

0ε sin2(t′)dt′ ⇒

[ln(x′)

]xx0

=

[εt′ + sin(t′) cos(t′)

2

]t0

⇒ ln(x(t)) = ln(x0) + εt+ sin(t) cos(t)

2⇒ x(t) = x0e

εt+sin(t) cos(t)

2 .

Per la soluzione di (1.20) abbiamo

dy

dt= ε

y

2⇒ dy

y=ε

2dt

⇒∫ y

y0

dy′

y′=

∫ t

0

ε

2dt′ ⇒

[ln(y′)

]yy0

=[ ε2t′]t0

⇒ ln(y(t)) = ln(y0) +ε

2t ⇒ y(t) = x0e

ε2t.

Confrontando le due soluzioni si ottiene

| x(t)− y(t) |= x0eεt+sin(t) cos(t)

2 − x0eε2t =

= x0eε2t(eε

sin(t) cos(t)2 − 1

)≤ x0e

ε2t(eε4 − 1

)=

= x0

[eε2t+ ε

4 − eε2t]=

= x0

[ ∞∑n=0

(ε2 t+

ε4

)nn!

−∞∑n=0

(ε2

)nn!

]=

x0

[( ε2t+

ε

4

)− ε

2t+

(ε2 t+

ε4

)22

−(ε2 t)2

2+

(ε2 t+

ε4

)36

−(ε2 t)3

6+ ......

]=

x0

ε4+

(ε2

4 + ε2

4 t)

2+

(3ε3

16 t2 + 3ε3

32 t+ε3

64

)36

+ ......

.Per tempi 0 ≤ t ≤ 1

εogni termine dell'espressione rimane di ordine maggiore o

uguale a ε, trascurando quelli di ordine maggiore (cioè ε2, ε3, etc), abbiamo

| x(t)− y(t) |≤ x0[ε

4+ε

8+

96+ ......

]= x0

[ ε2+ε

4+

ε

16+ ......

]=

= x0

4

(1 +

1

2+

1

8+ ......

)]= x0

4

( ∞∑n=0

(12)n

n!

)]=| x0 |

ε

4e

12 = G2ε.

1.3 Esempi 21

Figura 1.3: Rappresentazione in coordinate polari (raggio x(t), angolo t) delle soluzioni

di (1.19) e (1.20), quest'ultima in linea tratteggiata, con x0 = 0.3, ε = 0.05 per tempi

1/ε.

La costante G2 e il campo vettoriale in (1.19) dipendono linearmente dal dato

iniziale. Anche in questo caso quindi l'osservazione (1.3) risulta veritiera.

In questo caso non si hanno problemi riguardo la scelta del dato iniziale in

quanto la soluzione è de�nita per tutti i tempi; è necessario, una volta �ssato

ε, scegliere x0 di modo che la quantità | x0 |ε

4e

12 si mantenga di ordine ε.

Nell'ultimo gra�co abbiamo rappresentato una soluzione per tempi1

ε2; la distanza

| x(t)−y(t) | non si mantiene di ordine ε nonostante le orbite, x(t) e y(t), abbiamo

un comportamento simile.

1.3 Esempi 22

Figura 1.4: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle

soluzioni di (1.19) e (1.20), quest'ultima in linea tratteggiata, con x0 = 0.3, ε = 0.05 per

tempi 2/ε.

Figura 1.5: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle

soluzioni di (1.19) e (1.20), quest'ultima in linea tratteggiata, con x0 = 0.3, ε = 0.1 per

tempi 1/ε2.

1.3 Esempi 23

1.3.3 Esempio 3

Possiamo trovare casi, come il seguente, dove il risuultato o�erto dal Teorema

della Media vale per tutti i tempi per cui esiste la soluzione. Consideriamo il

problema:.x= εg(t); x0 = x(0). (1.21)

dove, come richiesto dal Teorema della Media, g è una funzione periodica in t

di periodo T ; inoltre g e g′ sono limitate dalla costante M . Quindi dobbiamo

confrontare le soluzioni di (1.21) con le soluzioni di

.y= εg; y0 = x0. (1.22)

Integrando le equazioni di�erenziali (1.21), (1.22) e ponendo g = g̃+g otteniamo

rispettivamente le soluzioni

x(t) = ε

∫ t

0g(t)dt′ = ε

∫ t

0[g̃(t) + g]dt′ = G̃(t) + gt+ x0,

y(t) = ε

∫ t

0gdt′ = gt+ x0;

⇒ | x(t)− y(t) |= ε | G̃(t) |= ε

∫ t

0g̃dt′ ≤ ε

∫ T

0g̃dt′ ≤

≤ ε∫ T

0Mdt′ = εMT.

In questo caso notiamo che l'esistenza delle soluzioni è garantita per tutti i

tempi. La funzione x(t)−y(t) è, infatti, periodica poichè primitiva di una funzione

a media nulla (vedi lemma (1.2)); questo ci fa intuire che il risultato o�erto dal

Teorema della Media vale per tutti i tempi; le soluzioni distano al massimoε

2per

tutti i tempi in quanto il campo vettoriale in (1.21) è indipendente da x.

Osserviamo come anche in questo esempio, essendo il campo vettoriale in

(1.21) indipendente da x, la costante G3 è indipendente dal dato iniziale in ac-

cordo con l'osservazione (1.3). Per la rappresentazione gra�ca di questo esempio

abbiamo scelto la funzione g(t) = sin2(t).

1.3 Esempi 24

Figura 1.6: Rappresentazione in coordinate polari (raggio x(t), angolo t) delle soluzioni

di (1.21) e (1.22), quest'ultima in linea tratteggiata, con g(t) = sin2(t), x0 = 0.1, ε = 0.05

per tempi 3/ε.

Figura 1.7: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle

soluzioni di (1.21) e (1.22), quest'ultima in linea tratteggiata, con g(t) = sin2(t), x0 =

0.1, ε = 0.05 per tempi 3/ε.

Capitolo 2

Teorema della Media nel caso

anisocrono

2.1 Teorema della Media

Consideriamo il segeuente sistema di l+1 equazioni di�erenziali costituito da

l variabili lente e una variabile veloce:

Xε =

{ .ϕ= ω(I) + εg(I, ϕ).I= εf(I, ϕ)

dove ϕ mod 2π ∈ S1, I ∈ G ⊂ Rl, f(I, ϕ+ 2π) = f(I, ϕ), g(I, ϕ+ 2π) = g(I, ϕ).

Inoltre consideriamo il sistema mediato:

Xε =

{ .ϕ= ω(J) + εg(J).J= εf(J)

dove f(J) =1

∫ 2π

0f(J, ϕ)dϕ, g(J) =

1

∫ 2π

0g(J, ϕ)dϕ.

Chiamiamo con I(t), ϕ(t) le soluzioni di Xε con condizioni iniziali I(0), ϕ(0)

e J(t) la soluzione di Xε con dato iniziale J(0) = I(0).

Teorema 2 (Della Media). Supponiamo che:

• ω,f ,g sono funzioni de�nite per I in una regione limitata G e ivi siano

limitate, così come le loro derivate �no al secondo ordine:

‖ ω, f, g ‖C2(G×S1)≤ c1;

• nella regione G si ha ω(I) > c > 0;

25

2.1 Teorema della Media 26

Figura 2.1: Teorema della Media.

• per 0 ≤ t ≤ 1

εun intorno di raggio d del punto J(t) sta in G cioè: J(t) ∈

G− d 1.

Allora esiste ε∗(c, d, c1) tale che per ε ≤ ε∗(c, d, c1) si ha:

| I(t)− J(t) |≤ c6ε ∀t | 0 ≤ t ≤ 1

ε(2.1)

dove c6 = c6(c1, c, d) > 0 indipendente da ε.

Dimostrazione. Introduciamo una trasformazione ε-vicino all'identità 2 che

modi�ca solo la coordinata I

T = (1,1+ εk) : (ϕ, T ) −→ (ϕ, P ) = (ϕ, I + εk(ϕ, I)).

In sintesi consideriamo

P = I + εk(ϕ, I) (2.2)

dove k è una funzione periodica in ϕ di periodo 2π, scelta in modo tale che P

evidenzi il ruolo del termine di media. Inoltre dobbiamo chiedere ε ≤ ε1, dove

ε1 ∈ R+ dipendente da ‖ k ‖C2 sia �ssato in modo tale che la trasformazione sia

e�ettivamente ε-vicina all'identità. Si ha:

.P=

.I +ε

∂k

∂I

.I +ε

∂k

∂ϕ

.ϕ= εf(I, ϕ)+ ε

∂k

∂ϕω(I)+ ε2

∂k

∂ϕg(I, ϕ)+ ε2

∂k

∂ϕf(I, ϕ). (2.3)

Ora supponiamo che (2.2) sia invertibile (cosa che dimostreremo in seguito);

invertendo (2.2) si ottiene:

I = P + εh(P,ϕ, ε), (2.4)

dove h è una funzione periodica in ϕ di periodo 2π.

1Con G− d indichiamo l'insieme dei punti p per i quali la bolla aperta di raggio d centrata

in p è contenuta in G.2Denotiamo l'identità con 1.

2.1 Teorema della Media 27

Figura 2.2: Idea della prova del Teorema della Media.

Osservazione 2.1. Notiamo che h dipende da ε. Consideriamo un esempio

semplice:

P = I − εI = I (1− ε)

⇒ I =

(1

1− ε

)P = P

(+∞∑i=0

εi

)= P + P

(+∞∑i=1

εi

)= P + P

(ε+∞∑i=1

εi−1

)=

= P + ε

(P

+∞∑i=0

εi

).

Quindi h risulta dipendente da ε. Questo poichè se lo sviluppo di Taylor in ε di

una funzione è �nito non è detto che anche quello dell'inversa lo sia.

Applicando la (2.4) alla (2.3) si ottiene:

.P= ε

[f(P + εh, ϕ) +

∂k

∂ϕω(P + εh)

]+ ε2

[∂k

∂If(P,ϕ) +

∂k

∂ϕf(P,ϕ)

]. (2.5)

Per quanto riguarda i termini di ordine ε in (2.5), posto P̃ = P + ε̃h calcoliamo

lo sviluppo di Taylor arrestato al primo ordine e centrato in ε = 0 con resto di

lagrange:

• εf(P + εh, ϕ) = εf(P,ϕ) + ε2h∂f

∂I(P̃ , ϕ);

• ε ∂k∂ϕ

ω(P + εh) = ε∂k

∂ϕ

(ω(P ) + εh

∂ω

∂I(P̃ )

).

Di conseguenza la (2.5) diventa

.P= ε

[f(P,ϕ) +

∂k

∂ϕω(P )

]+

+ε2[h∂f

∂I(P̃ , ϕ) + h

∂k

∂ϕ

∂ω

∂I(P̃ ) +

∂k

∂If(P,ϕ) +

∂k

∂ϕg(P,ϕ)

].

2.1 Teorema della Media 28

Calcoliamo separatamente le stime di ogni addendo del termine di ordine ε2

supponendo che le funzioni h e k, così come le loro derivate �no al secondo ordine,

siano limitate rispettivamente dalle costanti c4 e c3.

• ε2h∂f∂I

(P̃ , ϕ) ≤ ε2 ‖ h ‖C0‖ f ‖C1≤ ε2 ‖ h ‖C2‖ f ‖C2≤ ε2c4c1;

• ε2h∂k∂ϕ

∂ω

∂I(P̃ )) ≤ ε2 ‖ h ‖C0‖ k ‖C1‖ ω ‖C1≤ ε2 ‖ h ‖C2‖ k ‖C2‖ ω ‖C2

≤≤ ε2c4c3c1;

• ε2∂k∂If(P,ϕ) ≤ ε2 ‖ k ‖C1‖ f ‖C0≤ ε2 ‖ k ‖C2‖ f ‖C2≤ ε2c3c1;

• ε2 ∂k∂ϕ

g(P,ϕ) ≤ ε2 ‖ k ‖C1‖ g ‖C0≤ ε2 ‖ k ‖C2‖ g ‖C2≤ ε2c3c1.

Anche in questo caso dobbiamo chiedere ε, ε̃ ≤ ε2 dove ε2 ∈ R+ dipende da

‖ h ‖C2 e viene �ssato in modo tale che applicando la trasformazione (2.4) non

si esca da G (come indicato in �gura (2.2)). Infatti fuori da G tutte le stime

fatte risultano inconsistenti. Quindi per ε, ε̃ ≤ ε2 si ha P̃ = P + ε̃h ∈ G dove le

funzioni h, k sono controllate rispettivamente dalle costanti c4, c3, mentre ω, f, g

sono controllate da c1. Riscriviamo ora l'espressione di.P in considerazione degli

ultimi risultati:.P= ε

(f(P,ϕ) +

∂k

∂ϕω(P )

)+

+ε2(h∂f

∂I(P̃ , ϕ) + h

∂k

∂ϕ

∂ω

∂I(P̃ ) +

∂k

∂If(P,ϕ) +

∂k

∂ϕg(P,ϕ)

)=

= ε

(f(P,ϕ) +

∂k

∂ϕω(P )

)+ ε2 (c4c1 + c4c3c1 + c3c1 + c3c1) .

Abbiamo ottenuto il seguente risultato:

.P= ε

[f(P,ϕ) +

∂k

∂ϕω(P )

]+R, (2.6)

dove R è un termine del secondo ordine in ε

‖ R ‖C0≤ c2ε2, (2.7)

con c2 = c2(c1, c3, c4).

La relazione (2.7) vale se e solo se sono soddisfatte le stime per h, k, ω, f, g ovvero:

‖ ω, f, g ‖C2≤ c1; ‖ k ‖C2≤ c3; ‖ h ‖C2≤ c4. (2.8)

Per giusti�care il precedente risultato non ci resta che dimostrare le stime che

coinvolgono le funzioni k e h.

2.1 Teorema della Media 29

Per quanto riguarda k è naturale sceglierla in modo tale che in (2.6) il termine

di ordine ε si annulli cioè tale che sia soddisfatta la seguente equazione detta

omologica:

f(P,ϕ) +∂k

∂ϕω(P ) = 0 ⇔ f(P,ϕ) = − ∂k

∂ϕω(P ). (2.9)

Dato che k è una funzione periodica in ϕ di periodo 2π, il valore medio della sua

derivata rispetto ϕ è nullo. Ciò può essere dedotto attraverso un calcolo diretto.

Poniamo:

k(P,ϕ) =

∫ ϕ

0

∂k(P,ϕ′)

∂ϕ′dϕ′,

k(P,ϕ+ 2π) =

∫ ϕ+2π

0

∂k(P,ϕ′)

∂ϕ′dϕ′ =

∫ ϕ

0

∂k(P,ϕ′)

∂ϕ′dϕ′ +

∫ 2π

0

∂k(P,ϕ′)

∂ϕ′dϕ′,

k(P,ϕ) = k(P,ϕ+ 2π) ⇒∫ 2π

0

∂k(P,ϕ′)

∂ϕ′dϕ′ = 0.

In generale invece il valore medio di f(P,ϕ)1/ω(P ) è diverso da zero e quindi

non posso scegliere k in modo da eliminare il termine di ordine ε in (2.6). Si

può però ottenere una sempli�cazione signi�cativa osservando che è soddisfatta

la seguente equazione omologica:

f̃(P,ϕ) +∂k

∂ϕω(P ) = 0 ⇔ f̃(P,ϕ) = − ∂k

∂ϕω(P ) (2.10)

dove f̃(P,ϕ) = f(P,ϕ)− f(P ), f(P ) = 1

∫ 2π

0f(P,ϕ)dϕ.

Abbiamo quindi

k(P,ϕ) = −∫ ϕ

0

∂f̃(P,ϕ′)

ω(P )dϕ′. (2.11)

Notiamo che in (2.11) compare a denominatore il fattore ω(P ), quindi per valori

di ω(P ) piccoli rispetto a ε la trasformazione T , introdotta all'inizio tramite la

(2.2), non è più ε-vicina all'identità; di conseguenza il risultato non può essere

più garantito. Alla luce di quest'ultima osservazione si capisce l'importanza del-

l'ipotesi ω(I) > c > 0 in G.

Sappiamo inoltre che supG×S1 ‖ f̃(P,ϕ) ‖≤ supG×S1 ‖ f(P,ϕ) ‖≤ c3.

⇒ ‖ k(P,ϕ) ‖C2 ≤

∣∣∣∣∣∣∣∣∣∣∫ ϕ

0

∂f̃(P,ϕ′)

ω(P )dϕ′

∣∣∣∣∣∣∣∣∣∣C2

≤∫ ϕ

0

∣∣∣∣∣∣∣∣∣∣∂f̃(P,ϕ′)ω(P )

∣∣∣∣∣∣∣∣∣∣C2

dϕ′ ≤

≤∫ 2π

0

∣∣∣∣∣∣∣∣∣∣∂f̃(P,ϕ′)ω(P )

∣∣∣∣∣∣∣∣∣∣C2

dϕ′ ≤∫ 2π

0

c1cdϕ′ = 2π

c1c

= c3(c1, c).

2.1 Teorema della Media 30

Di conseguenza la scelta di ε1, atta a garantire che la traformazione (2.2) sia

ε-vicina all'identità, dipende dalle costanti c1, c (cioè ε = ε(c1, c)).

Per quanto riguarda la stima su h dobbiamo prima di tutto mostrare che (2.2)

è invertibile. Introduciamo il seguente

Lemma 2.1. Fissato un numero positivo α, se ε è su�cientemente piccolo (in

particolare ε ≤ ε2), la restrizione della mappa (2.2) (�ssato un ϕ ∈ S1) alla

regione G − α è un di�eomor�smo. Il di�eomor�smo inverso (2.4) soddisfa,

nella regione G− 2α, la stima

‖ h ‖C2≤ c4,

dove c4 = c4(α, c3) > 0.

Dimostrazione. Per garantire l'invertibilità dell'applicazione (2.2) dimostriamo

che è biettiva nella regione G−α. Sappiamo che la funzione k soddisfa la condizio-

ne di Lipschitz; esiste cioè una costante L(α, c3) tale che ∀I1, I2 ∈ G−α, I1 6= I2.

Abbiamo

| k(I1)− k(I2) |≤ L(α, c3) | I1 − I2 |

⇒ ε | k(I1)− k(I2) |≤ εL(α, c3) | I1 − I2 |,

se scelgo ε ≤ ε3 dove ε3 piccolo in modo da avere ε3L(α, c3) ≤ 1 (quindi ε3 =

ε3(α, c, c1))

⇒ ε | k(I1)− k(I2) |≤| I1 − I2 |

⇒ I2 + εk(I2) 6= I1 + εk(I1).

L'applicazione (2.2) è biettiva e quindi invertibile.

Abbiamo ristretto l'applicazione (2.2) alla regione G − α per garantire che,

per ε minori di un certo ε4 = ε(α, c1, c), l'immagine I+ εk(I, ϕ) non uscisse da G.

Infatti fuori da G non valgono più le stime per le funzioni ω, f, g, k. Per lo stesso

motivo consideriamo l'applicazione inversa (2.4) ristretta alla regione G − 2α e

giusti�chiamo l'introduzione della soglia ε2 per ε .

Per ottenere la stima su h in G − 2α utilizziamo il teorema della funzione

implicita per il problema

Z(I, P, ε) = P − I − εk(I, ϕ) = 0.

Stiamo cercando una funzione del tipo I = z(P, ε). Veri�chiamo le ipotesi del

teorema:

• nel punto (I, I, 0) si ha Z(I, I, 0) = 0 ∀I ∈ G− α, ∀ϕ ∈ S1;

2.1 Teorema della Media 31

• la derivata parziale dIZ(I, P, ε) = −1− εdIk(I) ⇒ dIZ(I, I, 0) = −1.

Dal teorema della funzione implicita segue che esiste un intorno di (I, I, 0)

che sarà della forma G − 2α × U(0) ⊂ G × R+ (in quanto I è libero di variare

nella regione G− α dove è de�nita la funzione I = z(P, ε)). Per questa funzione

abbiamo

dP z(P, ε) = −[dIZ]−1[dPZ] = [1+ εdIk(I)]−1[1].

Dall'espressione di dP z(P, ε) in cui compare k ( limitata in G − 2α) si deduce

l'esistenza di una costante c4 dipendente da α e da c3 tale che

‖ h ‖C2≤ c4.

Abbiamo dimostrato la veridicità di tutte le stime che compaiono in (2.8) e

di conseguenza la stima su R espressa dalla (2.7). Inoltre dalla relazione (2.11)

per k abbiamo che la (2.6) diventa

.P= εf(P ) +R. (2.12)

Ora confrontiamo la (2.12) con

.J= εf(J). (2.13)

Ci occupiamo di stimare la quantità Z(t) = P (t)−J(t). Derivando tale quantitàrispetto al tempo, ricordando | R |≤ c2ε2, otteniamo:

.Z= ε(f(P )− f(J)) +R. (2.14)

Dal teorema di Lagrange segue:

.Z= ε

∂f

∂P(P̂ )Z +R.

Per quanto riguarda il dato iniziale invece abbiamo:

| Z(0) | = | P (0)− J(0) | = | P (0)− I(0) + I(0)− J(0) |

≤ | P (0)− I(0) | + | I(0)− J(0) | = | P (0)− I(0) | ≤ εc3.

Applicando le stime otteniamo:

|.Z| ≤ εc1 | Z | +c2ε2; | Z(0) | ≤ εc3. (2.15)

Per procedere con le stime introdiciamo il

2.1 Teorema della Media 32

Lemma 2.2. Siano t, a, b, d ≥ 0. Se |.Z|≤ a | Z | +b e | Z(0) |≤ d allora

| Z(t) |≤ (d+ bt)eat.

Dimostrazione. Considero:{ .Y (t) = aY (t) + b

| Y (0) |= d

Sappiamo che la soluzione Z(t) è minore di Y (t). Cerco Y (t) tale che

Y (t) = C(t)eat.

Determiniamo la soluzione C(t)

.C (t)eat + aC(t)eat = aC(t)eat + b

⇒.C (t) = be−at C(0) = d

⇒ C(t) =

∫ t

0be−at = − b

a[e−at]t0 = −

b

ae−at+

b

a+ d =

b

a(1− e−at) + d ≤ d+ bt

⇒ Z(t) ≤ Y (t) ≤ (d+ bt)eat.

In questo modo il lemma resta dimostrato. �

Applicando il risultato o�erto dal lemma 2 alla (2.15) e considerando che in

questo caso si ha a = c1ε, b = c2ε2 e d = c3ε otteniamo:

| Z(t) | ≤ (εc3 + ε2c2t)e−εc1t. (2.16)

Considerando la (2.16) per tempi 0 ≤ t ≤ 1

εsi ha la seguente stima

| Z(t) | ≤ εc5, (2.17)

dove c5 = (c3 + c2)e−c1 .

Notiamo che �n'ora abbiamo chiesto ε su�cientemente piccolo per garantire

tutti i risultati ottenuti. Più precisamente:

• ε ≤ ε1(c1, c) per garantire che la trasformazione (2.2) sia ε vicina all'identità;

• ε ≤ ε2(c1, c, α); infatti per assicurare che l'immagine della trasformazione

(2.2), ristretta a G − α, non esca da G dobbiamo garantire che la tra-

sformazione inversa (2.4) ristretta alla regione G − 2α sia contenuta in

G− α;

• ε ≤ ε3(c1, c, α) per dimostrare la biettività di (2.2) nella regione G− α;

2.1 Teorema della Media 33

• ε ≤ ε4(c1, c, α) in questo modo la trasformazione (2.2) ristretta a G − αrimane in G;

Queste richieste, che chiaramente devono valere su tempi 0 ≤ t ≤ 1/ε, possono

essere riassunte chiedendo ε ≤ ε∗ dove ε∗ = ε∗(c1, c, α).

Scegliamo α = d/3. Per ipotesi J(t) ∈ G − d, inoltre, per ε ≤ ε∗(c1, c, d),

l'immagine della trasformazione inversa (2.4) ristretta a G − 2d/3 non esce da

G−d/3; lo stesso vale per l'immagine di (2.2) ristretta a G−d/3 che quindi rimane

in G. In questo modo i tre movimenti coinvolti J(t), P (t) e I(t) rimangono in G

per i tempi richiesti.

Ci interessa una stima sulla quantità | I(t)− J(t) |:

| I(t)− J(t) | = | I(t)− P (t) + P (t)− J(t) | ≤

≤ | I(t)− P (t) | + | P (t)− J(t) |

Abbiamo quindi dimostrato il risultato (2.1):

| I(t)− J(t) | ≤ c6ε,

dove c6 = c3 + c5 è dipendente da c, c1, d.

Osservazione 2.2. Notiamo che i problemi.x= εf(t, x; ε) considerati nella sezio-

ne precedente sono un caso particolare rispetto a quelli trattati nel teorema appena

dimostrato. Infatti ricordando che

.x= εf(t, x; ε) ⇔

{ .x= εf(t, x; ε).t= 1

la variabile x ha il ruolo di variabile lenta e quindi viene identi�cata con I; la

variabile t rappresenta invece la variabile veloce e viene quindi identi�cata con ϕ.

Il caso generale prevede per la variabile veloce l'espressione.ϕ= ω(I) + εg(I, ϕ);

nella sezione precedente abbiamo scelto, per rendere il tempo isocrono, g(I, ϕ) = 0

e ω(I) = 1.

2.2 Esempi 34

2.2 Esempi

Presentiamo ora alcuni esempi

2.2.1 Esempio 1 (media nulla)

Condideriamo il problema { .I= εf(ϕ).ϕ= I

(2.18)

dove f(ϕ) è una funzione periodica a media nulla; il dato iniziale é (I0 = I(0),

ϕ0 = ϕ(0)). Il sistema (2.18) è conservativo e può essere scritto nel seguente

modo:..ϕ= εf(ϕ) = −V ′(ϕ), V (ϕ) = −ε

∫ ϕ

0f(ϕ′)dϕ′.

In questo caso il potenziale è periodico in quanto primitiva di una funzione perio-

dica a media nulla (vedi lemma (1.2)); di conseguenza può essere rappresentato

su un toro S1 = T 1. Il sistema mediato sarà dunque{ .J= 0.ϕ= J

(2.19)

con dato iniziale (J0 = I0, ϕ0). La soluzione di (2.19) è costante: J(t) = I0.

Segue

| I(t)− J(t) |=| I(t)− I0 |=|.ϕ (t)−

.ϕ (0) |= ε

∣∣∣∣∫ t

0f(ϕ(s))ds

∣∣∣∣ .Nello speci�co consideriamo f(ϕ) = sin(ϕ), quindi V (ϕ) = ε cos(ϕ). Ci inte-

ressa capire se possiamo, per ogni scelta del parametro ε e del dato iniziale Io,

applicare il Teorema della Media.

Notiamo che se le orbite raggiungono, in tempi di ordine1

ε, la retta I = 0,

l'ipotesi su ω(I) non è soddisfatta. Infatti nel nostro caso la regioneG, dove hanno

luogo tutte le stime espresse dalle ipotesi del teorema, è G1 = (−c1, c]∪[c, c1)×R,dove c, c1 ∈ R+ sono opportune costanti. Fuori da G1 cade l'ipotesi su ω(I) che

non risulta più inferiormente limitata dalla costante c. Dobbiamo quindi capire

per quali scelte di I0 le orbite non escono da G1 per tempi 0 ≤ t ≤ 1

ε.

I punti di equilibrio sono (0, kπ) con k ∈ Z, instabili se k è pari, stabili se k

è dispari. Dall'espressione relativa all'energia

E =I2

2+ ε cos(ϕ),

2.2 Esempi 35

ricaviamo

I = (2(E − ε cos(ϕ)))12 .

Dato che il potenziale V (ϕ) = ε cos(ϕ) è limitato superiormente da ε e in-

feriormente da −ε, in base all'energia che diamo al sistema, abbiamo tre tipi di

orbita:

• per E ≥ ε abbiamo orbite aperte;

• per E = ε si ottengono tre orbite: l'equilibrio instabile e le due linee

separatrici;

• per −ε ≤ E ≤ ε si ottengono orbite chiuse attorno al punto di equilibrio

stabile.

Figura 2.3: Ritratto di fase del sistema (2.18) con ε = 0.1; riportiamo in rosso le linee se-

paratrici, i punti blu corrispondono agli equilibri; ascisse ϕ(t) in [−2π, 2π] corrispondentea due periodi, ordinate I(t).

Questo esempio è molto importante perchè o�re, in base alla scelta di I0,

problemi di Cauchy dove possiamo applicare il Teorema della Media e altri dove

non sono veri�cate tutte le ipotesi; infatti ponendo E = ε si ottiene:

I = (2(ε− cos(ϕ)))12 ≤

√2(ε+ ε) = 2

√ε.

Ciò signi�ca che, posto ϕ0 = −π, per un dato iniziale I0 ≥ 2√ε le orbite sono

aperte e, come si vede dalla �gura (2.3), non escono da G1; mentre per I0 ≤ 2√ε

le orbite sono chiuse e prima o poi escono da G1.

2.2 Esempi 36

Figura 2.4: Confronto tra la soluzione di (2.18),in blu, e la soluzione di (2.19), in

verde, per tempi 0 ≤ t ≤ 1/ε con dati iniziali (0.55,−π) e (0.1,−π); ε = 0.1; ascisse ϕ(t),

ordinate I(t).

Vogliamo veri�care che le orbite chiuse raggiungono la retta I = 0 per tempi

inferiori a1

ε. Per valori di I0 prossimi a 0 possiamo utilizzare l'approsimazione

armonica ottenendo che il periodo è T =2π√ε� 1

ε.

Per valori di I0 inferiori e prossimi a 2√ε il sistema assume un'energia E∗ < ε;

di conseguenza

E∗ =

.ϕ2

2+ ε cos(ϕ) ⇒

.ϕ= ±

√2(E∗ − ε cos(ϕ))

⇒ dϕ

±√2(E∗ − ε cos(ϕ))

= dt.

Determinato l'intervallo di oscillazione [ϕm, ϕM ] = [a−2π, a], dove a = arccos(E/ε),

avendo osservato che il moto è simmetrico rispetto la retta I = 0, si ha

T = 2

∫ ϕM

ϕm

dϕ√2(E∗ − ε cos(ϕ))

.

Attraverso dei calcoli, che non riportiamo per brevità, si ottiene

T ' 2π

ε

(1 +

a2

16+

9ϕ4

1024+ ....

)' 10√

ε<

1

ε.

Le orbite, per ε su�cientemente piccolo, reggiungono la retta I = 0 in tempi

t � 1

ε. Infatti si ha | I(t) − J(t) |'

√ε � ε per tempi inferiori a

1

ε. Questo

comportamento è reso evidente dalla �gura (2.4).

Tuttavia notiamo che, �ssato un dato iniziale I0 qualsiasi, è sempre possibile

scegliere ε in modo tale da poter applicare il Teorema della Media. Basta scegliere

ε ≤ I204.

2.2 Esempi 37

2.2.2 Esempio 2 (media non nulla)

Consideriamo un problema simile a quello precedente con f(ϕ) periodica ma

con media non nulla. In particolare{ .I= ε(2 + sin(ϕ)).ϕ= I

(2.20)

e il sistema mediato { .J= 2ε.ϕ= J

(2.21)

entrambi con il medesimo dato iniziale (I0, ϕ0). Come nell'esempio precedente il

sistema può essere scritto come

..ϕ= εf(ϕ) = −V ′(ϕ), V (ϕ) = −ε

∫ ϕ

0[2 + sin(ϕ′)]dϕ′ = ε(cos(ϕ)− 2ϕ).

Figura 2.5: Ritratto di fase del sistema (2.20) con ε = 0.1; ascisse ϕ(t), ordinate I(t).

Notiamo che se le orbite raggiungono, in tempi di ordine1

ε, la retta I = 0,

l'ipotesi su ω(I) non è soddisfatta. Infatti, anche in questo caso, la regione

G dove hanno luogo tutte le stime espresse dalle ipotesi del teorema è G2 =

(−c1, c] ∪ [c, c1)× R dove c, c1 ∈ R+ sono costanti. Fuori da G2 cade l'ipotesi su

ω(I) che non risulta più inferiormente limitata dalla costante c. Dobbiamo quindi

capire per quali scelte di I0 le orbite non escono da G2 per tempi 0 ≤ t ≤ 1

ε.

In questo caso non vi sono punti di equilibrio e il potenziale non è limitato

(nè inferiormente nè superiormente) quindi tutte le orbite sono aperte come si

2.2 Esempi 38

può vedere dal ritratto di fase. Scegliendo il dato iniziale I0 ∈ G2 abbiamo due

possibilità:

• per I0 positivo le orbite rimangono entro G2 e quindi tutte le ipotesi sono

soddisfatte;

• per I0 negativo non siamo in grado di assicurare che le orbite restino in G

per i tempi richiesti.

Nel secondo caso, se I0 è prossimo alla retta I = 0, le orbite raggiungono

e attraversano la retta I = 0, qualsiasi sia la scelta di ε (vedi �gura (2.6));

di conseguenza il Teorema della media non può essere applicato per lo stesso

motivo che abbiamo ampiamente illustrato nell'esempio precedente. Questo caso

si de�erenzia però da quello precedente poichè cade anche l'ipotesi J(t) ∈ G− dper dati iniziali negativi. Ci si accorge, tuttavia, che per alcuni dati iniziali

(I0, ϕ0), con −1 < I0 � 0, si ottiene ugualmente il risultato nonostante le ipotesi

del teorema non siano soddisfatte; ciò è dovuto, in buona parte, al fatto che

entrambi i sistemi (2.20) e (2.21) sono conservativi e quindi le soluzioni stanno

su curve di livello.

Figura 2.6: Confronto tra la soluzione di (2.20), in blu, e la soluzione di (2.21), in

verde, per tempi 0 ≤ t ≤ 1/ε con dati iniziali (−0.5, 2π) e (−0.3, 2π); ε = 0.01; ascisse

ϕ(t), ordinate I(t).

Fissato un dato iniziale (I0, ϕ0), con −1 � I0 < 0, imponiamo ai sistemi

(2.20) e (2.21) due energie, rispettivamente:

E(I0, ϕ0) =I202

+ ε[cos(ϕ0)− 2ϕ− 1], E(I0, ϕ0) =I202− 2εϕ0.

2.2 Esempi 39

Notiamo che per ϕ0 = 2kπ (k ∈ Z) si ha E(I0, 2kπ) = E(I0, 2kπ) = E. Dato che

l'energia è una costante del moto per entrambi i sistemi otteniamo

W : E =I2

2+ ε[cos(ϕ)− 2ϕ− 1], W : E =

J2

2− 2εϕ.

⇒ I2

2+ ε[cos(ϕ)− 2ϕ− 1]− J2

2+ 2εϕ = 0

Siamo interessati a comprendere come varia la distanza tra le soluzioni quando

esse sono prossime alla retta I = 0, distanza che equivale | ϕ− ϕ |:

ε[cos(ϕ)− 2ϕ− 1] + 2εϕ = 0⇒ ϕ− ϕ =cosϕ− 1

2

di conseguenza

| ϕ− ϕ |= 1 ⇔ ϕ = (2k + 1)π

| ϕ− ϕ |= 0 ⇔ ϕ = (2k)π.

Quindi se scegliamo (I0, 2π) (con −1� I0 < 0) in modo tale che la soluzione di

(2.20) in I = 0 cada in ϕ = 2kπ la distanza tra le soluzioni rimane O(1); mentre

se cade in ϕ = (2k + 1)π le soluzioni coincidono.

2.2.3 Esempio 3

Negli esempi precedenti abbiamo visto che senza l'ipotesi ω(I) > c > 0 non si

ottiene il controllo sulla distanza tra I(t) e J(t) poichè la trasformazione T intro-

dotta nella dimostrazione non rimane ε-vicina all'identità. Si potrebbe pensare

che il problema riguardi solo la tecnica dimostrativa utilizzata e proporre, quindi,

un metodo alternativo facendo a meno della trasformazione T . In realtà, senza

l'ipotesi su ω(I), quello che impedisce di applicare il teorema è che, per valori

di ω(I) � ε, risulta invertito il ruolo delle variabili I e ϕ; di conseguenza l'idea

alla base del principio della media non può essere applicata. Presentiamo ora un

esempio, semplice rispetto ai precedenti, dove il ruolo delle variabili è invertito;

vediamo come il controllo su | I(t)−J(t) | è peggiore di quello o�erto dal teorema.

Consideriamo il problema: { .I= εf(ϕ).ϕ= ε2

Per comodità riscaliamo il tempo ponendo τ = εt; ottenendo{ .I= f(ϕ).ϕ= ε

(2.22)

2.2 Esempi 40

che confrontiamo con { .I= f.ϕ= ε

(2.23)

Per entrambi i sistemi diamo lo stesso dato iniziale (I0, 0) = (I(0), ϕ(0)). La

soluzione del problema (2.22) é

I(τ) = I0 +

∫ τ

0f(ϕ(s))ds ϕ(s) = εs+ ϕ0 = εs

⇒ I(τ) = I0 +

∫ τ

0[f + f̃(εs)]ds = I0 + fτ +

∫ τ

0f̃(εs)ds

⇒ |I(τ)− J(τ)| =∣∣∣∣I0 + fτ +

∫ τ

0f̃(εs)ds− I0 − fτ

∣∣∣∣ ==

∣∣∣∣∫ τ

0f̃(εs)ds

∣∣∣∣Considerindo in particolare f(ϕ) = cos(ϕ), per τ ≤ 1 abbiamo

|I(t)− J(t)| =∣∣∣∣∫ τ

0cos(εs)ds

∣∣∣∣ = ∣∣∣∣sin(ετ)ε

∣∣∣∣ ≤ 1

In questo caso quindi la distanza tra le soluzioni rimane di ordine 1, per

tempi di ordine ε, in quanto per ogni scelta del parametro ε il ruolo delle variabili

è invertito. Questo comporta anche che la trasformazione T non rimane ε-vicina

all'identità:

T : P = I + εk(I, ϕ) = I +ε

ω(I)

∫ ϕ

0ε cos(ϕ′)dϕ′ = I +

∫ ϕ

0cos(ϕ′)dϕ′.

2.2.4 Esempio 4

Consideriamo il problema { .I= εI sin(ϕ).ϕ= I

(2.24)

e quello mediato { .I= 0.ϕ= I

(2.25)

La particolarità di questo esempio è che la dipendeza di.I da I rende la

trasformazione T ε-vicina all'identità anche se l'ipotesi ω(I) > c > 0 non è

sempre soddisfatta. Infatti

k(I, ϕ) =

∫ ϕ

0

I sin(ϕ)

I=

∫ ϕ

0sin(ϕ)

2.2 Esempi 41

Questo permette di ottenere il risultato espresso dal teorema della media nono-

stante le ipotesi dello stesso non siano soddifatte.

I punti di equilibrio sono (I, ϕ) = (0, ϕ); procedendo con la linearizzazione

del sistema in (0, ϕ) si ottiene la seguente matrice rappresentativa

A =

(ε sin(ϕ) 0

1 0

). (2.26)

Per determinare gli autovalori di A dobbiamo risolvere l'equazione∣∣∣∣∣ ε sin(ϕ)− λ 0

1 λ

∣∣∣∣∣ = 0

⇒ −λ(ε sin(ϕ)− λ) = 0 ⇒ λ1 = 0, λ2 = ε sin(ϕ)

Sulla retta I = 0 abbiamo tre tipi di punti di equilibrio:

• instabili per 2kπ < ϕ < (2k + 1)π (k ∈ Z), in quanto λ2 > 0;

• stabili per (2k − 1)π < ϕ < 2kπ, in quanto λ2 < 0;

• per ϕ = kπ si ha λ2 = 0; per capire il comportamento delle soluzioni vicino

a punti di questo tipo è necessario studiare la dinamica del sistema.

Ci occupiamo ora di analizzare la dinamica studiando il segno di.I e

.ϕ.

.I è

positivo per I > 0, 2kπ < ϕ < (2k + 1)π e per I < 0, (2k − 1)π < ϕ < 2kπ,

negativo altrimenti;.ϕ è positivo per I > 0, negativo altrimenti. Supponendo

I 6= 0, possiamo ottenere altre informazioni riguardo il comportamento delle

soluzioni dal seguente calcolo

.I=

dI

dt= εI sinϕ ⇒ dt =

dI

εI sinϕ. (2.27)

.ϕ=

dt= I ⇒ dt =

I. (2.28)

Eguagliando i secondi membri di (2.27) e (2.28) otteniamo

dI

εI sinϕ=dϕ

I⇒ dI = ε sin(ϕ)dϕ ⇒

∫ I(t)

I0

dI ′ =

∫ ϕ(t)

ϕ0

ε sin(ϕ′)dϕ′

⇒ I(t) = I0 − ε(cos(ϕ)− cos(ϕ0)).

Per dati iniziali lontani dalla retta I0 la distanza tra le soluzioni di (2.24)

e (2.25) rimane di ordine ε per i tempi richiesti. Per dati iniziali prossimi a I0

potrebbe succedere che in tempi inferiori a1

εla soluzione di (2.24) raggiunga la

2.2 Esempi 42

Figura 2.7: Ritratto di fase del sistema (2.24) con ε = 0.1; riportiamo in rosso la retta

di punti di equilibrio; ascisse ϕ(t), ordinateI(t).

retta degli equilibri fermandosi; quella di (2.25) invece, essendo costante, pro-

segue il moto rendendo falso il risultato. Tuttavia possiamo vedere dalla �gura

sottostante come quanto appena detto non accada poichè in prossimità della retta

I = 0 il moto delle soluzioni è molto lento e l'orbita non raggiunge la retta dei

punti di equlibrio in tempi inferiori a1

ε.

Figura 2.8: Confronto tra la soluzione di (2.24), in blu, e la soluzione di (2.25), in verde,

per tempi 0 ≤ t ≤ 1/ε con dati iniziali (−0.01, 0) e (−0.005, 0); ε = 0.01; riportiamo la

retta dei punti di equilibro in rosso; ascisse ϕ(t), ordinateI(t).

Bibliogra�a

[1] V. I. Arnold Mathematical Methods of Classic Mechanics, second edition.

Springer-Verlag New York Inc., 1978.

[2] J. A. Sanders, F. Verhulst Averaging Methods in Nonlinear Dynamical

Systems. Springer-Verlag New York Inc., 1985.

[3] L. Galgani, A. Carati Dispanse del corso di Meccanica Analitica II.

[4] Kolmogorov A. N., Fomin S. V. Elementi di teoria delle Funzioni e di Analisi

Funzionale MIR, 1980

[5] L. Pizzocchero On the average principle for the one-frequency systems J. Phys.

A: Math. Gen. 39 (2006) pp 36733702.

43