Formulazioni del Teorema della Media per sistemi ad una ... · ma di Gronwall (utilizzato per...
-
Upload
truongdieu -
Category
Documents
-
view
217 -
download
0
Transcript of Formulazioni del Teorema della Media per sistemi ad una ... · ma di Gronwall (utilizzato per...
Università degli Studi di Milano
Facoltà di Scienze Matematiche, Fisiche e Naturali
Corso di Laurea Triennale in Matematica
Formulazioni del Teoremadella Media per sistemi ad
una variabile veloce
Relatore: Dott. Tiziano PENATI
ELABORATO FINALE DI
Alessandro MENTASTI
Matr. 732831
ANNO ACCADEMICO 2009 - 2010
Indice
Introduzione 2
1 Teorema della Media nel caso isocrono 5
1.1 Introduzione alla Teoria delle Perturbazioni . . . . . . . . . . . . 5
1.1.1 Esistenza e unicità per problemi ai valori iniziali . . . . . 6
1.1.2 Lemma di Gronwall . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Teorema di dipendenza continua dai parametri . . . . . . 9
1.2 Teorema della Media . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Esempio 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Esempio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3 Esempio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 Teorema della Media nel caso anisocrono 25
2.1 Teorema della Media . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.1 Esempio 1 (media nulla) . . . . . . . . . . . . . . . . . . . 34
2.2.2 Esempio 2 (media non nulla) . . . . . . . . . . . . . . . . 37
2.2.3 Esempio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.4 Esempio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Bibliogra�a 43
1
Introduzione
In questo elaborato si espongono alcune formulazioni del teorema della media
per sistemi di equazioni di�erenziali del prim'ordine ad una variabile veloce. Tale
Teorema è un risultato molto signi�cativo, ed allo stesso tempo elementare, della
teoria perturbativa che, dato un problema di Cauchy della forma
.x= f(x, t, ε); x(0) = x0, x ∈ Rn, 0 < ε� 1, (1)
si occupa di ottenere delle buone approssimazioni della dinamica x(t, ε) su tempi
�lunghi� rispetto al parametro ε piccolo. Il Teorema della media riguarda, in
particolar modo, il caso in cui x sia una variabile che evolve lentamente ed f sia
periodica nel tempo, ovvero
.x= εf(x, t, ε); f(t+ T ) = f(t). (2)
Lo studio di questo tipo di equazioni si sviluppa, ad esempio, nell'ambito
della Meccanica Celeste dalla necessità di giusti�care e descrivere con maggior
precisione le orbite planetarie. É in questo stesso contesto che inizia a svilupparsi
il principio della media. L'idea alla base di tale principio è la seguente: il com-
portamento della soluzione, in una prima scala di tempo su�cientemente lunga,
è in�uenzato essenzialmente dalla media del campo f , mentre l'oscillazione di f
attorno alla sua media dà un apporto trascurabile.
In una sua formulazione più generale con l variabili lente ed una veloce, il
principio della media è giusti�cato dall'omonimo
Teorema 1 (Della Media). Dati i due seguenti problemi di Cauchy con stesso
dato iniziale (I(0), ϕ(0))
Xε =
{ .I= εf(I, ϕ).ϕ= ω(I) + εg(I, ϕ)
Xε =
{ .J= εf(J).ϕ= ω(J) + εg(J)
dove: ϕ mod 2π ∈ S1, I ∈ G ⊂ Rl, f(I, ϕ+2π) = f(I, ϕ), g(I, ϕ+2π) = g(I, ϕ);
f(J) e g(J) indicano, rispettivamente, la media delle funzioni f , g rispetto ϕ.
Supponiamo che:
2
Introduzione 3
• ω,f ,g siano funzioni de�nite per I in una regione limitata G e ivi siano
limitate, così come le loro derivate �no al secondo ordine:
‖ ω, f, g ‖C2(G×S1)≤ c1
• nella regione G si abbia ω(I) > c > 0,
• per 0 ≤ t ≤ 1
εun intorno di raggio d del punto J(t) sia contenuto in G
cioè: J(t) ∈ G− d 1.
Allora esiste ε∗(c, d, c1) tale che per ε ≤ ε∗(c, d, c1) si ha:
| I(t)− J(t) |≤ c6ε ∀t | 0 ≤ t ≤ 1
ε(3)
dove c6 = c6(c1, c, d) > 0 indipendente da ε.
L'enunciato del Teorema tratta il caso più generale (che chiamiamo anisocro-
no) nel quale la frequenza ω(I) può dipendere anche dalle variabili lente I. Si
osservi che tale formulazione include anche il problema (2), che può essere infatti
riscritto (ponendo ϕ = t e I = x) come{ .I= εf(I, ϕ, ε).ϕ= ω(I) = 1
In questo caso, che chiamiamo isocrono, si può ottenere una formulazione del
teorema della media più semplice, in quanto l'ipotesi di limitatezza sulla frequenza
ω(I) è automaticamente soddisfatta dal suo essere costante.
In entambi i casi, isocrono e anisocrono, si ottiene la stima (3) confrontando
la soluzione I(t) e la sua dinamica mediata J(t) con una soluzione ausiliaria P (t).
Nel primo caso P (t) viene costruito direttamente a partire dalla proprietà di iso-
cronia del campo f ; il risultato segue poi da alcune stime classiche come il Lem-
ma di Gronwall (utilizzato per esempio anche nella dimostrazione del teorema di
dipendenza continua dai parametri). Per il caso anisocrono, invece, P (t) viene in-
trodotto tramite una trasformazione delle variabili lente T : P = I+εk(I, ϕ), con
k(I, ϕ) scelta in modo tale che P (t) soddis� un'equazione di�erenziale dominata
dal termine di media f.P= εf(P ) +O(ε2).
L'ipotesi ω(I) > c > 0, automaticamente soddisfatta nel caso isocrono, viene
introdotta per garantire che la trasformazione T sia ε-vicina all'identità.
1Con G− d si indica l'insieme dei punti p per i quali la bolla aperta di raggio d centrata in
p è contenuta in G.
Introduzione 4
In questo elaborato abbiamo approfondito con alcuni esempi il ruolo della
frequenza rispetto alla validità ed ottimalità della stima (3).
In alcuni casi l'approssimazione J(t) alla dinamica lenta è buona solo su tem-
pi molto brevi rispetto a 1ε proprio perchè l'ipotesi ω(I) > c > 0 viene violata:
si osserva infatti che, quando ω(I) diventa molto piccolo rispetto ad ε, il ruolo
delle variabili risulta �invertito�, ovvero è la variabile periodica ϕ ad essere lenta
rispetto a I . In altri casi, invece, il risultato sussiste nonostante l'ipotesi riguar-
dante ω(I) non sia soddisfatta; questo Teorema, infatti, o�re solo una condizione
su�ciente a garantire la stima (3). In�ne, si è osservato che vi sono esempi che
mostrano come il risultato possa sussistere per tempi più lunghi (anche in�niti):
a tali esempi si possono applicare, probabilmente, risultati di teoria perturbativa
(non analizzati in questa sede) molto più forti rispetto al Teorema della Media.
Capitolo 1
Teorema della Media nel caso
isocrono
1.1 Introduzione alla Teoria delle Perturbazioni
La teoria perturbativa tratta problemi di Cauchy della forma
.x= f(x, t, ε); x(0) = x0, x ∈ Rn, 0 < ε� 1, (1.1)
cercando di ottenere delle buone approssimazioni della dinamica x(t, ε) su tempi
�lunghi� rispetto al parametro ε piccolo. Lo studio di questo problema nasce,
attorno alla seconda metà del Seicento, dalla necessità di giusti�care e descrivere
con maggior precisione le orbite planetarie, in quanto dai dati osservativi accu-
mulati nell'arco di decenni, si nota una discrepanza tra il moto reale dei pianeti
e le leggi di Keplero. Ciò è dovuto alla mutua iterazione tra i pianeti che vie-
ne espressa tramite un coe�ciente perturbativo. Solo all'inizio dell'Ottocento,
grazie ai lavori di Clairaut, Lagrange e Laplace, vengono introdotti dei metodi
matematici in grado di trattare in modo adeguato il problema delle perturbazioni
planetarie.
In questa sezione introduciamo alcuni risultati classici della teoria perturbati-
va, come il teorema di dipendenza continua dai parametri e il lemma di Gronwall
che o�re un stima riguardo la crescita delle soluzioni. Inoltre riportiamo alcuni
risultati, riguardanti il problema di Cauchy per sistemi di equazioni di�erenziali,
che ci saranno utili per sviluppare gli argomenti successivi; tra questi ricordiamo
il teorema di esistenza e unicità per problemi ai valori iniziali.
5
1.1 Introduzione alla Teoria delle Perturbazioni 6
1.1.1 Esistenza e unicità per problemi ai valori iniziali
La forma generale dell'equazione che studiamo in questa sezione è:
.x= f(t, x; ε),
dove x e f sono vettori in Rn. In generale assumiamo x ∈ D ⊂ Rn dove D e
un insieme aperto e limitato. La variabile t viene identi�cata con il tempo, di
conseguenza assumiamo t ≥ 0 o t ≥ t0 dove t0 ∈ R costante. Il parametro ε ∈ R+
rappresenta l'ordine di grandezza della perturbazione; siamo interessati, quindi,
a considerarlo piccolo.
Per poter introdurre in modo adeguato il teorema di esistenza e unicità per
problemi di Cauchy premettiamo la seguente
De�nizione 1.1. Consideriamo la funzione vettoriale f(t, x; ε) con f ∈ Rn,t0 ≤ t ≤ t0 + T , x ∈ D ⊂ Rn, 0 ≤ ε ≤ ε0. Diciamo che f è Lipschitziana in x
con costante di Lipschitz L > 0 se in [t0, t0 + T ]×D × (0, ε0] si ha
‖ f(t, x1; ε)− f(t, x2; ε) ‖≤ L ‖ x1 − x2 ‖,
dove x1, x2 ∈ D e L costante.
Se 0 < L < 1 diciamo che f è una contrazione.
Introduciamo ora il
Teorema 1.1. Consideriamo il seguente problema di Cauchy
.x= f(t, x; ε); x(t0) = x0; (1.2)
dove x ∈ D ⊂ Rn, t0 ≤ t ≤ t0 + T , 0 ≤ ε ≤ ε0; D = {x| ‖ x − x0 ‖≤ d}.Assumiamo
• f(t, x; ε) è continua rispetto t, x e ε in G = [t0, t0 + T ]×D × (0, ε0].
• f(t, x; ε) è Lipschitziana in x con costante di Lipschitz L.
Allora il problema di Cauchy (1.2) ammette un'unica soluzione che esiste per
tempi t0 ≤ t ≤ t0 + Inf(T,1
L,d
M) dove M = SupG ‖ f ‖.
Dimostrazione. Notiamo che in f(t, x; ε), ε funge da parametro. Quindi di-
mostriamo il teorema ∀ε ∈ (0, ε0]. Per farlo �ssiamo un ε ∈ (0, ε0] e ride�niamo
M = SupB×D ‖ f ‖ dove B = [t0, t0 + T ]. Dal teorema di Weierstrass sappiamo
che M ∈ R poichè B ×D è compatto. Se M = 0 abbiamo che f è identicamente
1.1 Introduzione alla Teoria delle Perturbazioni 7
nulla e il sistema ammette come unica soluzione x(t) = x0. Quindi supponiamo
M > 0 e de�niamo
δ = Inf
(T,
1
L,d
M
).
Poniamo Iδ = [t0, t0 + δ] e consideriamo lo spazio metrico (X, ‖ · ‖C0) delle
funzioni g : Iδ −→ Rn con la norma dell'estremo superiore come metrica. Ci
restringiamo al sottinsieme Z = {g ∈ G| ‖ g − x0 ‖C0≤ b}. Essendo lo spazio
X completo e Z ⊂ X chiuso allora anche quest'ultimo è completo rispetto alla
metrica indotta.
Procediamo de�nendo l'operatore F : Z −→ Z tale che
F (x) = x̂ = x0 +
∫ t
t0
f(t′, x(t′); ε)dt′. (1.3)
Notiamo che l'operatore (1.3) è ben de�nito in quanto ∀x ∈ B ⇒ F (x) ∈ B,
infatti ∀t ∈ Iδ
‖ x̂− x0 ‖C0 =
∣∣∣∣∣∣∣∣∫ t
t0
f(t′, x(t′); ε)dt′∣∣∣∣∣∣∣∣C0
≤
≤∣∣∣∣∫ t
t0
‖ f(t′, x(t′); ε) ‖C0 dt′∣∣∣∣ ≤ M | t− t0 | ≤ Mδ ≤ b.
Ora è su�ciente dimostrare che l'operatore (1.3) è una contrazione. Infatti il
teorema di punto �sso di Banach-Cacciopoli garantisce l'esistenza e l'unicità di
un punto �sso per l'operatore (1.3) in Z. Nel nostro caso ∃!x = x(t) ∈ Z tale che
F (x) = x, cioè
x(t) = x0 +
∫ t
t0
f(t′, x(t′); ε)dt′,
de�nita su Iδ e che dunque risolve dunque (1.2).
Tenendo conto dell'ipotesi di Lipschitzianità per f scriviamo
‖ F (x1)− F (x2) ‖ =
∣∣∣∣∣∣∣∣∫ t
t0
[f(t′, x1; ε)− f(t′, x2; ε)]dt′∣∣∣∣∣∣∣∣ ≤
≤∣∣∣∣∫ t
t0
‖ f(t′, x1; ε)− f(t′, x2; ε) ‖ dt′∣∣∣∣ ≤
∣∣∣∣∫ t
t0
L ‖ x1 − x2 ‖ dt′∣∣∣∣
≤∣∣∣∣∫ t
t0
L ‖ x1 − x2 ‖C0 dt′∣∣∣∣ ≤ δL ‖ x1 − x2 ‖C0 ≤ ‖ x1 − x2 ‖C0 ,
poichè δL ≤ 1.
Abbiamo quindi dimostrato che l'operatore (1.3) è una contrazione: il risul-
tato segue dal teorema di Banach-Cacciopoli. �
1.1 Introduzione alla Teoria delle Perturbazioni 8
Osservazione 1.1. Osserviamo �n da subito che per i problemi che studieremo
in questa sezione, caratterizzati da f(t, x; ε) = εg(t, x), il teorema precedente
garantisce l'esistenza della soluzione per tempi t0 ≤ t ≤ t0 + Inf(T,1
εLg,d
εMg).
Infatti:
• M = SupG ‖ f ‖= εSupG ‖ g ‖= εMg.
• ‖ f(t, x1; ε)− f(t, x2; ε) ‖= ε ‖ g(t, x1)− g(t, x2) ‖≤ εLg ‖ x1 − x2 ‖⇒ L = εLg dove Lg è la costante di Lipschitz per la funzione g.
Notiamo che l'esistenza della soluzione è garantita per tempi almeno di ordine 1ε ;
ha pertanto senso applicare il Teorema della Media a problemi di questo tipo in
quanto assicura un controllo sulla distanza tra la soluzione del sistema di partenza
e quella del sistema mediato proprio per tempi di ordine ε.
1.1.2 Lemma di Gronwall
Presentiamo un risultato che ci sarà utile per dimostrare il Teorema della
Media nel caso isocrono:
Lemma 1.1 (di Gronwall). Supponiamo che per t0 ≤ t ≤ t+ T vale
φ(t) ≤ δ2(t− t0) + δ1
∫ t
t0
φ(s)ds+ δ3, (1.4)
dove φ(t) ≥ 0, continua per t0 ≤ t ≤ t+ T e δ1 > 0, δ2 ≥ 0, δ3 ≥ 0. Allora:
φ(t) ≤(δ2δ1
+ δ3
)eδ1(t−t0) − δ2
δ1. (1.5)
Dimostrazione. Applichiamo alla (1.4) la sostituzione
φ(t) = ψ(t)− δ2δ1;
in questo modo
ψ(t)− δ2δ1≤ δ2(t− t0) + δ1
∫ t
t0
[ψ(s)− δ2
δ1
]ds+ δ3
⇒ ψ(t) ≤ δ2δ1δ2(t− t0) + δ1
∫ t
t0
ψ(s)ds+ δ2(t− t0) + δ3
⇒ ψ(t) ≤ δ1∫ t
t0
ψ(s)ds+δ2δ1
+ δ3.
1.1 Introduzione alla Teoria delle Perturbazioni 9
Escludendo il caso δ2 = δ3 = 0, in cui φ(t) = 0 in t0 ≤ t ≤ t0 + T , il secondo
membro della disequazione è positivo quindi
ψ(t)
δ1∫ tt0ψ(s)ds+ δ2
δ1+ δ3
≤ 1
⇒ δ1ψ(t)
δ1∫ tt0ψ(s)ds+ δ2
δ1+ δ3
≤ δ1.
Notiamo che a primo membro il numeratore è la derivata rispetto al tempo del
denominatore, integrando si ottiene
ln
(δ1
∫ t
t0
ψ(s)ds+δ2δ1
+ δ3
)− ln
(δ2δ1
+ δ3
)≤ δ1(t− t0)
⇒ ln
(δ1∫ tt0ψ(s)ds+ δ2
δ1+ δ3
δ2δ1
+ δ3
)≤ δ1(t− t0)
⇒ δ1
∫ t
t0
ψ(s)ds+δ2δ1
+ δ3 ≤(δ2δ1
+ δ3
)eδ1(t−t0)
⇒ ψ(t) ≤(δ2δ1
+ δ3
)eδ1(t−t0).
Applicando nuovamente la sostituzione
ψ(t) = φ(t) +δ2δ1,
si ottiene la (1.5) e il lemma risulta dimostrato. �
1.1.3 Teorema di dipendenza continua dai parametri
Data un equazione di�erenziale
.x= f(x); x ∈ Rn; (1.6)
ci interessa studiare il problema �vicino�
.y= f(y) + εg(t); y ∈ Rn, ε� 1. (1.7)
Consideriamo le soluzioni di (1.6) e (1.7) aventi il medesimo dato iniziale x(0) =
y(0). Vogliamo studiare come evolve la quantità d(t) =| x(t) − Y (t) |. Notiamo
che l'evoluzione di d(t) è dovuta a due meccanismi in qualche modo indipendenti
l'uno dall'altro:
• la deviazione delle orbite prodotta dal termine perturbativo εg;
1.1 Introduzione alla Teoria delle Perturbazioni 10
• la possibile divergenza di un 'orbita rispetto all'altra dipendente dalla forma
stessa del campo vettoriale non perturbato f(x).
Per capire come il secondo meccanismo ha luogo presentiamo un
Esempio 1.1. Consideriamo
.x= kx; k ∈ R, x : R −→ R,
dove �ssiamo due dati iniziali distinti x0 e x′0 e chiamiamo la loro distanza d0 =
x′0 − x0.Le soluzioni sono
x(t) = x0ekt, x′(t) = x′0e
kt, ⇒ d(t) = d0ekt.
Ci chiediamo per quanto tempo le soluzioni restano vicine. Ciò dipende ovvia-
mente dalla scelta della costante k. Abbiamo tre casi:
• per k = 0 abbiamo.x= 0. In questo caso tutti i punti sono di equilibrio e
quindi d(t) = d0 per tutti i tempi;
• per k ≤ 0 abbiamo
limt→∞
d(t) = limt→∞
d0ekt = 0.
Le due soluzioni si avvicinano sempre di più, quindi ogni controllo sulla
distanza sarà garantito da un certo istante in poi;
• per k ≥ 0 abbiamo
limt→∞
d(t) = limt→∞
d0ekt = +∞.
Le due soluzioni divergono esponenzialmente (proprietà di caoticità) e la
distanza rimane di ordine 1 per tempi proporzionali a ln
(1
d0
).
Cerchiamo ora di determinare una stima per | d(t) |. Consideriamo
|.d|=| f(x+ d)− f(x) + εg(x+ d) | . (1.8)
Supponiamo che f sia Lipschitziana con costante L e che g sia limitata in Rcon SupR(g) = G. Potremmo chiedere g limitata solo in un dominio D ∈ Rma dovremmo assicurarci a posteriori che le soluzioni rimangano in tale dominio
per i tempi in cui vale la stima, altrimenti quest'ultima risulta inconsistente.
Introduciamo per comodità la nuova variabile δ =| d |. Alla luce di queste ipotesila (1.8) diventa
.δ≤ Lδ + εG
1.2 Teorema della Media 11
⇒.δ −Lδ ≤ εG ⇒ e−Lt(
.δ −Lδ) ≤ εGe−Lt
⇒ d(e−Ltδ)
dt≤ εGeLt,
infatti
d(e−Ltδ)
dt=d(e−Lt)
dtδ + e−Lt
.δ= −Le−Ltδ + e−Lt
.δ= e−Lt(
.δ −Lδ).
Integrando otteniamo ∫ t
0
d(e−Lt′δ(t′))
dt′dt′ ≤
∫ t
0εGe−Lt
′dt′
⇒[e−Ltδ(t′)
]t0≤[−εGLe−Lt
′]t0
⇒ e−Ltδ(t) ≤ −εGL
(e−Lt − 1)
⇒ δ(t) ≤ εG
L(eLt − 1) ≤ εG
LeLt.
Di conseguenza la distanza rimane di ordine 1 per tempi proporzionali a ln
(1
ε
).
Questo è il miglior risultato che si può ottenere nel caso di problemi aventi la
proprietà di caoticità. Vedremo nella sezione successiva che, aggiungendo alcune
ipotesi, si può ottenere un risultato migliore espresso dal Teorema della Media.
1.2 Teorema della Media
Teorema 1.2 (Della Media). Consideriamo:
.x= εf(t, x) + ε2g(t, x); x(t0) = x0; (1.9)
.y= εf(y); y(t0) = x0, (1.10)
dove f(y) =1
T
∫ t0+T
t−0f(t, y)dt; x, y, x0 ∈ D ⊂ Rn; t ∈ [t0,+∞); ε ∈ (0, ε0].
Supponiamo:
• f , g, ∇f sono de�nite, continue e limitate da una costante M indipendente
da ε in [t0,+∞)×D;
• g è Lipschitziana rispetto x in D;
• y(t) appartiene a un sottoinsieme interno di D per tempi 0 ≤ t ≤ 1
ε;
1.2 Teorema della Media 12
• f è periodica in t con periodo T indipendente da ε, cioè f(t+T, x) = f(t, x).
Allora
x(t)− y(t) = O(ε)
per tempi 0 ≤ t ≤ 1
εquando ε −→ 0.
Osservazione 1.2. Facciamo notare quanto il risutato del Teorema della Media
sia migliore rispetto a quello ottenuto dal confronto tra le soluzioni di.x= f(x) e
.y= f(y) + εg(t). Infatti:
• il Teorema della Media garantisce x(t)− y(t) = O (ε) per tempi O
(1
ε
);
• nel caso presentato nella sezione precedente abbiamo x(t)−y(t) = O(1) per
tempi O
(ln
(1
ε
)).
Non solo abbiamo un controllo migliore sulla distanza tra le soluzioni, ma anche
per un tempo più lungo.
Enunciamo il seguente lemma riguardo alcune proprietà delle funzioni perio-
diche che ci saranno utili nel corso della dimostrazione:
Lemma 1.2. Consideriamo una generica funzione g(t, x) periodica in t di periodo
T , cioè tale che g(t, x) = g(t+T, x); costruiamo la funzione g̃(t, x) = g(t, x)−g(x)(dove g(x) è l'usuale media) che è anch'essa periodica in t di periodo T . Allora:
• la funzione G̃(t, x) =
∫ t
0g̃(t′, x)dt′ è periodica;
• la funzione g′(t, x) =∂g(t, x)
∂tha media nulla.
Dimostrazione. Per ogni k ∈ N , considero
G̃(t+kT, x) =
∫ t+kT
0g̃(t′, x)dt′ =
∫ kT
0g̃(t′, x)dt′+
∫ t+kT
kTg̃(t′, x)dt′ =
= k
∫ T
0g̃(t′, x)dt′ +
∫ t
0g̃(t′, x)dt′ =
= k
∫ T
0[g(t′, x)− g(x)]dt′ +
∫ t
0g̃(t′, x)dt′ =
= k
∫ T
0g(t′, x)dt′ −
∫ T
0g(x)dt′ +
∫ t
0g̃(t′, x)dt′ =
1.2 Teorema della Media 13
= Tg(x)− Tg(x) +∫ t
0g̃(t′, x)dt′ = G̃(t, x).
Abbiamo così dimostrato la periodicità di G̃(t, x). Calcoliamo ora la media di
g′(t, x):
g′(x) =1
T
∫ T
0g′(t′, x)dt′ =
1
T
∫ T
0
∂g(t′, x)
∂t′dt′ =
=1
T(g(T, x)− g(0, x)) = 0.
�
Dimostrazione. Per stimare la quantità | x(t)−y(t) | introduciamo una funzione
z(t) soddisfacente un'equazione di�erenziale che coinvolge un campo vettoriale
intermedio tra.x e
.y. In questo modo siamo in grado di spezzare la stima di
| x(t) − y(t) | nelle due stime | x(t) − z(t) | e | z(t) − y(t) | sfruttando la
disuguaglianza triangolare. La funzione sopracitata è
z(t) = y(t) + εu1(t, y(t)), (1.11)
dove:
u1(t, y) =
∫ t
t0
[f(s, y)− f(y)]ds. (1.12)
Notiamo che la (1.12) è una funzione periodica in t in quanto l'integranda è
periodica e ha media nulla. Cerchiamo quindi una stima di ‖ u1(t, y) ‖ per
t ∈ (t0, t0 + T ].
‖ u1(t, y) ‖ =
∣∣∣∣∣∣∣∣∫ t
t0
[f(s, y)− f(y)]ds∣∣∣∣∣∣∣∣ ≤
∫ t
t0
‖ [f(s, y)− f(y)] ‖ ds ≤
∫ t0+T
t0
‖ [f(s, y)− f(y)] ‖ ds ≤∫ t0+T
t0
[‖ f(s, y) ‖ − ‖ f(y) ‖]ds ≤
≤∫ t0+T
t0
2Mds = 2MT ;
abbiamo quindi la seguente stima
‖ u1(t, y) ‖ ≤ 2MT (1.13)
La funzione (1.11) soddisfa la seguente equazione di�erenziale:
.z (t) = εf(t, y(t)) + ε2∇u1(t, y(t))f(y(t)) (1.14)
1.2 Teorema della Media 14
Infatti:
z(t) = y(t) + εu1(t, y(t))
⇒ .z (t) =
.y (t)+ε
d(u1(t, y(t)))
dt= εf(y(t))+ε∇u1(t, y(t))dy
dt+ε
∂(u1(t, y(t)))
∂t=
= εf(y(t)) + ε2∇u1(t, y(t))f(y(t)) + ε[f(t, y(t))− f(y(t))− f(0, y0) + f(y0)] =
= εf(t, y(t)) + ε2∇u1(t, y(t))f(y(t)).
Sappiamo che
x(t)− z(t) =∫ t
t0
[dx
dt− dz
dt
]dt; (1.15)
quindi calcoliamo
dx
dt− dz
dt= εf(t, x) + ε2g(t, x)− dy
dt− ε∇u1(t, y(t))dy
dt− ε∂(u
1(t, y(t)))
∂t=
= εf(t, x)−εf(t, z)+εf(t, z)+ε2g(t, x)− dydt−ε∇u1(t, y(t))dy
dt−ε∂(u
1(t, y(t)))
∂t=
= εf(t, x)− εf(t, z) +R,
dove
R = εf(t, z) + ε2g(t, x)− dy
dt− ε∇u1(t, y(t))dy
dt− ε∂(u
1(t, y(t)))
∂t=
= εf(t, z)− εf(t, y)− ε2∇u1(t, y(t))f(y) + ε2g(t, x).
Chiaramente si ha l'esistenza di una costante k tale che ‖ R ‖≤ kε2. Infatti:
• dalle ipotesi su f si ottiene l'esistenza di una costante di Lipschitz L ≤M
tale che
‖ f(t, z(t))− f(t, y(t)) ‖≤ L ‖ z(t)− y(t) ‖≤ 2εLMT ;
• ricordando che u1 e una funzione costruita a partire da f si ha
‖ ∇u1(t, y(t))f(y(t)) ‖=∣∣∣∣∣∣∣∣∫ t
t0
∇[f(t, y(t))− f(y(t))]dtf(y(t))∣∣∣∣∣∣∣∣ ≤
≤∫ t
t0
‖ ∇[f(t, y(t))− f(y(t))] ‖ dt ‖ f(y(t)) ‖≤ 2M2T ;
• ‖ g(t, x) ‖≤M .
1.2 Teorema della Media 15
La (1.15) diventa
‖ x(t)− z(t) ‖≤∫ t
t0
∣∣∣∣∣∣∣∣dxdt − dz
dt
∣∣∣∣∣∣∣∣ dt ≤≤∫ t
t0
‖ f(t, x)− f(t, z) ‖ dt+ kε2(t− t0).
Dalla lipschitzianità di f si ha
‖ x(t)− z(t) ‖≤∫ t
t0
L ‖ x(t)− z(t) ‖ dt+ kε2(t− t0). (1.16)
Applicando il Gronwall Lemma alla (1.16), con le costanti δ1 = εL, δ2 = kε2 e
δ3 = 0, si ottiene:
‖ x(t)− z(t) ‖≤ kε
LeεL(t−t0) − kε
L;
quindi ricordando la (1.13)
‖ x(t)− y(t) ‖=‖ x(t)− y(t) + y(t)− z(t) ‖≤‖ x(t)− y(t) ‖ + ‖ y(t)− z(t) ‖≤
≤ ε(k
LeεL(t−t0) − k
L
)+ 2εMT.
Di conseguenza per tempi di ordine 1/ε (ε −→ 0 ) si ha
x(t) = y(t) +O(ε).
�
Osservazione 1.3.
O(ε) = ε
[k
L(eL − 1) + 2MT
]= εG(M,L).
dove G è una costante dipendente da L e M . In particolare G(M,L) è crescente
in M , che rappresenta il limite superiore del campo vettoriale (1.9). Il dato
iniziale x0 �ssa una regione in cui stanno le soluzioni per tempi di ordine ε che
può essere più o meno grande a seconda dell'evoluzione delle stesse. Questo fatto
implica che la dipendenza di M da x0 sia la stessa con cui il campo (1.9) dipende
dalla variabile lenta x. Ciò sarà reso evidente negli esempi che proporremo nella
sezione successiva.
1.3 Esempi 16
1.3 Esempi
Consideriamo ora tre esempi che, seppur semplici, sono signi�cativi per capire
e approfondire il contenuto del Teorema della Media per problemi
.x= εg(t, x)
dove g(t, x) = l(t)h(x) soddisfa tutte le ipotesi richieste dal teorema. Il vantag-
gio di considerare tali esempi è che trattano equazioni di�erenziabili a variabili
separabili, quindi integrabili; di conseguenza possiamo andare direttamente a con-
frontare la soluzione di queste ultime con quella del problema mediato (anch'esso
integrabile).
1.3.1 Esempio 1
Alla luce dell'osservazione (1.1) proponiamo un esempio in cui possiamo ap-
plicare il Teorema della Media nonostante la soluzione non esista per tutti i tempi.
Consideriamo il problema:
.x= ε sin2(t)x2; x0 = x(0). (1.17)
Calcoliamo f(y):
f(y) =1
2π
∫ 2π
0ε sin2(t)y2dt =
εy2
2π
∫ 2π
0sin2(t)dt =
εy2
2π
∫ 2π
0
(eit − e−it)2
(2i)2dt =
=εy2
2π
∫ 2π
0
e2it + e−2it − 2
−4dt =
εy2
2π
∫ 2π
0−1
2
e2it + e2it
4dt =
=εy2
2π
∫ 2π
0
1
2− 1
2cos(2t)dt =
εy2
2π
[t
2− sin(2t)
4
]2π0
=εy2
2.
Quindi dobbiamo confrontare le soluzioni di (1.17) con le soluzioni di
.y=
εy2
2; y0 = x0. (1.18)
Determiniamo ora la soluzione di (1.17):
dx
dt= ε sin2(t)x2 ⇒ dx
x2= ε sin2(t)dt
⇒∫ x
x0
dx′
x′2=
∫ t
0ε sin2(t′)dt′ ⇒
[− 1
x′
]xx0
=
[t′ + sin(t′) cos(t′)
2
]t0
⇒ 1
x(t)=
1
x0− t+ sin(t) cos(t)
2⇒ 1
x(t)=
4− ε2x0t+ εx0 sin(2t)
4x0
1.3 Esempi 17
⇒ x(t) =4x0
4− ε(2x0t+ x0 sin(2t)).
Dobbiamo imporre la condizione
4− 2ε(2x0t+ x0 sin(2t)) 6= 0.
Il termine εx0 sin(2t) è oscillatorio di ordine ε e non incide considerevolmente
sull'ampiezza dell'intervallo temporale dove esiste la soluzione, quindi, trascu-
randolo, osserviamo che la soluzione esiste per t ∈ [0,2
εx0]. Ha senso applicare il
Teorema della Media in quanto esso o�re una stima per tempi di ordine1
εe per
tali tempi è garantita l'esistenza della soluzione. Ora determiniamo la soluzione
del problema mediato (1.18):
dy
dt= ε
y2
2⇒ dy
y2= ε
1
2dt
⇒∫ y
x0
dy′
y′2=
∫ t
0ε1
2dt′ ⇒
[− 1
y′
]yx0
=
[εt
2
]t0
⇒ 1
y(t)=
1
x0− ε t
2⇒ 1
y(t)=
2− εx0t2x0
⇒ y(t) =2x0
2− εx0t.
Anche la soluzione y(t) esiste per t ∈[0,
2
εx0
]. Dato che entrambe le soluzioni
esistono per 0 ≤ t ≤ 2
x0εe le ipotesi del Teorema della Media sono soddisfatte
dovremmo ottenere per tali tempi un controllo sulla quantità | x(t) − y(t) |. In
questo caso possiamo procedere direttamente:
| x(t)− y(t) |=∣∣∣∣ 4x04− ε(2x0t+ x0 sin(2t))
− 2x02− εx0t
∣∣∣∣ ==
∣∣∣∣4x0(2− εx0t)− 2x0(4− 2ε(2x0t+ x0 sin(2t)))
(2− εx0t)(4− 2ε(2x0t+ x0 sin(2t)))
∣∣∣∣ ==
| 2εx20 sin(2t) || (2− εx0t)(4− ε(2x0t+ x0 sin(2t))) |
≤
≤ | 2εx20 || (2− εx0t)(4− ε(2x0t+ x0 sin(2t))) |
≤
≤ | 2εx20 || (2− εx0t)(4− ε(2x0t+ 1))) |
.
1.3 Esempi 18
Poichè 4− ε(2x0t+ x0 sin(2t)) è positivo per tempi 0 ≤ t ≤ 1
εe sin(2t) ≤ 1 ∀t.
Continuando e limitandoci ai tempi 0 ≤ t ≤ 1
ε, si ha proprio il risultato espresso
dal Teorema della Media
| x(t)− y(t) | | ≤ ε∣∣∣∣ 2x20(2− x0)(4− (2 + ε)x0)
∣∣∣∣'∣∣∣∣ 2x202(2− x0)2
∣∣∣∣ = G1ε.
Figura 1.1: Rappresentazione in coordinate polari (raggio x(t), angolo t) delle soluzioni
di (1.17) e (1.18), quest'ultima in linea tratteggiata, con x0 = 1.5, ε = 0.05 per tempi
1/ε.
In questo esempio la costante che moltiplica ε dipende dal dato iniziale; in
particolare G1 dipende da x20; questo conferma quanto detto nell'osservazione
(1.3) in quanto il campo vettoriale in (1.17) dipende da x2. Osserviamo che il
dato iniziale non può essere scelto arbitrariamente, quindi possiamo distinguere
tre casi:
• Per x0 � 2 si ha che1
ε� 2
x0ε; di conseguenza le soluzioni non si avvicinano
al bordo dell'intervallo di esistenza
[0,
2
x0ε
]in tempi 0 ≤ t ≤ 1
x0ε. Per
1.3 Esempi 19
Figura 1.2: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle
soluzioni di (1.17) e (1.18), quest'ultima in linea tratteggiata, con x0 = 1.5, ε = 0.05 per
tempi 1/ε.
questi tempi, studiando numericamente il problema, si ottiene
4 | x(t)− y(t) |≤ ε.
• Per x0 ' 2 si ha che1
ε' 2
x0ε; di conseguenza le soluzioni sono vicine al
rispettivo asintoto verticale, cioè la retta x =2
x0ε, divergendo rapidamente.
Ciò impedisce di avere un controllo di ordine ε su | x(t)− y(t) |.
• Per x0 ≥ 2 si ha che, studiando numericamente il problema, le soluzioni
raggiungono sempre la zona critica rendendo impossibile un controllo sulla
quantità | x(t)− y(t) |.
1.3.2 Esempio 2
Consideriamo il problema:
.x= ε sin2(t)x; x0 = x(0) ≥ 0. (1.19)
Dall'esempio precedente si ha f(y) =εy
2. Quindi dobbiamo confrontare le
soluzioni di (1.19) con le soluzioni di
.y= ε
y
2; y0 = x0 ≥ 0. (1.20)
1.3 Esempi 20
Determiniamo ora la soluzione di (1.19) supponendo x > 0:
dx
dt= ε sin2(t)x ⇒ dx
x= ε sin2(t)dt
⇒∫ x
x0
dx′
x′=
∫ t
0ε sin2(t′)dt′ ⇒
[ln(x′)
]xx0
=
[εt′ + sin(t′) cos(t′)
2
]t0
⇒ ln(x(t)) = ln(x0) + εt+ sin(t) cos(t)
2⇒ x(t) = x0e
εt+sin(t) cos(t)
2 .
Per la soluzione di (1.20) abbiamo
dy
dt= ε
y
2⇒ dy
y=ε
2dt
⇒∫ y
y0
dy′
y′=
∫ t
0
ε
2dt′ ⇒
[ln(y′)
]yy0
=[ ε2t′]t0
⇒ ln(y(t)) = ln(y0) +ε
2t ⇒ y(t) = x0e
ε2t.
Confrontando le due soluzioni si ottiene
| x(t)− y(t) |= x0eεt+sin(t) cos(t)
2 − x0eε2t =
= x0eε2t(eε
sin(t) cos(t)2 − 1
)≤ x0e
ε2t(eε4 − 1
)=
= x0
[eε2t+ ε
4 − eε2t]=
= x0
[ ∞∑n=0
(ε2 t+
ε4
)nn!
−∞∑n=0
(ε2
)nn!
]=
x0
[( ε2t+
ε
4
)− ε
2t+
(ε2 t+
ε4
)22
−(ε2 t)2
2+
(ε2 t+
ε4
)36
−(ε2 t)3
6+ ......
]=
x0
ε4+
(ε2
4 + ε2
4 t)
2+
(3ε3
16 t2 + 3ε3
32 t+ε3
64
)36
+ ......
.Per tempi 0 ≤ t ≤ 1
εogni termine dell'espressione rimane di ordine maggiore o
uguale a ε, trascurando quelli di ordine maggiore (cioè ε2, ε3, etc), abbiamo
| x(t)− y(t) |≤ x0[ε
4+ε
8+
3ε
96+ ......
]= x0
[ ε2+ε
4+
ε
16+ ......
]=
= x0
[ε
4
(1 +
1
2+
1
8+ ......
)]= x0
[ε
4
( ∞∑n=0
(12)n
n!
)]=| x0 |
ε
4e
12 = G2ε.
1.3 Esempi 21
Figura 1.3: Rappresentazione in coordinate polari (raggio x(t), angolo t) delle soluzioni
di (1.19) e (1.20), quest'ultima in linea tratteggiata, con x0 = 0.3, ε = 0.05 per tempi
1/ε.
La costante G2 e il campo vettoriale in (1.19) dipendono linearmente dal dato
iniziale. Anche in questo caso quindi l'osservazione (1.3) risulta veritiera.
In questo caso non si hanno problemi riguardo la scelta del dato iniziale in
quanto la soluzione è de�nita per tutti i tempi; è necessario, una volta �ssato
ε, scegliere x0 di modo che la quantità | x0 |ε
4e
12 si mantenga di ordine ε.
Nell'ultimo gra�co abbiamo rappresentato una soluzione per tempi1
ε2; la distanza
| x(t)−y(t) | non si mantiene di ordine ε nonostante le orbite, x(t) e y(t), abbiamo
un comportamento simile.
1.3 Esempi 22
Figura 1.4: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle
soluzioni di (1.19) e (1.20), quest'ultima in linea tratteggiata, con x0 = 0.3, ε = 0.05 per
tempi 2/ε.
Figura 1.5: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle
soluzioni di (1.19) e (1.20), quest'ultima in linea tratteggiata, con x0 = 0.3, ε = 0.1 per
tempi 1/ε2.
1.3 Esempi 23
1.3.3 Esempio 3
Possiamo trovare casi, come il seguente, dove il risuultato o�erto dal Teorema
della Media vale per tutti i tempi per cui esiste la soluzione. Consideriamo il
problema:.x= εg(t); x0 = x(0). (1.21)
dove, come richiesto dal Teorema della Media, g è una funzione periodica in t
di periodo T ; inoltre g e g′ sono limitate dalla costante M . Quindi dobbiamo
confrontare le soluzioni di (1.21) con le soluzioni di
.y= εg; y0 = x0. (1.22)
Integrando le equazioni di�erenziali (1.21), (1.22) e ponendo g = g̃+g otteniamo
rispettivamente le soluzioni
x(t) = ε
∫ t
0g(t)dt′ = ε
∫ t
0[g̃(t) + g]dt′ = G̃(t) + gt+ x0,
y(t) = ε
∫ t
0gdt′ = gt+ x0;
⇒ | x(t)− y(t) |= ε | G̃(t) |= ε
∫ t
0g̃dt′ ≤ ε
∫ T
0g̃dt′ ≤
≤ ε∫ T
0Mdt′ = εMT.
In questo caso notiamo che l'esistenza delle soluzioni è garantita per tutti i
tempi. La funzione x(t)−y(t) è, infatti, periodica poichè primitiva di una funzione
a media nulla (vedi lemma (1.2)); questo ci fa intuire che il risultato o�erto dal
Teorema della Media vale per tutti i tempi; le soluzioni distano al massimoε
2per
tutti i tempi in quanto il campo vettoriale in (1.21) è indipendente da x.
Osserviamo come anche in questo esempio, essendo il campo vettoriale in
(1.21) indipendente da x, la costante G3 è indipendente dal dato iniziale in ac-
cordo con l'osservazione (1.3). Per la rappresentazione gra�ca di questo esempio
abbiamo scelto la funzione g(t) = sin2(t).
1.3 Esempi 24
Figura 1.6: Rappresentazione in coordinate polari (raggio x(t), angolo t) delle soluzioni
di (1.21) e (1.22), quest'ultima in linea tratteggiata, con g(t) = sin2(t), x0 = 0.1, ε = 0.05
per tempi 3/ε.
Figura 1.7: Rappresentazione in coordinate cartesiane (ordinate x(t), ascisse t) delle
soluzioni di (1.21) e (1.22), quest'ultima in linea tratteggiata, con g(t) = sin2(t), x0 =
0.1, ε = 0.05 per tempi 3/ε.
Capitolo 2
Teorema della Media nel caso
anisocrono
2.1 Teorema della Media
Consideriamo il segeuente sistema di l+1 equazioni di�erenziali costituito da
l variabili lente e una variabile veloce:
Xε =
{ .ϕ= ω(I) + εg(I, ϕ).I= εf(I, ϕ)
dove ϕ mod 2π ∈ S1, I ∈ G ⊂ Rl, f(I, ϕ+ 2π) = f(I, ϕ), g(I, ϕ+ 2π) = g(I, ϕ).
Inoltre consideriamo il sistema mediato:
Xε =
{ .ϕ= ω(J) + εg(J).J= εf(J)
dove f(J) =1
2π
∫ 2π
0f(J, ϕ)dϕ, g(J) =
1
2π
∫ 2π
0g(J, ϕ)dϕ.
Chiamiamo con I(t), ϕ(t) le soluzioni di Xε con condizioni iniziali I(0), ϕ(0)
e J(t) la soluzione di Xε con dato iniziale J(0) = I(0).
Teorema 2 (Della Media). Supponiamo che:
• ω,f ,g sono funzioni de�nite per I in una regione limitata G e ivi siano
limitate, così come le loro derivate �no al secondo ordine:
‖ ω, f, g ‖C2(G×S1)≤ c1;
• nella regione G si ha ω(I) > c > 0;
25
2.1 Teorema della Media 26
Figura 2.1: Teorema della Media.
• per 0 ≤ t ≤ 1
εun intorno di raggio d del punto J(t) sta in G cioè: J(t) ∈
G− d 1.
Allora esiste ε∗(c, d, c1) tale che per ε ≤ ε∗(c, d, c1) si ha:
| I(t)− J(t) |≤ c6ε ∀t | 0 ≤ t ≤ 1
ε(2.1)
dove c6 = c6(c1, c, d) > 0 indipendente da ε.
Dimostrazione. Introduciamo una trasformazione ε-vicino all'identità 2 che
modi�ca solo la coordinata I
T = (1,1+ εk) : (ϕ, T ) −→ (ϕ, P ) = (ϕ, I + εk(ϕ, I)).
In sintesi consideriamo
P = I + εk(ϕ, I) (2.2)
dove k è una funzione periodica in ϕ di periodo 2π, scelta in modo tale che P
evidenzi il ruolo del termine di media. Inoltre dobbiamo chiedere ε ≤ ε1, dove
ε1 ∈ R+ dipendente da ‖ k ‖C2 sia �ssato in modo tale che la trasformazione sia
e�ettivamente ε-vicina all'identità. Si ha:
.P=
.I +ε
∂k
∂I
.I +ε
∂k
∂ϕ
.ϕ= εf(I, ϕ)+ ε
∂k
∂ϕω(I)+ ε2
∂k
∂ϕg(I, ϕ)+ ε2
∂k
∂ϕf(I, ϕ). (2.3)
Ora supponiamo che (2.2) sia invertibile (cosa che dimostreremo in seguito);
invertendo (2.2) si ottiene:
I = P + εh(P,ϕ, ε), (2.4)
dove h è una funzione periodica in ϕ di periodo 2π.
1Con G− d indichiamo l'insieme dei punti p per i quali la bolla aperta di raggio d centrata
in p è contenuta in G.2Denotiamo l'identità con 1.
2.1 Teorema della Media 27
Figura 2.2: Idea della prova del Teorema della Media.
Osservazione 2.1. Notiamo che h dipende da ε. Consideriamo un esempio
semplice:
P = I − εI = I (1− ε)
⇒ I =
(1
1− ε
)P = P
(+∞∑i=0
εi
)= P + P
(+∞∑i=1
εi
)= P + P
(ε+∞∑i=1
εi−1
)=
= P + ε
(P
+∞∑i=0
εi
).
Quindi h risulta dipendente da ε. Questo poichè se lo sviluppo di Taylor in ε di
una funzione è �nito non è detto che anche quello dell'inversa lo sia.
Applicando la (2.4) alla (2.3) si ottiene:
.P= ε
[f(P + εh, ϕ) +
∂k
∂ϕω(P + εh)
]+ ε2
[∂k
∂If(P,ϕ) +
∂k
∂ϕf(P,ϕ)
]. (2.5)
Per quanto riguarda i termini di ordine ε in (2.5), posto P̃ = P + ε̃h calcoliamo
lo sviluppo di Taylor arrestato al primo ordine e centrato in ε = 0 con resto di
lagrange:
• εf(P + εh, ϕ) = εf(P,ϕ) + ε2h∂f
∂I(P̃ , ϕ);
• ε ∂k∂ϕ
ω(P + εh) = ε∂k
∂ϕ
(ω(P ) + εh
∂ω
∂I(P̃ )
).
Di conseguenza la (2.5) diventa
.P= ε
[f(P,ϕ) +
∂k
∂ϕω(P )
]+
+ε2[h∂f
∂I(P̃ , ϕ) + h
∂k
∂ϕ
∂ω
∂I(P̃ ) +
∂k
∂If(P,ϕ) +
∂k
∂ϕg(P,ϕ)
].
2.1 Teorema della Media 28
Calcoliamo separatamente le stime di ogni addendo del termine di ordine ε2
supponendo che le funzioni h e k, così come le loro derivate �no al secondo ordine,
siano limitate rispettivamente dalle costanti c4 e c3.
• ε2h∂f∂I
(P̃ , ϕ) ≤ ε2 ‖ h ‖C0‖ f ‖C1≤ ε2 ‖ h ‖C2‖ f ‖C2≤ ε2c4c1;
• ε2h∂k∂ϕ
∂ω
∂I(P̃ )) ≤ ε2 ‖ h ‖C0‖ k ‖C1‖ ω ‖C1≤ ε2 ‖ h ‖C2‖ k ‖C2‖ ω ‖C2
≤≤ ε2c4c3c1;
• ε2∂k∂If(P,ϕ) ≤ ε2 ‖ k ‖C1‖ f ‖C0≤ ε2 ‖ k ‖C2‖ f ‖C2≤ ε2c3c1;
• ε2 ∂k∂ϕ
g(P,ϕ) ≤ ε2 ‖ k ‖C1‖ g ‖C0≤ ε2 ‖ k ‖C2‖ g ‖C2≤ ε2c3c1.
Anche in questo caso dobbiamo chiedere ε, ε̃ ≤ ε2 dove ε2 ∈ R+ dipende da
‖ h ‖C2 e viene �ssato in modo tale che applicando la trasformazione (2.4) non
si esca da G (come indicato in �gura (2.2)). Infatti fuori da G tutte le stime
fatte risultano inconsistenti. Quindi per ε, ε̃ ≤ ε2 si ha P̃ = P + ε̃h ∈ G dove le
funzioni h, k sono controllate rispettivamente dalle costanti c4, c3, mentre ω, f, g
sono controllate da c1. Riscriviamo ora l'espressione di.P in considerazione degli
ultimi risultati:.P= ε
(f(P,ϕ) +
∂k
∂ϕω(P )
)+
+ε2(h∂f
∂I(P̃ , ϕ) + h
∂k
∂ϕ
∂ω
∂I(P̃ ) +
∂k
∂If(P,ϕ) +
∂k
∂ϕg(P,ϕ)
)=
= ε
(f(P,ϕ) +
∂k
∂ϕω(P )
)+ ε2 (c4c1 + c4c3c1 + c3c1 + c3c1) .
Abbiamo ottenuto il seguente risultato:
.P= ε
[f(P,ϕ) +
∂k
∂ϕω(P )
]+R, (2.6)
dove R è un termine del secondo ordine in ε
‖ R ‖C0≤ c2ε2, (2.7)
con c2 = c2(c1, c3, c4).
La relazione (2.7) vale se e solo se sono soddisfatte le stime per h, k, ω, f, g ovvero:
‖ ω, f, g ‖C2≤ c1; ‖ k ‖C2≤ c3; ‖ h ‖C2≤ c4. (2.8)
Per giusti�care il precedente risultato non ci resta che dimostrare le stime che
coinvolgono le funzioni k e h.
2.1 Teorema della Media 29
Per quanto riguarda k è naturale sceglierla in modo tale che in (2.6) il termine
di ordine ε si annulli cioè tale che sia soddisfatta la seguente equazione detta
omologica:
f(P,ϕ) +∂k
∂ϕω(P ) = 0 ⇔ f(P,ϕ) = − ∂k
∂ϕω(P ). (2.9)
Dato che k è una funzione periodica in ϕ di periodo 2π, il valore medio della sua
derivata rispetto ϕ è nullo. Ciò può essere dedotto attraverso un calcolo diretto.
Poniamo:
k(P,ϕ) =
∫ ϕ
0
∂k(P,ϕ′)
∂ϕ′dϕ′,
k(P,ϕ+ 2π) =
∫ ϕ+2π
0
∂k(P,ϕ′)
∂ϕ′dϕ′ =
∫ ϕ
0
∂k(P,ϕ′)
∂ϕ′dϕ′ +
∫ 2π
0
∂k(P,ϕ′)
∂ϕ′dϕ′,
k(P,ϕ) = k(P,ϕ+ 2π) ⇒∫ 2π
0
∂k(P,ϕ′)
∂ϕ′dϕ′ = 0.
In generale invece il valore medio di f(P,ϕ)1/ω(P ) è diverso da zero e quindi
non posso scegliere k in modo da eliminare il termine di ordine ε in (2.6). Si
può però ottenere una sempli�cazione signi�cativa osservando che è soddisfatta
la seguente equazione omologica:
f̃(P,ϕ) +∂k
∂ϕω(P ) = 0 ⇔ f̃(P,ϕ) = − ∂k
∂ϕω(P ) (2.10)
dove f̃(P,ϕ) = f(P,ϕ)− f(P ), f(P ) = 1
2π
∫ 2π
0f(P,ϕ)dϕ.
Abbiamo quindi
k(P,ϕ) = −∫ ϕ
0
∂f̃(P,ϕ′)
ω(P )dϕ′. (2.11)
Notiamo che in (2.11) compare a denominatore il fattore ω(P ), quindi per valori
di ω(P ) piccoli rispetto a ε la trasformazione T , introdotta all'inizio tramite la
(2.2), non è più ε-vicina all'identità; di conseguenza il risultato non può essere
più garantito. Alla luce di quest'ultima osservazione si capisce l'importanza del-
l'ipotesi ω(I) > c > 0 in G.
Sappiamo inoltre che supG×S1 ‖ f̃(P,ϕ) ‖≤ supG×S1 ‖ f(P,ϕ) ‖≤ c3.
⇒ ‖ k(P,ϕ) ‖C2 ≤
∣∣∣∣∣∣∣∣∣∣∫ ϕ
0
∂f̃(P,ϕ′)
ω(P )dϕ′
∣∣∣∣∣∣∣∣∣∣C2
≤∫ ϕ
0
∣∣∣∣∣∣∣∣∣∣∂f̃(P,ϕ′)ω(P )
∣∣∣∣∣∣∣∣∣∣C2
dϕ′ ≤
≤∫ 2π
0
∣∣∣∣∣∣∣∣∣∣∂f̃(P,ϕ′)ω(P )
∣∣∣∣∣∣∣∣∣∣C2
dϕ′ ≤∫ 2π
0
c1cdϕ′ = 2π
c1c
= c3(c1, c).
2.1 Teorema della Media 30
Di conseguenza la scelta di ε1, atta a garantire che la traformazione (2.2) sia
ε-vicina all'identità, dipende dalle costanti c1, c (cioè ε = ε(c1, c)).
Per quanto riguarda la stima su h dobbiamo prima di tutto mostrare che (2.2)
è invertibile. Introduciamo il seguente
Lemma 2.1. Fissato un numero positivo α, se ε è su�cientemente piccolo (in
particolare ε ≤ ε2), la restrizione della mappa (2.2) (�ssato un ϕ ∈ S1) alla
regione G − α è un di�eomor�smo. Il di�eomor�smo inverso (2.4) soddisfa,
nella regione G− 2α, la stima
‖ h ‖C2≤ c4,
dove c4 = c4(α, c3) > 0.
Dimostrazione. Per garantire l'invertibilità dell'applicazione (2.2) dimostriamo
che è biettiva nella regione G−α. Sappiamo che la funzione k soddisfa la condizio-
ne di Lipschitz; esiste cioè una costante L(α, c3) tale che ∀I1, I2 ∈ G−α, I1 6= I2.
Abbiamo
| k(I1)− k(I2) |≤ L(α, c3) | I1 − I2 |
⇒ ε | k(I1)− k(I2) |≤ εL(α, c3) | I1 − I2 |,
se scelgo ε ≤ ε3 dove ε3 piccolo in modo da avere ε3L(α, c3) ≤ 1 (quindi ε3 =
ε3(α, c, c1))
⇒ ε | k(I1)− k(I2) |≤| I1 − I2 |
⇒ I2 + εk(I2) 6= I1 + εk(I1).
L'applicazione (2.2) è biettiva e quindi invertibile.
Abbiamo ristretto l'applicazione (2.2) alla regione G − α per garantire che,
per ε minori di un certo ε4 = ε(α, c1, c), l'immagine I+ εk(I, ϕ) non uscisse da G.
Infatti fuori da G non valgono più le stime per le funzioni ω, f, g, k. Per lo stesso
motivo consideriamo l'applicazione inversa (2.4) ristretta alla regione G − 2α e
giusti�chiamo l'introduzione della soglia ε2 per ε .
Per ottenere la stima su h in G − 2α utilizziamo il teorema della funzione
implicita per il problema
Z(I, P, ε) = P − I − εk(I, ϕ) = 0.
Stiamo cercando una funzione del tipo I = z(P, ε). Veri�chiamo le ipotesi del
teorema:
• nel punto (I, I, 0) si ha Z(I, I, 0) = 0 ∀I ∈ G− α, ∀ϕ ∈ S1;
2.1 Teorema della Media 31
• la derivata parziale dIZ(I, P, ε) = −1− εdIk(I) ⇒ dIZ(I, I, 0) = −1.
Dal teorema della funzione implicita segue che esiste un intorno di (I, I, 0)
che sarà della forma G − 2α × U(0) ⊂ G × R+ (in quanto I è libero di variare
nella regione G− α dove è de�nita la funzione I = z(P, ε)). Per questa funzione
abbiamo
dP z(P, ε) = −[dIZ]−1[dPZ] = [1+ εdIk(I)]−1[1].
Dall'espressione di dP z(P, ε) in cui compare k ( limitata in G − 2α) si deduce
l'esistenza di una costante c4 dipendente da α e da c3 tale che
‖ h ‖C2≤ c4.
�
Abbiamo dimostrato la veridicità di tutte le stime che compaiono in (2.8) e
di conseguenza la stima su R espressa dalla (2.7). Inoltre dalla relazione (2.11)
per k abbiamo che la (2.6) diventa
.P= εf(P ) +R. (2.12)
Ora confrontiamo la (2.12) con
.J= εf(J). (2.13)
Ci occupiamo di stimare la quantità Z(t) = P (t)−J(t). Derivando tale quantitàrispetto al tempo, ricordando | R |≤ c2ε2, otteniamo:
.Z= ε(f(P )− f(J)) +R. (2.14)
Dal teorema di Lagrange segue:
.Z= ε
∂f
∂P(P̂ )Z +R.
Per quanto riguarda il dato iniziale invece abbiamo:
| Z(0) | = | P (0)− J(0) | = | P (0)− I(0) + I(0)− J(0) |
≤ | P (0)− I(0) | + | I(0)− J(0) | = | P (0)− I(0) | ≤ εc3.
Applicando le stime otteniamo:
|.Z| ≤ εc1 | Z | +c2ε2; | Z(0) | ≤ εc3. (2.15)
Per procedere con le stime introdiciamo il
2.1 Teorema della Media 32
Lemma 2.2. Siano t, a, b, d ≥ 0. Se |.Z|≤ a | Z | +b e | Z(0) |≤ d allora
| Z(t) |≤ (d+ bt)eat.
Dimostrazione. Considero:{ .Y (t) = aY (t) + b
| Y (0) |= d
Sappiamo che la soluzione Z(t) è minore di Y (t). Cerco Y (t) tale che
Y (t) = C(t)eat.
Determiniamo la soluzione C(t)
.C (t)eat + aC(t)eat = aC(t)eat + b
⇒.C (t) = be−at C(0) = d
⇒ C(t) =
∫ t
0be−at = − b
a[e−at]t0 = −
b
ae−at+
b
a+ d =
b
a(1− e−at) + d ≤ d+ bt
⇒ Z(t) ≤ Y (t) ≤ (d+ bt)eat.
In questo modo il lemma resta dimostrato. �
Applicando il risultato o�erto dal lemma 2 alla (2.15) e considerando che in
questo caso si ha a = c1ε, b = c2ε2 e d = c3ε otteniamo:
| Z(t) | ≤ (εc3 + ε2c2t)e−εc1t. (2.16)
Considerando la (2.16) per tempi 0 ≤ t ≤ 1
εsi ha la seguente stima
| Z(t) | ≤ εc5, (2.17)
dove c5 = (c3 + c2)e−c1 .
Notiamo che �n'ora abbiamo chiesto ε su�cientemente piccolo per garantire
tutti i risultati ottenuti. Più precisamente:
• ε ≤ ε1(c1, c) per garantire che la trasformazione (2.2) sia ε vicina all'identità;
• ε ≤ ε2(c1, c, α); infatti per assicurare che l'immagine della trasformazione
(2.2), ristretta a G − α, non esca da G dobbiamo garantire che la tra-
sformazione inversa (2.4) ristretta alla regione G − 2α sia contenuta in
G− α;
• ε ≤ ε3(c1, c, α) per dimostrare la biettività di (2.2) nella regione G− α;
2.1 Teorema della Media 33
• ε ≤ ε4(c1, c, α) in questo modo la trasformazione (2.2) ristretta a G − αrimane in G;
Queste richieste, che chiaramente devono valere su tempi 0 ≤ t ≤ 1/ε, possono
essere riassunte chiedendo ε ≤ ε∗ dove ε∗ = ε∗(c1, c, α).
Scegliamo α = d/3. Per ipotesi J(t) ∈ G − d, inoltre, per ε ≤ ε∗(c1, c, d),
l'immagine della trasformazione inversa (2.4) ristretta a G − 2d/3 non esce da
G−d/3; lo stesso vale per l'immagine di (2.2) ristretta a G−d/3 che quindi rimane
in G. In questo modo i tre movimenti coinvolti J(t), P (t) e I(t) rimangono in G
per i tempi richiesti.
Ci interessa una stima sulla quantità | I(t)− J(t) |:
| I(t)− J(t) | = | I(t)− P (t) + P (t)− J(t) | ≤
≤ | I(t)− P (t) | + | P (t)− J(t) |
Abbiamo quindi dimostrato il risultato (2.1):
| I(t)− J(t) | ≤ c6ε,
dove c6 = c3 + c5 è dipendente da c, c1, d.
�
Osservazione 2.2. Notiamo che i problemi.x= εf(t, x; ε) considerati nella sezio-
ne precedente sono un caso particolare rispetto a quelli trattati nel teorema appena
dimostrato. Infatti ricordando che
.x= εf(t, x; ε) ⇔
{ .x= εf(t, x; ε).t= 1
la variabile x ha il ruolo di variabile lenta e quindi viene identi�cata con I; la
variabile t rappresenta invece la variabile veloce e viene quindi identi�cata con ϕ.
Il caso generale prevede per la variabile veloce l'espressione.ϕ= ω(I) + εg(I, ϕ);
nella sezione precedente abbiamo scelto, per rendere il tempo isocrono, g(I, ϕ) = 0
e ω(I) = 1.
2.2 Esempi 34
2.2 Esempi
Presentiamo ora alcuni esempi
2.2.1 Esempio 1 (media nulla)
Condideriamo il problema { .I= εf(ϕ).ϕ= I
(2.18)
dove f(ϕ) è una funzione periodica a media nulla; il dato iniziale é (I0 = I(0),
ϕ0 = ϕ(0)). Il sistema (2.18) è conservativo e può essere scritto nel seguente
modo:..ϕ= εf(ϕ) = −V ′(ϕ), V (ϕ) = −ε
∫ ϕ
0f(ϕ′)dϕ′.
In questo caso il potenziale è periodico in quanto primitiva di una funzione perio-
dica a media nulla (vedi lemma (1.2)); di conseguenza può essere rappresentato
su un toro S1 = T 1. Il sistema mediato sarà dunque{ .J= 0.ϕ= J
(2.19)
con dato iniziale (J0 = I0, ϕ0). La soluzione di (2.19) è costante: J(t) = I0.
Segue
| I(t)− J(t) |=| I(t)− I0 |=|.ϕ (t)−
.ϕ (0) |= ε
∣∣∣∣∫ t
0f(ϕ(s))ds
∣∣∣∣ .Nello speci�co consideriamo f(ϕ) = sin(ϕ), quindi V (ϕ) = ε cos(ϕ). Ci inte-
ressa capire se possiamo, per ogni scelta del parametro ε e del dato iniziale Io,
applicare il Teorema della Media.
Notiamo che se le orbite raggiungono, in tempi di ordine1
ε, la retta I = 0,
l'ipotesi su ω(I) non è soddisfatta. Infatti nel nostro caso la regioneG, dove hanno
luogo tutte le stime espresse dalle ipotesi del teorema, è G1 = (−c1, c]∪[c, c1)×R,dove c, c1 ∈ R+ sono opportune costanti. Fuori da G1 cade l'ipotesi su ω(I) che
non risulta più inferiormente limitata dalla costante c. Dobbiamo quindi capire
per quali scelte di I0 le orbite non escono da G1 per tempi 0 ≤ t ≤ 1
ε.
I punti di equilibrio sono (0, kπ) con k ∈ Z, instabili se k è pari, stabili se k
è dispari. Dall'espressione relativa all'energia
E =I2
2+ ε cos(ϕ),
2.2 Esempi 35
ricaviamo
I = (2(E − ε cos(ϕ)))12 .
Dato che il potenziale V (ϕ) = ε cos(ϕ) è limitato superiormente da ε e in-
feriormente da −ε, in base all'energia che diamo al sistema, abbiamo tre tipi di
orbita:
• per E ≥ ε abbiamo orbite aperte;
• per E = ε si ottengono tre orbite: l'equilibrio instabile e le due linee
separatrici;
• per −ε ≤ E ≤ ε si ottengono orbite chiuse attorno al punto di equilibrio
stabile.
Figura 2.3: Ritratto di fase del sistema (2.18) con ε = 0.1; riportiamo in rosso le linee se-
paratrici, i punti blu corrispondono agli equilibri; ascisse ϕ(t) in [−2π, 2π] corrispondentea due periodi, ordinate I(t).
Questo esempio è molto importante perchè o�re, in base alla scelta di I0,
problemi di Cauchy dove possiamo applicare il Teorema della Media e altri dove
non sono veri�cate tutte le ipotesi; infatti ponendo E = ε si ottiene:
I = (2(ε− cos(ϕ)))12 ≤
√2(ε+ ε) = 2
√ε.
Ciò signi�ca che, posto ϕ0 = −π, per un dato iniziale I0 ≥ 2√ε le orbite sono
aperte e, come si vede dalla �gura (2.3), non escono da G1; mentre per I0 ≤ 2√ε
le orbite sono chiuse e prima o poi escono da G1.
2.2 Esempi 36
Figura 2.4: Confronto tra la soluzione di (2.18),in blu, e la soluzione di (2.19), in
verde, per tempi 0 ≤ t ≤ 1/ε con dati iniziali (0.55,−π) e (0.1,−π); ε = 0.1; ascisse ϕ(t),
ordinate I(t).
Vogliamo veri�care che le orbite chiuse raggiungono la retta I = 0 per tempi
inferiori a1
ε. Per valori di I0 prossimi a 0 possiamo utilizzare l'approsimazione
armonica ottenendo che il periodo è T =2π√ε� 1
ε.
Per valori di I0 inferiori e prossimi a 2√ε il sistema assume un'energia E∗ < ε;
di conseguenza
E∗ =
.ϕ2
2+ ε cos(ϕ) ⇒
.ϕ= ±
√2(E∗ − ε cos(ϕ))
⇒ dϕ
±√2(E∗ − ε cos(ϕ))
= dt.
Determinato l'intervallo di oscillazione [ϕm, ϕM ] = [a−2π, a], dove a = arccos(E/ε),
avendo osservato che il moto è simmetrico rispetto la retta I = 0, si ha
T = 2
∫ ϕM
ϕm
dϕ√2(E∗ − ε cos(ϕ))
.
Attraverso dei calcoli, che non riportiamo per brevità, si ottiene
T ' 2π
ε
(1 +
a2
16+
9ϕ4
1024+ ....
)' 10√
ε<
1
ε.
Le orbite, per ε su�cientemente piccolo, reggiungono la retta I = 0 in tempi
t � 1
ε. Infatti si ha | I(t) − J(t) |'
√ε � ε per tempi inferiori a
1
ε. Questo
comportamento è reso evidente dalla �gura (2.4).
Tuttavia notiamo che, �ssato un dato iniziale I0 qualsiasi, è sempre possibile
scegliere ε in modo tale da poter applicare il Teorema della Media. Basta scegliere
ε ≤ I204.
2.2 Esempi 37
2.2.2 Esempio 2 (media non nulla)
Consideriamo un problema simile a quello precedente con f(ϕ) periodica ma
con media non nulla. In particolare{ .I= ε(2 + sin(ϕ)).ϕ= I
(2.20)
e il sistema mediato { .J= 2ε.ϕ= J
(2.21)
entrambi con il medesimo dato iniziale (I0, ϕ0). Come nell'esempio precedente il
sistema può essere scritto come
..ϕ= εf(ϕ) = −V ′(ϕ), V (ϕ) = −ε
∫ ϕ
0[2 + sin(ϕ′)]dϕ′ = ε(cos(ϕ)− 2ϕ).
Figura 2.5: Ritratto di fase del sistema (2.20) con ε = 0.1; ascisse ϕ(t), ordinate I(t).
Notiamo che se le orbite raggiungono, in tempi di ordine1
ε, la retta I = 0,
l'ipotesi su ω(I) non è soddisfatta. Infatti, anche in questo caso, la regione
G dove hanno luogo tutte le stime espresse dalle ipotesi del teorema è G2 =
(−c1, c] ∪ [c, c1)× R dove c, c1 ∈ R+ sono costanti. Fuori da G2 cade l'ipotesi su
ω(I) che non risulta più inferiormente limitata dalla costante c. Dobbiamo quindi
capire per quali scelte di I0 le orbite non escono da G2 per tempi 0 ≤ t ≤ 1
ε.
In questo caso non vi sono punti di equilibrio e il potenziale non è limitato
(nè inferiormente nè superiormente) quindi tutte le orbite sono aperte come si
2.2 Esempi 38
può vedere dal ritratto di fase. Scegliendo il dato iniziale I0 ∈ G2 abbiamo due
possibilità:
• per I0 positivo le orbite rimangono entro G2 e quindi tutte le ipotesi sono
soddisfatte;
• per I0 negativo non siamo in grado di assicurare che le orbite restino in G
per i tempi richiesti.
Nel secondo caso, se I0 è prossimo alla retta I = 0, le orbite raggiungono
e attraversano la retta I = 0, qualsiasi sia la scelta di ε (vedi �gura (2.6));
di conseguenza il Teorema della media non può essere applicato per lo stesso
motivo che abbiamo ampiamente illustrato nell'esempio precedente. Questo caso
si de�erenzia però da quello precedente poichè cade anche l'ipotesi J(t) ∈ G− dper dati iniziali negativi. Ci si accorge, tuttavia, che per alcuni dati iniziali
(I0, ϕ0), con −1 < I0 � 0, si ottiene ugualmente il risultato nonostante le ipotesi
del teorema non siano soddisfatte; ciò è dovuto, in buona parte, al fatto che
entrambi i sistemi (2.20) e (2.21) sono conservativi e quindi le soluzioni stanno
su curve di livello.
Figura 2.6: Confronto tra la soluzione di (2.20), in blu, e la soluzione di (2.21), in
verde, per tempi 0 ≤ t ≤ 1/ε con dati iniziali (−0.5, 2π) e (−0.3, 2π); ε = 0.01; ascisse
ϕ(t), ordinate I(t).
Fissato un dato iniziale (I0, ϕ0), con −1 � I0 < 0, imponiamo ai sistemi
(2.20) e (2.21) due energie, rispettivamente:
E(I0, ϕ0) =I202
+ ε[cos(ϕ0)− 2ϕ− 1], E(I0, ϕ0) =I202− 2εϕ0.
2.2 Esempi 39
Notiamo che per ϕ0 = 2kπ (k ∈ Z) si ha E(I0, 2kπ) = E(I0, 2kπ) = E. Dato che
l'energia è una costante del moto per entrambi i sistemi otteniamo
W : E =I2
2+ ε[cos(ϕ)− 2ϕ− 1], W : E =
J2
2− 2εϕ.
⇒ I2
2+ ε[cos(ϕ)− 2ϕ− 1]− J2
2+ 2εϕ = 0
Siamo interessati a comprendere come varia la distanza tra le soluzioni quando
esse sono prossime alla retta I = 0, distanza che equivale | ϕ− ϕ |:
ε[cos(ϕ)− 2ϕ− 1] + 2εϕ = 0⇒ ϕ− ϕ =cosϕ− 1
2
di conseguenza
| ϕ− ϕ |= 1 ⇔ ϕ = (2k + 1)π
| ϕ− ϕ |= 0 ⇔ ϕ = (2k)π.
Quindi se scegliamo (I0, 2π) (con −1� I0 < 0) in modo tale che la soluzione di
(2.20) in I = 0 cada in ϕ = 2kπ la distanza tra le soluzioni rimane O(1); mentre
se cade in ϕ = (2k + 1)π le soluzioni coincidono.
2.2.3 Esempio 3
Negli esempi precedenti abbiamo visto che senza l'ipotesi ω(I) > c > 0 non si
ottiene il controllo sulla distanza tra I(t) e J(t) poichè la trasformazione T intro-
dotta nella dimostrazione non rimane ε-vicina all'identità. Si potrebbe pensare
che il problema riguardi solo la tecnica dimostrativa utilizzata e proporre, quindi,
un metodo alternativo facendo a meno della trasformazione T . In realtà, senza
l'ipotesi su ω(I), quello che impedisce di applicare il teorema è che, per valori
di ω(I) � ε, risulta invertito il ruolo delle variabili I e ϕ; di conseguenza l'idea
alla base del principio della media non può essere applicata. Presentiamo ora un
esempio, semplice rispetto ai precedenti, dove il ruolo delle variabili è invertito;
vediamo come il controllo su | I(t)−J(t) | è peggiore di quello o�erto dal teorema.
Consideriamo il problema: { .I= εf(ϕ).ϕ= ε2
Per comodità riscaliamo il tempo ponendo τ = εt; ottenendo{ .I= f(ϕ).ϕ= ε
(2.22)
2.2 Esempi 40
che confrontiamo con { .I= f.ϕ= ε
(2.23)
Per entrambi i sistemi diamo lo stesso dato iniziale (I0, 0) = (I(0), ϕ(0)). La
soluzione del problema (2.22) é
I(τ) = I0 +
∫ τ
0f(ϕ(s))ds ϕ(s) = εs+ ϕ0 = εs
⇒ I(τ) = I0 +
∫ τ
0[f + f̃(εs)]ds = I0 + fτ +
∫ τ
0f̃(εs)ds
⇒ |I(τ)− J(τ)| =∣∣∣∣I0 + fτ +
∫ τ
0f̃(εs)ds− I0 − fτ
∣∣∣∣ ==
∣∣∣∣∫ τ
0f̃(εs)ds
∣∣∣∣Considerindo in particolare f(ϕ) = cos(ϕ), per τ ≤ 1 abbiamo
|I(t)− J(t)| =∣∣∣∣∫ τ
0cos(εs)ds
∣∣∣∣ = ∣∣∣∣sin(ετ)ε
∣∣∣∣ ≤ 1
In questo caso quindi la distanza tra le soluzioni rimane di ordine 1, per
tempi di ordine ε, in quanto per ogni scelta del parametro ε il ruolo delle variabili
è invertito. Questo comporta anche che la trasformazione T non rimane ε-vicina
all'identità:
T : P = I + εk(I, ϕ) = I +ε
ω(I)
∫ ϕ
0ε cos(ϕ′)dϕ′ = I +
∫ ϕ
0cos(ϕ′)dϕ′.
2.2.4 Esempio 4
Consideriamo il problema { .I= εI sin(ϕ).ϕ= I
(2.24)
e quello mediato { .I= 0.ϕ= I
(2.25)
La particolarità di questo esempio è che la dipendeza di.I da I rende la
trasformazione T ε-vicina all'identità anche se l'ipotesi ω(I) > c > 0 non è
sempre soddisfatta. Infatti
k(I, ϕ) =
∫ ϕ
0
I sin(ϕ)
I=
∫ ϕ
0sin(ϕ)
2.2 Esempi 41
Questo permette di ottenere il risultato espresso dal teorema della media nono-
stante le ipotesi dello stesso non siano soddifatte.
I punti di equilibrio sono (I, ϕ) = (0, ϕ); procedendo con la linearizzazione
del sistema in (0, ϕ) si ottiene la seguente matrice rappresentativa
A =
(ε sin(ϕ) 0
1 0
). (2.26)
Per determinare gli autovalori di A dobbiamo risolvere l'equazione∣∣∣∣∣ ε sin(ϕ)− λ 0
1 λ
∣∣∣∣∣ = 0
⇒ −λ(ε sin(ϕ)− λ) = 0 ⇒ λ1 = 0, λ2 = ε sin(ϕ)
Sulla retta I = 0 abbiamo tre tipi di punti di equilibrio:
• instabili per 2kπ < ϕ < (2k + 1)π (k ∈ Z), in quanto λ2 > 0;
• stabili per (2k − 1)π < ϕ < 2kπ, in quanto λ2 < 0;
• per ϕ = kπ si ha λ2 = 0; per capire il comportamento delle soluzioni vicino
a punti di questo tipo è necessario studiare la dinamica del sistema.
Ci occupiamo ora di analizzare la dinamica studiando il segno di.I e
.ϕ.
.I è
positivo per I > 0, 2kπ < ϕ < (2k + 1)π e per I < 0, (2k − 1)π < ϕ < 2kπ,
negativo altrimenti;.ϕ è positivo per I > 0, negativo altrimenti. Supponendo
I 6= 0, possiamo ottenere altre informazioni riguardo il comportamento delle
soluzioni dal seguente calcolo
.I=
dI
dt= εI sinϕ ⇒ dt =
dI
εI sinϕ. (2.27)
.ϕ=
dϕ
dt= I ⇒ dt =
dϕ
I. (2.28)
Eguagliando i secondi membri di (2.27) e (2.28) otteniamo
dI
εI sinϕ=dϕ
I⇒ dI = ε sin(ϕ)dϕ ⇒
∫ I(t)
I0
dI ′ =
∫ ϕ(t)
ϕ0
ε sin(ϕ′)dϕ′
⇒ I(t) = I0 − ε(cos(ϕ)− cos(ϕ0)).
Per dati iniziali lontani dalla retta I0 la distanza tra le soluzioni di (2.24)
e (2.25) rimane di ordine ε per i tempi richiesti. Per dati iniziali prossimi a I0
potrebbe succedere che in tempi inferiori a1
εla soluzione di (2.24) raggiunga la
2.2 Esempi 42
Figura 2.7: Ritratto di fase del sistema (2.24) con ε = 0.1; riportiamo in rosso la retta
di punti di equilibrio; ascisse ϕ(t), ordinateI(t).
retta degli equilibri fermandosi; quella di (2.25) invece, essendo costante, pro-
segue il moto rendendo falso il risultato. Tuttavia possiamo vedere dalla �gura
sottostante come quanto appena detto non accada poichè in prossimità della retta
I = 0 il moto delle soluzioni è molto lento e l'orbita non raggiunge la retta dei
punti di equlibrio in tempi inferiori a1
ε.
Figura 2.8: Confronto tra la soluzione di (2.24), in blu, e la soluzione di (2.25), in verde,
per tempi 0 ≤ t ≤ 1/ε con dati iniziali (−0.01, 0) e (−0.005, 0); ε = 0.01; riportiamo la
retta dei punti di equilibro in rosso; ascisse ϕ(t), ordinateI(t).
Bibliogra�a
[1] V. I. Arnold Mathematical Methods of Classic Mechanics, second edition.
Springer-Verlag New York Inc., 1978.
[2] J. A. Sanders, F. Verhulst Averaging Methods in Nonlinear Dynamical
Systems. Springer-Verlag New York Inc., 1985.
[3] L. Galgani, A. Carati Dispanse del corso di Meccanica Analitica II.
[4] Kolmogorov A. N., Fomin S. V. Elementi di teoria delle Funzioni e di Analisi
Funzionale MIR, 1980
[5] L. Pizzocchero On the average principle for the one-frequency systems J. Phys.
A: Math. Gen. 39 (2006) pp 36733702.
43