Soluzioni solitoniche per l'equazione non lineare di ......Introduzione Nella presente tesi si...

93

Transcript of Soluzioni solitoniche per l'equazione non lineare di ......Introduzione Nella presente tesi si...

  • Università di Cagliari

    DIPARTIMENTO DI MATEMATICA E INFORMATICA

    Corso di Laurea Magistrale in Matematica

    Soluzioni solitoniche per l'equazione non

    lineare di Schrödinger

    e per l'equazione di Heisenberg

    e loro collegamento tramite una mappa

    geometrica

    Relatore:

    Dott. Francesco Demontis

    Candidata:

    Carla Cocco

    Anno Accademico 2016-2017

  • Ai miei �gli: Giulia e Mattia

  • RingraziamentiDopo tre lunghi e intensi anni, �nalmente il giorno è arrivato: scrivere

    queste frasi di ringraziamento è il tocco �nale della mia tesi. È stato un periodo

    di profondo apprendimento, non solo a livello scienti�co, ma anche personale.

    Vorrei spendere due parole di ringraziamento nei confronti di tutte le persone

    che mi hanno sostenuto e aiutato durante questo periodo.

    Prima di tutti vorrei ringraziare il prof. Demontis, relatore di questa tesi di

    laurea, per la sua disponibilità e precisione durante tutto il periodo di stesura.

    Senza di Lui questo lavoro non avrebbe preso vita!

    Un Grazie di cuore per mio Marito, e per i miei �gli, Giulia e Mattia.

    La loro pazienza e disponibilità, insieme al mio impegno, hanno rassicurato e

    favorito, sicuramente, ogni tappa della mia vita universitaria portandomi, così,

    alla concretizzazione dei miei obiettivi.

    Grazie, grazie e mille grazie alle mie sorelle che hanno sempre creduto

    nelle mie capacità e che in tutti questi anni si sono impegnate a sostenermi,

    incoraggiarmi e stimolarmi.

    Alle mie colleghe, in particolare a Stefania, un grazie per aver condiviso con

    me questi anni di studio ed aver avuto un peso determinante nel conseguimento

    di questo risultato.

    Un grazie speciale a mia suocera e ai miei cognati per avermi sempre soste-

    nuto e aver sempre creduto in me.

    In�ne un grande ringraziamento a mia madre e mio padre che, con il loro

    dolce e instancabile sostegno, sia morale che economico, mi hanno permesso di

    arrivare �n qui davanti a voi oggi, contribuendo alla mia formazione personale.

    Un sentito grazie a tutti!

  • Introduzione

    Nella presente tesi si propone di analizzare le soluzioni solitoniche per l'equa-

    zione non lineare di Schrödinger e per l'equazione di Heisenberg e presenta il

    loro collegamento tramite una mappa geometrica. Le soluzioni solitoniche sono

    soluzioni di equazioni di�erenziali (alle derivate parziali) non lineari di evolu-

    zione di tipo travelling waves f(x − ct) che rappresentano onde solitarie. Nel

    primo capitolo descriveremo brevemente le principali proprietà dei solitoni e il

    contesto (dell'integrabilità) in cui appaiono.

    L'equazione non lineare di Schrödinger appartiene alla classe delle equazioni

    NLPDE (nonlinear partial di�erential equations) integrabili nel senso che è pos-

    sibile determinare una coppia di matrici X e T in modo che la condizione di

    curvatura nulla:

    Xt − TX +XT − TX = 0 (1)

    sia soddisfatta, e generi la NLS di partenza. Nota la coppia AKNS di matrici, il

    problema a valori iniziali per la corrispondente equazione non lineare di evolu-

    zione può essere risolto (e da qui deriva il nome integrabile) tramite la tecnica

    nota come Inverse Scattering Transform (IST).

    Nella presente tesi viene analizzata la IST per l'equazione NLS con potenziali

    di tipo vanisching, e quindi con potenziale q(x) e con le sue derivate che tendono

    i

  • ii

    tutte a zero per x→ ±∞. Il problema a valori iniziali per la NLS risulta:

    iqt + qxx ± 2|q|2q = 0

    q(x, o) = q(x) (noto)

    (2)

    e la coppia AKNS che genera l'equazione NLS è la seguente:

    Ψx = AΨ = −(iλσ3 +Q)Ψ; (3)

    Ψt = BΨ = (−2iλ2σ3 − iσ3Q2 + 2λQ+ iσ3Qx)Ψ; (4)

    La prima di queste due equazioni, nota come sistema di Zakharov-Shabat, può

    essere riscritta come:

    iσ3Ψx(x, λ)− iσ3QΨ(x, λ) = λΨ(x, λ) (5)

    L'applicazione della IST al problema (2) prescrive di a�rontare e risolvere i

    tre problemi sotto riportati per giungere alla soluzione di (2):

    1. PROBLEMA DI SCATTERING DIRETTO consiste nella determinazione

    dei dati di scattering corrispondenti al sistema (3), essendo noto il valore

    iniziale del potenziale q(x, 0) = q(x). In particolare, il problema prevede la

    costruzione della cosiddetta matrice di scattering S(λ) (o �S (λ)), la quale

    contiene parte dei dati di scattering.

    2. EVOLUZIONE TEMPORALE DEI DATI DI SCATTERING consiste

    nello studio dell'evoluzione dei dati di scattering nel tempo.

    3. PROBLEMA DI SCATTERING INVERSO consiste nella determinazione

    della funzione q(x, t) corrispondente ai dati di scattering determinati nel

    passo precedente. La risoluzione del problema di scattering inverso è legato

    alla possibilità di risolvere opportune equazioni integrali dette equazioni

    di Marchenko. La funzione q(x, t) è la soluzione del problema a valori

    iniziali (2).

  • iii

    I passi fondamentali della IST possono essere così schematizzati:

    q(x, 0)

    problema di scatteringcon potenziale q(x,0)−−−−−−−−−−−−−−−→ S(λ, 0)

    Soluzione dell'equa-zione di evoluzione

    y y evoluzione nel tempo deidata scatteringq(x, t) ←−−−−−−−−−−−−−−−−

    problema discattering inverso

    con i data scattering cheevolvono nel tempo

    S(λ, t)

    In�ne utilizzando il cosiddetto Metodo delle triplette viene determinata

    la formula più generale contenente tutte le soluzioni solitoniche dell'equazio-

    ne NLS. Tale metodo consente di determinare in forma esplicita la soluzione

    dell'equazione di Marchenko, considerando identicamente nullo il coe�ciente di

    ri�essione.

    Il secondo capitolo presenta le soluzioni esplicite di tipo solitonico per l'e-

    quazione NLS.

    Il terzo capitolo presenta la coppia AKNS che genera l'equazione di Hei-

    senberg e, successivamente, viene applicato il metodo della IST in modo da

    determinare una formula che contiene tutte le soluzioni solitoniche di questa

    equazione.

    Partendo dal problema:

    mt = m ∧mzz,

    m(z, 0) = m(z) noto .

    (6)

    è possibile associare a tale problema, il seguente problema spettrale

    Ψx = [iλ(m(z, 0) · σ)]Ψ , (7)

    dove Ψ è una matrice invertibile 2×2 che dipende dalla posizione z, dal tempo t

    e dal parametro spettrale λ. A questo problema spettrale è applicato il metodo

    della IST seguendo la falsariga del metodo applicato per l'equazione NLS.

    In�ne il quarto capitolo chiude la tesi presentando la trasformazione di gauge

  • iv

    che, almeno in linea di principio, permette di passare da una soluzione NLS a

    una soluzione HF, e viceversa. In realtà questo procedimento risulta essere com-

    plicato, quindi si mostra, che partendo da soluzioni ottenute tramite il metodo

    delle triplette di matrici e un'opportuna mappa geometrica, è possibile ottenere

    una soluzione di NLS a partire da una soluzione di HF e viceversa.

  • Indice

    1 Introduzione alle equazioni integrabili 1

    1.1 Storia delle equazioni integrabili . . . . . . . . . . . . . . . . . . 1

    1.2 Equazioni Integrabili . . . . . . . . . . . . . . . . . . . . . . . . . 8

    1.3 Inverse Scattering Transform(IST) . . . . . . . . . . . . . . . . . 11

    2 IST per l'equazione NLS 14

    2.1 Equazioni NLS e sue applicazioni �siche, NLS con potenziali

    decadenti all'in�nito . . . . . . . . . . . . . . . . . . . . . . . . . 14

    2.2 Problema di scattering diretto . . . . . . . . . . . . . . . . . . . . 15

    2.3 Evoluzione temporale dei dati di scattering . . . . . . . . . . . . 22

    2.4 Problema di scattering inverso . . . . . . . . . . . . . . . . . . . 25

    2.5 Metodo delle triplette . . . . . . . . . . . . . . . . . . . . . . . . 27

    2.6 Rappresentazione gra�ca dei solitoni . . . . . . . . . . . . . . . . 31

    3 IST per l'equazione di Heisenberg 35

    3.1 L'equazione di Heisenberg . . . . . . . . . . . . . . . . . . . . . . 35

    3.2 Dati di scattering . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

    3.3 Evoluzione temporale dei dati di scattering . . . . . . . . . . . . 47

    3.4 Problema di scattering inverso . . . . . . . . . . . . . . . . . . . 49

    3.5 Metodo delle triplette . . . . . . . . . . . . . . . . . . . . . . . . 51

    3.6 Rappresentazione gra�ca di multisolitoni . . . . . . . . . . . . . . 55

    v

  • INDICE vi

    4 Equazione binormale e mappa geometrica 62

    4.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

    4.2 Trasformazione di Gauge . . . . . . . . . . . . . . . . . . . . . . . 63

    4.3 Costruzione geometrica . . . . . . . . . . . . . . . . . . . . . . . 67

    4.4 Esempio esplicito: la soluzione one-soliton . . . . . . . . . . . . . 73

  • Capitolo 1

    Introduzione alle equazioni

    integrabili

    1.1 Storia delle equazioni integrabili

    Nel 1834 John Scott Russell (1808-1882), ingegnere navale scozzese, stava ese-

    guendo degli esperimenti per trovare la struttura più e�ciente con cui costruire

    le barche da far navigare nello Union Canal tra Edimburgo e Glasgow, quando

    scoprì un interessante fenomeno che chiamò onda di traslazione. Russell [3] sta-

    va osservando il moto di un battello trainato rapidamente lungo lo Union Canal

    da una coppia di cavalli quando il battello si fermò improvvisamente e osservò

    che la massa d'acqua del canale mossa da esso non fece altrettanto. Essa si ac-

    cumulò attorno alla prua del battello in uno stato di violenta agitazione, dopo

    di che si mosse in avanti con grande velocità. Russell provò a seguire tale massa

    d'acqua per una o due miglia, poi la perse nei meandri del canale. La particola-

    rità del fenomeno osservato da Russell consisteva nel fatto che l'onda rimanesse

    immutata per chilometri senza perdere (apparentemente) energia. Quest'onda

    si comportava, in un certo senso, come una particella: mantenendo cioè inalte-

    rata la sua forma e avendo un'ampiezza proporzionale alla sua velocità.

    1

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 2

    Scott Russel si dedicò allo studio di questo tipo di onde, facendo costruire nella

    propria abitazione delle cisterne in cui simulare il moto ondoso. Riuscì quindi

    a determinare le seguenti proprietà fondamentali delle onde solitarie:

    si propagano mantenendo inalterata la velocità di propagazione e possono

    percorrere notevoli distanze a di�erenza delle "usuali" onde che tendono

    ad appiattirsi oppure ad innalzarsi e frantumarsi;

    non si fondono mai insieme ad altre. In particolare l'interazione tra due

    o più di esse avviene elasticamente (nel senso che durante l'interazione le

    onde passano una attraverso l'altra e successivamente riprendono la loro

    forma, al più con un cambiamento di fase).

    Scott Russel ricavò empiricamente la relazione: c2 = g(h + a) che vale quando

    la profondità del canale è piccola rispetto alla lunghezza d'onda, dove c, h, a e g

    sono, rispettivamente, la velocità, la profondità del canale, l'ampiezza dell'onda,

    e la costante di gravità. Nonostante nel 1844 Scott Russel fosse riuscito a ripro-

    durre sperimentalmente il fenomeno ondoso osservato, l'assenza del supporto di

    una valida teoria esplicativa che lo giusti�cava condusse la comunità scienti�ca

    a non so�ermarsi sui suoi risultati. Un primo passo verso la spiegazione teorica

    dell'esperimento di Russel fu fatto da Joseph Valentin Boussinesq negli anni

    1871-1872 [4]. Boussinesq derivò un'equazione non lineare di evoluzione che de-

    scrive la propagazione di onde in canali in cui la profondità è piccola rispetto

    alla lunghezza d'onda. Tale equazione avrebbe consentito di ottenere soluzioni il

    cui comportamento è quello delle onde solitarie. Questo passo non fu comunque

    portato a compimento di Boussinesq.

    Furono invece D.J. Korteweg e G. de Vries [5] nel 1895 a derivare l'equazione

    che oggi è nota come equazione di Korteweg-de Vries (KdV) e che consente di

    interpretare correttamente l'esperimento di Russell [4]. Tale equazione si scrive

    nel seguente modo:

    ut + uxxx − 6uux = 0. (1.1)

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 3

    Korteweg e De Vries trovarono sia soluzioni espresse in termini di funzioni el-

    littiche che soluzioni esplicite (nel senso di esprimibili come combinazione di

    funzioni elementari). In particolare essi trovarono quella che oggi è nota come

    soluzione monosolitonica il cui comportamento è proprio quello di un'onda so-

    litaria.

    Nel 1954 E. Fermi, J. Pasta e S. Ulam [7] condussero uno studio su un sistema

    costituito da 64 molle disposte rettilineamente una di seguito all'altra, determi-

    nando le equazioni di moto di tale sistema nel caso in cui su di esso agisse una

    sollecitazione non lineare (in particolare quadratica o cubica). Da tali equazioni

    gli autori pensavano di poter dedurre che l'energia, dopo un certo intervallo di

    tempo, si equipartisse fra i vari modi normali di oscillazione. Tuttavia le espe-

    rienze numeriche condotte 1, non evidenziarono un simile comportamento e gli

    autori non pubblicarono i risultati delle loro ricerche che furono archiviati in

    un report interno dei laboratori di Los Alamos [7]. I risultati delle simulazioni

    numeriche condotte da Fermi, Pasta, Ulam e Tsingou, erano comunque ben noti

    alla comunità scienti�ca. Nel 1965 N.J. Zabusky e M.D. Kruskal [8], per spiega-

    re il modello reticolare di Fermi-Pasta-Ulam, osservarono che, in un opportuno

    limite, esso si può ricondurre all'equazione KdV. Quindi, per via numerica con-

    statarono che le onde solitarie della KdV interagiscono elasticamente (nel senso

    che dopo un'eventuale interazione, riprende ciascuna sia la forma caratteristica

    che la velocità possedute prima dell'urto). Zabusky e Kruskal chiamarono "so-

    litoni" le onde che presentano questo tipo di interazione.

    Divenne quindi sempre più importante (in quanto collegato al problema di

    Fermi- Pasta-Ulam) avere a disposizione nuove metodologie matematiche per

    risolvere il problema a valori iniziali associato all'equazione KdV. Nel 1967 C.S.

    Gardner, J.M. Green, M.D. Kruscal e R.M. Miura (GGKM) [9] presentarono un

    metodo innovativo per risolvere tale problema: il metodo della "Inverse Scat-

    tering Transform (IST)". Gardner, Green, Kruscal e Miura bene�ciarono del

    lavoro di L.D. Faddeev che, nel 1964, aveva risolto i problemi dello scattering di-

    1Fu M.Tsingou a implementare i codici numerici.

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 4

    retto e inverso, associati all'equazione di Schrödinger. La IST (che discuteremo

    dettagliatamente più avanti) fu presentata per risolvere il seguente problema:

    ut + uxxx − 6uux = 0

    u(x, 0) = q(x)

    (1.2)

    Descriviamo brevemente i passi principali su cui si basa la IST.

    Per prima cosa si associa al problema (1.2) l'equazione lineare di Schrödinger:

    −Ψxx + q(x, 0)Ψ = λ2Ψ (1.3)

    dove x ∈ R, λ ∈ R, e q(x) reale tale che∫ +∞−∞ (1 + |x|)|q(x)|dx < +∞.

    Si noti come il potenziale dell'equazione di Schrödinger è il dato iniziale che

    appare in (1.2).

    Occorre studiare i problemi di scattering diretto e inverso corrispondenti all'e-

    quazione (1.3). In particolare, il problema di scattering diretto, che consiste

    nella determinazione dei dati di scattering corrispondenti al sistema (1.3) essen-

    do noto il valore del potenziale u(x, 0) = q(x), può essere studiato introducendo

    la cosidetta soluzione di Jost fr(λ, x) che soddisfa le seguenti condizioni ai limiti:

    fr(λ, x) =

    1

    T (λ)e−iλx + R(λ)T (λ)e

    iλx + o(1), x→ +∞,

    e−iλx[1 + o(1)], x→ −∞.(1.4)

    Nella (1.4) T (λ) è il coe�ciente di trasmissione e risulta essere una funzione

    meromorfa nel semipiano complesso superiore, R(λ) è il coe�ciente di ri�essione

    e risulta essere una funzione continua in λ ∈ R. I dati di scattering associati

    all'equazione (1.3) sono:

    1. Il coe�ciente di ri�essione R(λ);

    2. I poli di T (λ) denotati con ik1, ..., ikn, tali che 0 < k1 < ... < kn, detti

    autovalori discreti;

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 5

    3. Un insieme di costanti c1, ..., cn associate agli autovalori, dette "norming

    constants".

    Il problema inverso associato all'equazione (1.3) consiste nella ricostruzione del

    potenziale q(x) una volta che siano stati assegnati i dati di scattering

    {R(λ), {iλj , cj}Nj=1}.

    Faddeev [42] aveva già indicato un modo per risolvere il problema inverso in

    assenza della variabile temporale t. La soluzione proposta da Faddeev si base

    sulla risoluzione della seguente equazione integrale di Marchenko:

    K(x, y) + Ω(x+ y) +

    ∫ ∞x

    dzK(x, z)Ω(z + y) = 0, (1.5)

    dove il nucleo di Marchenko

    Ω(x) =

    N∑j=1

    cje−iλjx +

    1

    ∫ +∞−∞

    dλeikxR(λ), (1.6)

    è costruito utilizzando i dati scattering {R(λ), {iλj , cj}Nj=1}. Il potenziale q(x)

    si ottiene dalla seguente identità:

    q(x) = 2d

    dxK(x, x).

    Il punto cruciale della IST è che la q(x, t) della KdV si ottiene risolvendo il

    problema inverso in cui i dati di scattering evolvono in accordo alla seguente

    legge:

    {R(λ), {iλj , cj}Nj=1} → {R(λ)e8ik3t, {iλj , cje−8iλ

    3j t}Nj=1}.

    Riassumendo, la IST sviluppata da Gardner, Green, Kruskal e Miura consiste

    nell'analisi di questi tre problemi:

    1. Scattering diretto: individuazione dei data scattering {R(λ), {iλj , cj}Nj=1}

    dell'equazione di Schrödinger con potenziale u(x, 0).

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 6

    2. Propagazione dei data scattering: determinazione della legge di propaga-

    zione dei data scattering che nel caso dell'equazione KdV, è data da:

    {R(λ), {iλj , cj}Nj=1} → {R(λ)e8ik3t, {iλj , cje−8iλ

    3j t}Nj=1}.

    3. Scattering inverso: risolvere l'equazione integrale di Marchenko all'evolve-

    re del tempo e ottenere il potenziale u(x, t).

    Questa sequenza di tre passaggi può essere rappresentata dal seguente diagram-

    ma:

    u(x, 0)problema di scattering−−−−−−−−−−−−−−−→ {R(λ), {iλj , cj}Nj=1}

    KdV

    y y evoluzione temporaleu(x, t) ←−−−−−−−−−−−−

    scattering inverso{R(λ)e8ik3t, {iλj , cje−8iλ

    3j t}Nj=1}

    I lavori di Gardner-Greene-Kruskal-Miura hanno dato inizio alla ricerca di altre

    equazioni non lineari che potevano essere risolte mediante l'applicazione della

    IST [43].

    Nel 1972 V.E. Zakharov e A.B. Shabat applicarono la IST per risolvere il pro-

    blema ai valori iniziali per l'equazione focusing non lineare di Schrödinger (di-

    scuteremo l'importanza di tale equazione nelle applicazioni del capitolo 2 in cui

    presenteremo in dettaglio anche la IST per tale equazione):

    iut + uxx + 2|u|2u = 0

    u(x, o) = q(x)

    (1.7)

    Zakharov e Shabat associarono all'equazione (1.7) il seguente sistema di ODE

    (oggi noto come sistema di Zakharov e Shabat):

    iσ3Ψx − iσ3QΨ = λΨ (1.8)

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 7

    dove

    Q =

    0 q(x)±q∗(x) 0

    , σ3 =1 0

    0 −1

    ,e poi ebbero successo nell'applicazione dello schema della IST.

    Sono state trovate tante altre equazioni a cui è stato possibile applicare la tec-

    nica della IST. Qui ne elenchiamo altre tre: l'equazione di Korteweg-de Vries

    modi�cata, l'equazione di sine-Gordon e l'equazione di Heisenberg.

    L'equazione di Korteweg-de Vries modi�cata (mKdV) può scriversi come:

    ut + 6|u|2ux + uxxx = 0 (1.9)

    Essa si applica nello studio della propagazione dei solitoni nei mezzi io-

    nizzati (plasma), nella perturbazione ondulatoria del plasma (onde Al-

    fvèn), nei modelli di congestione del tra�co, nello studio delle super�ci

    iperboliche e nelle correnti oceaniche.

    L'equazione di sine-Gordon (SG)

    uxt = sin(u) (1.10)

    Tale equazione è stata introdotta per la prima volta per studiare le su-

    per�ci con curvatura gaussiana costante negativa e, successivamente, in

    biologia per descrivere la propagazione di malformazioni lungo la doppia

    elica del DNA.

    L'equazione di Heisenberg

    mt = m ∧mzz (1.11)

    Tale equazione descrive la magnetizzazione, su scala nanometrica, di un

    materiale ferromagnetico unidimensionale in assenza di anisotropia e di

    campo magnetico esterno e verrà dettagliatamente discussa nel capitolo 3.

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 8

    Le equazioni sopracitate sono accomunate dall'appartenenza alla classe delle

    cosiddette NLPDE (equazioni di�erenziali parziali non lineari) integrabili, di

    cui parleremo in modo più speci�co nel prossimo paragrafo.

    1.2 Equazioni Integrabili

    In questa sezione de�niamo cosa intendiamo per equazione integrabile. Mol-

    ti fenomeni di tipo �sico, ingegneristico, biologico sono modellizzati attraverso

    un'equazione non lineare evolutiva alle derivate parziali (NLPDE), nelle varia-

    bili indipendenti x ∈ R (variabile spaziale) e t ∈ R (variabile temporale). Tra

    le NLPDE occupano un ruolo particolarmente signi�cativo le NLPDE integra-

    bili. Ci sono diverse de�nizioni di integrabilità. In questa tesi prenderemo in

    considerazione la seguente [10, 11]:

    De�nizione 1.1 ( Integrabilità). Sia data la coppia di problemi lineari

    Vx = X(x, t, λ)V

    Vt = T (x, t, λ)V

    (1.12)

    dove V (x, t, λ), X(x, t, λ), T (x, t, λ) sono matrici quadrate dipendenti dalla po-

    sizione x, dal tempo t, e dalla variabile spettrale λ e V è invertibile e presenta

    derivate parziali seconde miste continue in R2. Una NLPDE è detta integra-

    bile se è possibile ottenerla da (1.12) imponendo la condizione di compatibilità

    Vxt = Vtx ovvero dalla condizione:

    Xt − TX +XT − TX = 0 (1.13)

    La precedente condizione (1.13) è la condizione di curvatura nulla (zero -

    curvature condition). La de�nizione (1.1) illustra il cosidetto metodo di AKNS

    (così chiamato perchè introdotto da M. Ablowitz, D. Kaup, A. Newell e H.

    Segur) utilizzato per stabilire l'integrabilità di una data NLPDE. Tale metodo

    consiste nel determinare le due matrici X e T in modo che la condizione (1.13)

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 9

    generi la NLPDE di partenza. La costruzione di tali matrici X e T non è im-

    mediata.

    Tuttavia, supposto di aver determinato le matrici X e T , il problema a valo-

    ri iniziali per la corrispondente equazione non lineare di evoluzione può essere

    risolta applicando il metodo della Inverse Scattering Transform (IST). Illustria-

    mo la de�nizione di integrabilità discutendo due esempi importanti: l'equazione

    KdV e l'equazione NLS.

    ESEMPIO 1.1 (Korteweg-de Vries, KdV)

    Consideriamo le due matrici:

    X =

    0 u− λ±1 0

    , T = ux −4λ2 + 2λu+ 2u2 − uxx

    4λ+ 2u −ux

    L' equazione (1.13) riscritta utilizzando le matrici X e T sopra introdotte fornisce

    (dopo semplici calcoli):

    0 ut + uxx − 6uux0 0

    =0 0

    0 0

    e quindi la condizione (1.13) è veri�cata se e solo se

    ut + uxxx − 6uux = 0 (1.14)

    Quest'ultima è l'equazione di Koreweg-de Vries (KdV), già incontrata nella se-

    zione precedente. Come già detto, essa descrive l'evoluzione per tempi lunghi di

    onde monodimensionali dispersive la cui ampiezza dell'onda è piccola rispetto

    alle altre grandezze, profondità del canale e lunghezza d'onda.

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 10

    ESEMPIO 1.2 (NLS)

    Siano

    X = −iλσ3 +Q T = −2iλ2σ3 − iσ3Q2 + 2λQ+ iσ3Qx (1.15)

    dove

    σ3 =

    1 00 −1

    , Q =0 qr 0

    Tenuto conto che σ3Q = −Qσ3 e σ23 = I2, la condizione di compatibilità (1.13)

    assume la forma:

    iσ3[Xt − TX +XT − TX] = iσ3Qt − 2iλσ3Qx +Qxx

    − (Q2)x − 2iλ3σ3 − iλσ3Q2 + 2λ2Q+ iλσ3Qx

    − 2λ2Q−Q3 + 2iλσ3Q2 +QQx

    + 2iλ3σ3 + iλσ3Q2 + 2λ2Q+ iλσ3Qx

    − 2λ2Q−Q3 − 2iλσ3Q2 +QxQ

    = iσ3Qt +Qxx − 2Q3

    =

    0 iqt + qxx − 2qrq−irt + rxx − 2rqr 0

    =0 0

    0 0

    (1.16)

    Tale condizione di compatibilità è equivalente al seguente sistema di equa-

    zioni alle derivate parziali

    iqt + qxx − 2qrq = 0

    −irt + rxx − 2rqr = 0(1.17)

    Posto r = ±q∗, il sistema (1.17) si riduce all'equazione non lineare di Schrödinger

    (1.8). La scelta r = −q∗, è equivalente al cosiddetto caso focusing, mentre r = q∗

    corrisponde al caso defocusing.

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 11

    Tutte le equazioni integrabili godono di alcune importanti proprietà. Tra le più

    importanti rimarchiamo le seguenti (si veda [21, 22] per maggiori dettagli):

    possibilità di determinare soluzioni esatte: una sottoclasse importante di

    soluzioni di questo tipo è quella delle soluzioni solitoniche;

    sono sistemi hamiltoniani completamente integrabili (quindi l'applicabili-

    tà della IST è equivalente a trovare una trasformazione canonica da un

    insieme di variabili �siche ad un set di variabili azione-angolo);

    possiedono un'in�nità di costanti di moto (∫f(x, t)dx è una costante di

    moto se ddt∫f(x, t)dx = 0 ).

    In questa tesi ci so�ermeremo sulla prima proprietà e in particolare, ci occu-

    peremo di determinare le formule (esplicite) di rappresentazione delle soluzioni

    solitoniche per l'equazione non lineare di Schrödinger e l'equazione di Heisen-

    berg. Per questo motivo è importante speci�care cosa si intende per soluzioni

    solitoniche, o più brevemente, solitoni. I solitoni sono soluzioni di una data NLP-

    DE del tipo travelling waves f(x, t) = h(x − ct). Tali funzioni rappresentano

    onde solitarie che si propagano mantenendo inalterate la velocità di propaga-

    zione e la loro forma. Inoltre, come già anticipato nella prima sezione, sono

    tali che l'interazione tra due (o più) di essi avviene elasticamente, nel senso che

    durante l'interazione i solitoni passano uno attraverso l'altro e successivamente

    riprendono la loro forma, subendo al massimo uno spostamento di fase.

    1.3 Inverse Scattering Transform(IST)

    Come detto precedentemente, se è nota una coppia di AKNS (1.13), si può

    applicare il metodo della IST per la risoluzione della corrispondente equazione

    integrabile di evoluzione. Per molti aspetti, l'IST si può vedere come una ver-

    sione non lineare della trasformata di Fourier. Ricordiamo che la trasformata

    di Fourier ci consente di risolvere un'equazione di�erenziale lineare ordinaria

    (ODE) procedendo in questo modo:

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 12

    si trasforma la ODE in un'equazione algebrica nel dominio delle frequenze;

    si risolve l'equazione algebrica nel dominio delle frequenze;

    successivamente si trasforma la soluzione ricavata nel dominio delle fre-

    quenze nella soluzione cercata.

    La IST, invece:

    associa al problema ai valori iniziali della NLPDE un opportuno problema

    lineare agli autovalori, cioè l'equazione Vx = XV , in cui il dato iniziale

    appare come coe�ciente;

    lo studio del problema spettrale associato alla NLPDE considerata, con-

    sente di determinare i dati di scattering;

    L'evoluzione temporale dei dati di scattering è determinata dall'equazione

    Vt = TV .

    Supposto noti i dati di scattering al tempo t, la funzione potenziale dipen-

    dente dal tempo che corrisponde a questi dati di scattering, rappresenta

    la soluzione del problema ai valori iniziali per la data NLPDE.

    L'analogia fra la trasformata di Fourier e la IST consiste nel passaggio dalle va-

    riabili originali a quelle spettrali che, solitamente, ammettono una più semplice

    evoluzione temporale.

    Il procedimento precedente si può riassumere nel seguente diagramma:

    q(x, 0)

    problema di scatteringcon potenziale q(x,0)−−−−−−−−−−−−−−−→ S(λ, 0)

    Soluzione dell'equa-zione di evoluzione

    y y evoluzione nel tempo deidata scatteringq(x, t) ←−−−−−−−−−−−−−−−−

    problema discattering inverso

    con i data scattering cheevolvono nel tempo

    S(λ, t)

    Nel diagramma di sopra S(λ, t) è la matrice di scattering contenente i dati di

    scattering. Nella tesi utilizzeremo questo procedimento per risolvere le equazio-

    ni NLS e di Heisenberg (HF). Inoltre, per entrambe le equazioni determineremo

  • CAPITOLO 1. INTRODUZIONE ALLE EQUAZIONI INTEGRABILI 13

    la più generale formula contenente tutte le soluzioni solitoniche di tali equazio-

    ni. Il procedimento con cui giungeremo a tali formule è basato oltre che sulla

    IST, anche sul cosiddetto metodo delle triplette che descriveremo nel prossimo

    capitolo.

  • Capitolo 2

    IST per l'equazione NLS

    2.1 Equazioni NLS e sue applicazioni �siche, NLS

    con potenziali decadenti all'in�nito

    In questo capitolo costruiamo una formula esplicita che contiene tutte le solu-

    zioni solitoniche per l'equazione NLS focusing

    iqt + qxx ± 2|q|2q = 0. (2.1)

    In particolare, tratteremo il cosiddetto caso vanishing, ovvero il caso in cui il

    potenziale q(x) e tutte le sue derivate successive tendono a zero per x→±∞.

    L'equazione NLS trova applicazione nella propagazione ondosa in acque pro-

    fonde, nella propagazione di segnali in �bre ottiche, nello studio del plasma

    nell'idrodinamica e nei condensati di Bose-Einstein.

    Per poter determinare le soluzioni solitoniche dell'equazione (2.1) abbiamo ne-

    cessità di sviluppare la IST per il seguente problema ai valori iniziali:

    iqt + qxx + 2|q|2q = 0

    q(x, 0) = q(x)

    . (2.2)

    14

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 15

    Al problema (2.2) è associata l'equazione (1.8) che può essere riscritta come:

    iσ3Ψx(x, λ)−Q(x)Ψ(x, λ) = λΨ(x, λ) (2.3)

    dove:

    Q =

    0 iq(x)ir(x) 0

    , σ3 =1 0

    0 −1

    ,il potenziale q(x) appartiene a L1(R) e λ è il parametro spettrale. La (2.3)

    costituisce il problema di scattering corrispondente alla NLS ed è anche noto

    con il nome sistema di Zakharov-Shabat.

    Come già accennato nel capitolo precedente la IST consente di risolvere il proble-

    ma (2.1) attraverso la risoluzione dei seguenti tre problemi successivi (descritti

    in termini generali nel capitolo precedente):

    1. problema di scattering diretto;

    2. evoluzione temporale dei dati di scattering;

    3. problema di scattering inverso.

    Analizziamo nel dettaglio ciascuno di questi problemi per i dati di scattering al

    tempo t.

    2.2 Problema di scattering diretto

    La teoria dello scattering diretto consiste nella determinazione dei dati di scat-

    teing corrispondenti al sistema (2.3), essendo noto il valore iniziale del potenziale

    q(x, 0) = q(x). In particolare, il problema di scattering diretto prevede la co-

    struzione della cosiddetta matrice di scattering S(λ) (o �S (λ)), la quale contiene

    parte dei dati di scattering. Per costruire tali dati di scattering abbiamo la

    necessità di de�nire le cosiddette le matrici di Jost e funzioni di Jost.

    De�nizione 2.1. Si de�niscono matrici di Jost rispettivamente da sinistra e da

    destra le matrici 2×2 Ψ e Φ che sono soluzioni del sistema (2.3) e soddisfacenti

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 16

    le condizioni:

    Ψ(x, λ) = e−iλσ3x[I2 + o(1)] x→ +∞ (2.4a)

    Φ(x, λ) = e−iλσ3x[I2 + o(1)] x→ −∞, (2.4b)

    dove I2 è la matrice identità di ordine 2. Inoltre, chiamiamo funzioni di Jost da

    destra le colonne ψ̄(x, λ) e ψ(x, λ) della matrice Ψ e funzioni di Jost da sinistra

    le colonne φ(x, λ) e φ̄(x, λ) della matrice Φ. E' conveniente adottare la seguente

    notazione:

    Ψ(x, λ) =

    (ψ̄(x, λ) ψ(x, λ)

    )=

    ψ̄up(x, λ) ψup(x, λ)ψ̄dn(x, λ) ψdn(x, λ)

    (2.5a)

    Φ(x, λ) =

    (φ(x, λ) φ̄(x, λ)

    )=

    φup(x, λ) φ̄up(x, λ)φdn(x, λ) φ̄dn(x, λ)

    (2.5b)Scrivendo il sistema di Zakharov-Shabat nella seguente forma:

    ∂y(e−iλ(x−y)σ3Ψ(y, λ)) = −iσ3e−iλ(x−y)σ3Q(y)Ψ(y, λ)

    ∂y(e−iλ(x−y)σ3Φ(y, λ)) = −iσ3e−iλ(x−y)σ3Q(y)Φ(y, λ)

    e integrando rispetto a y si ottengono le seguenti equazioni integrali di Volterra:

    Ψ(x, λ) = e−iλσ3x + iσ3

    ∫ +∞x

    dyeiλσ3(y−x)Q(y)Ψ(y, λ) (2.6)

    Φ(x, λ) = e−iλσ3x − iσ3∫ x−∞

    dyeiλσ3(y−x)Q(y)Φ(y, λ) (2.7)

    Le equazioni di Volterra (2.6), (2.7) possono essere usate per dimostrare l'esi-

    stenza e l'unicità delle matrici di Jost Ψ(x, λ) e Φ(x, λ).

    Poichè il sistema (2.3) è un sistema di equazioni di�erenziali lineare, omogeneo e

    del primo ordine, le matrici Ψ e Φ, entrambe soluzioni del sistema, devono essere

    linearmente dipendenti, in altre parole le matrici di Jost sono proporzionali e si

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 17

    possono esprimere attraverso le seguenti relazioni:

    Ψ(x, λ) = Φ(x, λ)al(λ), (2.8)

    Φ(x, λ) = Ψ(x, λ)ar(λ), (2.9)

    dove

    al(λ) = I2 −∫ ∞−∞

    dyeiλσ3yQ(y)Ψ(y, λ) (2.10)

    ar(λ) = I2 +

    ∫ ∞−∞

    dyeiλσ3yQ(y)Φ(y, λ) (2.11)

    dove al(λ) e ar(λ) sono dette matrici di transizione da destra e da sinistra

    rispettivamente, in quanto consentono di passare da una matrice di Jost all'altra.

    Le matrici di transizione dipendono solo dal parametro λ e hanno la seguente

    forma:

    al(λ) =

    al1(λ) al2(λ)al3(λ) al4(λ)

    , (2.12)

    ar(λ) =

    ar1(λ) ar2(λ)ar3(λ) ar4(λ)

    (2.13)Si è soliti sviluppare le teorie di scattering diretto e inverso sotto l'ipotesi che

    non ci siano singolarità spettrali, ovvero non esistano λ ∈ R per cui nessuna

    delle funzioni al1(λ), al4(λ), ar1(λ) e ar4(λ) si annulli. Le matrici di transizione

    godono delle seguenti proprietà (si rimanda a [12, 13, 20, 22] per le dimostrazioni

    di tutte le proprietà sotto riportate):

    sono una l'inversa dell'altra:

    al(λ)ar(λ) = ar(λ)al(λ) = I2.

    Infatti, usando le equazioni (2.8), si trova

    Φ(x, λ) = Ψ(x, λ)ar(λ) = (Φ(x, λ)al(λ))ar(λ).

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 18

    Perciò:

    Φ(x, λ)− Φ(x, λ)al(λ)ar(λ) = Φ(x, λ)(I2 − al(λ)ar(λ)) = 02×2.

    Essendo Φ(x, λ) 6= 02×2, si ottiene: al(λ)ar(λ) = I2 come volevamo

    dimostrare.

    Indicato con C̄± = C± ∪ R, le funzioni al1(λ) e ar4(λ) sono continue per

    λ ∈ C̄+, analitiche per λ ∈ C+ e tendono alla matrice identità:

    al1(λ), ar4(λ)→ 1, |λ| → ∞, λ ∈ C̄+.

    Analogamente, ar1(λ) e al4(λ) sono continue per λ ∈ C̄−, analitiche per

    λ ∈ C− e tendono alla matrice identità:

    ar1(λ), al4(λ)→ 1, |λ| → ∞, λ ∈ C̄−.

    Le funzioni restanti al2(λ), al3(λ), ar2(λ) e ar3(λ) sono continue per λ ∈ R

    e inoltre

    al2(λ), al3(λ), ar2(λ), ar3(λ)→ 0, λ→ ±∞.

    I valori nel semipiano complesso superiore per cui le funzioni al1(λ) e

    ar4(λ) si annullano sono gli autovalori discreti del sistema (2.3) in C+. Allo

    stesso modo i valori nel semipiano complesso inferiore per cui si annullano

    le funzioni ar1(λ)e al4(λ) sono gli autovalori discreti del sistema (2.3) in

    C−. Si dimostra inoltre che l'assenza di singolarità spettrali implica che

    il numero degli autovalori discreti del sistema (2.3) sia �nito [14].

    Osserviamo inoltre che dalle (2.8) e (2.9) si ottengono le seguenti relazioni:

    Ψ(x, λ) = e−iλxσ3al(λ) + o(1), (2.14a)

    Φ(x, λ) = e−iλxσ3ar(λ) + o(1). (2.14b)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 19

    E' stato dimostrato in [12] che ∀x ∈ R, le funzioni di Jost e−iλxψ(x, λ) e

    eiλxφ(x, λ) sono continue in λ ∈ C̄+ , analitiche in λ ∈ C+ ed inoltre:

    e−iλxψ(x, λ)→

    01

    , eiλxφ(x, λ)→1

    0

    ,per |λ| → +∞ in C̄+.

    Allo stesso modo le funzioni di Jost eiλxψ̄(x, λ) e e−iλxφ̄(x, λ) sono continue in

    λ ∈ C̄− , analitiche in λ ∈ C− e

    eiλxψ̄(x, λ)→

    10

    , e−iλxφ̄(x, λ)→0

    1

    ,per |λ| → +∞ in C̄−.

    E' conveniente introdurre le matrici di Jost modi�cate, indicate con F±(x, λ)

    nel seguente modo:

    F+(x, λ) = (φ(x, λ), ψ(x, λ))eiλxσ3 , (2.15)

    F−(x, λ) = (φ̄(x, λ), ψ̄(x, λ))eiλxσ3 . (2.16)

    Tali funzioni soddisfano ancora il sistema di Zakharov-Shabat (2.3). Per come

    è de�nita e, tenendo conto delle proprietà di analicità sopra richiamate si ha

    che F+ (rispettivamente F−) è analitica in C+ ( rispettivamente C−), continua

    in C̄+ (rispettivamente C̄−) e converge a I2 per |λ| → +∞. Utilizzando le

    equazioni (2.8), (2.9), (2.14a) e (2.14b) si veri�ca facilmente che le matrici di

    Jost modi�cate sono legate tra loro dalle seguenti relazioni:

    F−(x, λ) = F+(x, λ)σ3S(λ)σ3, (2.17)

    F+(x, λ) = F−(x, λ)σ3Ŝ(λ)σ3, (2.18)

    dove le matrici S(λ) e Ŝ(λ) sono dette matrici di scattering. Non è di�cile

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 20

    dimostrare che S(λ)Ŝ(λ) = I2, cioè S(λ) è l'inversa di Ŝ(λ). Le matrici di

    scattering hanno la seguente rappresentazione:

    S(λ) =

    Tr(λ) L(λ)R(λ) Tl(λ)

    , (2.19)e

    S̃(λ) =

    T̃r(λ) R̃(λ)L̃(λ) T̃l(λ)

    , (2.20)dove R(λ), R̃(λ) sono i coe�cienti di ri�essione da destra; L(λ), L̃(λ) sono i

    coe�cienti di ri�essione da sinistra; T̃r(λ), T̃l(λ), Tr(λ) e Tl(λ), sono i coe�cienti

    di trasmissione. Tenendo conto delle equazioni (2.12), (2.13), (2.14a), (2.14b),

    (2.19) e (2.20) con facili calcoli, si ottiene:

    Tr(λ) =1

    ar1(λ)= al1(λ)−al2(λ)

    al3(λ)

    al4(λ), Tl(λ) =

    1

    al4(λ)= ar4(λ)−ar3(λ)

    ar2(λ)

    ar1(λ),

    (2.21)

    L(λ) = −ar2(λ)ar1(λ)

    =al2(λ)

    al4(λ), R(λ) = −al3(λ)

    al4(λ)=ar3(λ)

    ar1(λ)(2.22)

    e, inoltre,

    S̃(λ) = σ3S(λ)†σ3, λ ∈ R,

    dove con † si indica la matrice trasposta coniugata. In [11, 12] è stato inoltre

    dimostrato che i coe�cienti di ri�essione sono funzioni continue sull'asse reale

    che potrebbero non ammettere un prolungamento analitico fuori dall'asse reale.

    Invece Tr(λ) e Tl(λ) (rispettivamente T̃r(λ) e T̃l(λ)) sono funzioni meromorfe

    per λ ∈ C− (λ ∈ C+ rispettivamente).

    Poichè, come già osservato , si è supposto che non ci siano singolarità spettrali,

    valgono le seguenti relazioni per i coe�cienti di ri�essione (si veda [13] per la

    dimostrazione):

    R(λ) =

    ∫ +∞−∞

    dye−iλyρ(y), L(λ) =

    ∫ +∞−∞

    dyeiλyl(y),

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 21

    con ρ, l ∈ L1(R). Per semplicità espositiva, in questa prima fase, supporremmo

    che il sistema di Zakharov-Shabat possieda solo autovalori discreti con moltepli-

    cità algebrica 1. Mostriamo adesso come, sotto questa ipotesi sulla molteplicità,

    ad ogni autovalore λj corrisponda un'opportuna costante cj (nota con il nome

    di norming constant) associata a λj .

    Supponendo che ar1(iλj) = 0 per qualche iλj = ξj + iηj , ηj > 0, j = 1.....J ,

    possiamo scrivere

    φupj (x) = φup(x, iλj), ψ

    upj (x) = ψ

    up(x, iλj),

    dove

    φ =

    φupφdn

    , ψ =ψupψdn

    ,sono le funzioni di Jost. Si veri�ca (vedi [11, capitolo2] per maggiori dettagli) che

    queste funzioni valutate negli autovalori discreti iλj , risultano essere linearmente

    dipendenti, cioè esiste una costante complessa cj tale che

    φupj (x) = cjψupj (x). (2.23)

    Allo stesso modo gli autovalori discreti iλ̄j = ξ̄j + iη̄j , η̄j < 0, j = 1.....J̄ , zeri

    del coe�ciente ar4(iλj), sono tali che:

    φ̄upj (x) = c̄jψ̄upj (x), (2.24)

    per qualche costante complessa c̄j , essendo

    φ̄upj (x) = φ̄upj (x, iλj), (2.25)

    ψ̄upj (x) = ψ̄upj (x, iλj), (2.26)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 22

    e

    φ̄ =

    φ̄upφ̄dn

    , ψ̄ =ψ̄upψ̄dn

    ,sono le funzioni di Jost introdotte nella de�nizione (2.1). Inoltre, si dimostra

    che J = J̄ . Le costanti cj(c̄j) sono denominate norming constants.

    I dati di scattering associati al sistema (2.1) consistono di:

    1. uno dei coe�ciente di ri�essione, per esempio, R(λ);

    2. gli autovalori discreti nel semipiano superiore C+ o nel semipiano inferiore

    C−, indicati con iλj e con iλ̄j rispettivamente, per j = 1, ..., N .

    3. l'insieme delle norming constants cj (o c̄j) per j = 1, ..., N , nel caso in cui

    gli autovalori abbiano molteplicità algebrica uguale a 1 1.

    2.3 Evoluzione temporale dei dati di scattering

    Descriviamo l'evoluzione temporale della matrice di scattering attraverso l'ana-

    lisi dell'evoluzione temporale della matrice di transizione. Se nel problema di

    scattering diretto si è utilizzata la prima equazione della coppia AKNS (1.13)

    Vx = XV , per determinare la cercata evoluzione temporale occorre investigare

    la seconda equazione della coppia AKNS (1.13) Vt = TV . Sia W una matrice

    invertibile soluzione di Vt = TV con T =

    −2iλ2 − iqr 2λq + iqx2λr − irx 2iλ2 + irq

    , alloraesiste una matrice invertibile CW , indipendente da x tale che

    W = V C−1W

    1Nel caso in cui gli autovalori abbiano molteplicità algebrica maggiore di 1 occorreconsiderare l'insieme delle norming constants cjs (o c̄js) per j = 1, ..., N , s = 1, ..., nj

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 23

    L'evoluzione temporale di W è espressa in termini dell'evoluzione temporale di

    V come segue:

    Wt = VtC−1W − V C

    −1W [CW ]tC

    −1W = TV C

    −1W − V C

    −1W [CW ]tC

    −1W

    = TW −W [CW ]tC1W , (2.27)

    dove nella prima uguaglianza si è fatto uso della nota formula di derivazione

    ddt (C

    −1W ) = −C

    −1W

    ddt (CW )C

    −1W e del fatto che Vt = T (x, t, λ)V . Dall'equazione

    (2.27), si ottiene l'identità:

    [CW ]tC−1W = W

    −1TW −W−1Wt (2.28)

    Poichè abbiamo precedentemente visto che la matrice di transizione ar(λ) è

    de�nita come:

    Φ = Ψar,

    essendo Ψ e Φ le matrici di Jost, si ottiene con facili calcoli:

    [ar]t = [Ψ−1Φ]t = Ψ

    −1Φt −Ψ−1ΨtΨ−1Φ

    = Ψ−1Φt −Ψ−1Ψt[ar]

    = Ψ−1(TΦ− Φ[CΦ]tC−1Φ )−Ψ−1(TΨ−Ψ[CΨ]tC−1Ψ )[ar]

    = Ψ−1TΦ− Φ−1Φ[CΦ]tC−1Φ −Ψ−1TΨ[ar] + [CΨ]tC

    −1Ψ [ar]

    = [CΨ]tC−1Ψ [ar]− [ar][CΦ]tC

    −1Φ (2.29)

    Tenendo conto che stiamo considerando il caso vanishing, ovvero il caso in cui

    la matrice del potenziale Q e le derivate successive della matrice Q tendono alla

    matrice nulla 02×2 per x → ±∞, e che l'espressione di T per x → ±∞ è data

    da:

    T '

    −2iλ2 00 2iλ2

    , (2.30)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 24

    è facile stabilire il comportamento asintotico delle (2.31),(2.32). Infatti, si

    ottiene

    [CΨ]tC−1Ψ ' e

    iλxσ3(−2iλ2σ3)e−iλxσ3 = −2iλ2σ3, (2.31)

    [CΦ]tC−1Φ ' e

    iλxσ3(−2iλ2σ3)e−iλxσ3 = −2iλ2σ3. (2.32)

    Pertanto sostituendo (2.31) e (2.32) nella (2.29) si trova:

    [ar]t = −[2iλ2σ3][ar] + [ar][2iλ2σ3]. (2.33)

    E' immediato veri�care che l'equazione (2.33) ammette come soluzione la se-

    guente

    [ar](λ, t) = e−2iλ2σ3t[ar](λ, 0)e

    2iλ2σ3t. (2.34)

    La relazione (2.34) esprime l'evoluzione temporale della matrice di transizione

    ar(λ). Si ha :

    ar1(λ, t) = ar1(λ); (2.35)

    ar2(λ, t) = e−4iλ2t[ar2](λ); (2.36)

    ar3(λ, t) = e4iλ2t[ar3](λ); (2.37)

    ar4(λ, t) = ar4(λ). (2.38)

    Tenendo conto delle (2.35), (2.36), (2.37), (2.38) come conseguenza delle (2.21)

    e (2.22), si ricava che i coe�cienti di trasmissione non dipendono dal tempo,

    cioè:

    Tr(λ, t) = Tr(λ), (2.39)

    Tl(λ, t) = Tl(λ), (2.40)

    mentre l'evoluzione temporale dei coe�ciente R(λ) e L(λ) è espressa dalle

    seguenti relazioni:

    R(λ, t) = e4iλ2tR(λ) L(λ, t) = e−4iλ

    2tL(λ) (2.41)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 25

    In�ne, per quanto riguarda le costanti di normalizzazione, si ha:

    cj(t) = e4iλ2tcj (2.42)

    La dimostrazione delle (2.42) può essere trovata in [21]. Comunque lo "schema

    dimostrativo" con cui ottenere le (2.42) è presentato nel capitolo successivo (vedi

    sezione "Evoluzione temporale dei dati di scattering").

    2.4 Problema di scattering inverso

    Dopo aver costruito i dati di scattering, essendo q(x, 0) = q(x) nota, e aver

    determinato come essi evolvono nel tempo; in questa sezione vogliamo rico-

    struire il potenziale del problema iniziale q(x, t) partendo dai dati di scattering

    ottenuti. Questo problema inverso è strettamente legato alla possibilità di ri-

    solvere opportune equazioni, le cosiddette equazioni integrali di Marchenko. La

    dimostrazione che conduce alle equazioni di Marchenko si basa sulla seguente

    rappresentazione delle funzioni di Jost (nota come rappresentazione triangolare)

    (si veda [11, 13] per i dettagli):

    Ψ(x, λ, t) = e−iλσ3x +

    ∫ +∞x

    dyK(x, λ, t)e−iλyσ3 , y ≥ x, (2.43a)

    Φ(x, λ, t) = e−iλσ3x +

    ∫ x−∞

    dyM(x, λ, t)e−iλyσ3 , y ≥ x. (2.43b)

    dove:

    K(x, λ, t) =

    K̄up(x, λ, t) Kup(x, λ, t)K̄dn(x, λ, t) Kdn(x, λ, t)

    ,M(x, λ, t) =Mup(x, λ, t) M̄up(x, λ, t)Mdn(x, λ, t) M̄dn(x, λ, t)

    (2.44)

    e ∀x ∈ R, si ha:

    ∫ +∞x

    dy ‖K(x, λ, t)‖ +∫ x−∞‖M(x, λ, t)‖ < +∞ (2.45)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 26

    Le equazioni di Marchenko da destra [13, 14, 10] sono le seguenti:

    K(x, y; t) + Ωl(x+ y; t) +

    ∫ ∞x

    dzK(x, z; t)Ωl(z + y; t) = O2×2, (2.46)

    con K(x, y; t) dato dalla (2.45) e

    Ωl(x+ y; t) =

    0 −Ωl(x+ y; t)†Ωl(x+ y; t) 0

    ,dove la funzione Ωl(x+y; t) è detta nucleo di Machenko. Il nucleo di Marchenko è

    quindi costruito con gli assegnati dati di scattering. In particolare, l'espressione

    dei termini fuori diagonale nella matrice Ωl(x+ y; t) è la seguente ([12, 13, 20,

    22]):

    Ωl(ω; t) = −ρ(ω; t) +N∑j=1

    nj−1∑s=0

    cjs(t)ωs

    s!e−λjω, (2.47)

    essendo ρ(ω; t) la trasformata di Fourier del coe�ciente di ri�essione R(λ), iλj

    gli autovalori discreti, cjs(t) le costanti di normalizzazione e nj la molteplicità

    di iλj .

    Il legame fra equazioni di Marchenko e potenziale q(x, t) è dato da (si veda

    [11, 12, 20, 22]):

    q(x) = −2Kup(x, x) = −2M̄up(x, x), q∗(x) = 2K̄dn(x, x) = 2Mdn(x, x).

    Lo schema che consente di ricostruire il potenziale è basato sui seguenti due

    passi:

    Risoluzione della seguente equazione di Marchenko:

    Kup(x, y; t) = Ωl(x+y; t)†−∫ +∞x

    dz

    ∫ +∞x

    dsKup(x, z; t)Ωl(z+s; t)Ωl(s+y; t)†,

    (2.48)

    dove y > x.

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 27

    ottenere la soluzione cercata tramite la relazione:

    q(x, t) = −2Kup(x, x; t). (2.49)

    In modo analogo si può ottenere il potenziale q(x, t) partendo dalle equazioni di

    Marchenko da sinistra:

    Mup(x, y; t) + Ωr(x+ y; t) +

    ∫ x−∞

    dzM(x, z; t)Ωr(z + y; t) = O2x2, (2.50)

    con

    M(x, y; t) =

    Mup(x, y; t) M̄up(x, y; t)Mdn(x, y; t) M̄dn(x, y; t)

    e

    Ωr(x+ y; t) =

    0 −Ωr(x+ y; t)†Ωr(x+ y; t) 0

    .In questo caso il legame fra equazioni di Marchenko e potenziale è fornito dalla

    seguente relazione, si perviene all'espressione del potenziale

    q(x, t) = −2Mup(x, x; t). (2.51)

    2.5 Metodo delle triplette

    In questa sezione applicheremo il cosiddetto metodo delle triplette per determi-

    nare la formula contenente tutte le soluzioni solitoniche associate all'equazio-

    ne NLS. Tale metodo consente di determinare in forma esplicita la soluzione

    dell'equazione di Marchenko (2.48) e (2.50). Infatti, in generale è complicato

    determinare la soluzione 2 dell'equazione (2.48), ma nel caso in cui il coe�cien-

    te di ri�essione sia identicamente nullo (situazione che caratterizza le soluzioni

    2L'equazione di Marchenko ammette soluzione unica sotto l'ipotesi (implicitamente da noiadottata) negli spazi Lp(R), con 1 ≤ p ≤ +∞ (si veda [20] per la dimostrazione)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 28

    solitoniche) l'espressione (2.47) del nucleo è:

    Ωl(x+ y; t) =

    N∑j=1

    nj−1∑s=0

    cjs(t)ωs

    s!e−λjω = Ce−(x+y)AetHB, (2.52)

    dove nell'ultima uguaglianza si è espresso il nucleo come prodotto di una tripletta

    di matrici (A,B,C). Questa particolare rappresentazione dà il nome al metodo.

    Le tre matrici hanno dimensioni rispettivamente : p × p, p × 1, 1 × p. La

    funzione H, che genera l'evoluzione dei dati di scattering, è una funzione di A.

    A e H commutano. La possibilità di realizzare l'identità (2.52) tramite una

    tripletta di matrici costanti era ben nota nella teoria del controllo [17, 37, 39]

    e fu solo successivamente applicata alle equazioni integrabili per la ricerca di

    soluzioni esatte [10, 16, 17, 18]. E' importante rimarcare come la tripletta che

    consente di ottenere Ωl(x + y; t) tramite la (2.52) non è unica. Vedremo più

    avanti in questa sezione che sarà necessario restringere la classe delle triplette

    per costruire le soluzioni solitoniche che stiamo cercando.

    Il vantaggio di utilizzare il nucleo nella forma fattorizzata tramite la triplet-

    ta di matrici, è che consente di risolvere esplicitamente (e in forma chiusa) le

    equazioni di Marchenko. Vedremo fra poco che, sostituendo (2.52) in (2.48) si

    perviene infatti a un'equazione a variabili separabili per cui si possono applicare

    le usuali tecniche di risoluzione.

    Per poter determinare le soluzioni solitoniche, ovvero per poter risolvere

    esplicitamente l'equazione (2.48), è comunque necessario che le triplette soddi-

    s�no opportune ipotesi:

    1. La tripletta deve essere minimale, cioè si cerca la matrice A di ordine

    più piccolo possibile in modo che sia soddisfatta l'uguaglianza (2.53). La

    tripletta che permette di ottenere una realizzazione minima per il nucleo

    è unica a meno di una trasformazione simile

    (A,B,C)→ (SAS−1, SB,CS−1)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 29

    dove S è un'opportuna matrice invertibile (si noti come nella proposizione

    3.5 di [19] viene presentato un modo canonico per scegliere le triplette che

    noi, per comodità riportiamo nella sezione dedicata agli esempi).

    2. La parte reale degli autovalori deve essere positiva.

    Vediamo ora come sia possibile risolvere esplicitamente l'equazione (2.48) quan-

    do il nucleo dato dalla (2.52). Consideriamo prima il caso t = 0 e reintrodurremo

    il tempo t al termine della nostra analisi.

    Consideriamo il caso t = 0.

    L'espressione del nucleo di Marchenko si può esprimere in questo modo:

    Ωl(x+ y) = Ce−(x+y)AB = B†e−(x+y)A

    †C†, (2.53)

    e sostituendo in (2.48), si ottiene

    Kup(x, y) = −B†e−(x+y)A†C†

    +

    ∫ ∞x

    dz

    ∫ ∞x

    dsKup(x, z)Ce−(z+s)ABB†e−(s+y)A†C† = 0. (2.54)

    Cerco soluzioni del tipo:

    Kup(x, y) = H(x)e−yA†C†, (2.55)

    dove H(x) è un vettore riga 1× p, ed ottengo:

    H(x)e−yA†C† −B†e−xA

    †e−yA

    †C†

    +

    ∫ ∞x

    dz

    ∫ ∞x

    dsH(x)e−zA†C†Ce−(z+s)ABB†e−sA

    †e−yA

    †C† = 0,

    (2.56)

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 30

    e mettendo in evidenza:

    [H(x)−B†e−xA

    †+

    ∫ ∞x

    dz

    ∫ ∞x

    dsH(x)e−zA†C†Ce−(z+s)ABB†e−sA

    ]

    e−yA†C† = 0

    (2.57)

    Perciò deve essere:

    H(x)−B†e−xA†+

    ∫ ∞x

    dz

    ∫ ∞x

    dsH(x)e−zA†C†Ce−(z+s)ABB†e−sA

    †= 0 (2.58)

    De�nendo le matrici p× p:

    Q(x) =

    ∫ +∞x

    dze−zA†C†Ce−zA; N(x) =

    ∫ ∞x

    dse−sABB†e−sA†, (2.59)

    la (2.58) si può riscrivere in questa forma:

    H(x) [Ip +Q(x)N(x)] = B†e−xA

    †. (2.60)

    Osserviamo che se la parte reale degli autovalori di A è positiva gli integrale

    (impropri) nelle (2.59) convergono e quindi la (2.60) ha senso. E' ora conveniente

    introdurre la matrice Γ(x) = Ip +Q(x)N(x), così la (2.60) si può riscrivere nel

    modo seguente:

    H(x)Γ(x) = B†e−xA†. (2.61)

    Perciò:

    H(x) = B†e−xA†Γ(x)−1 (2.62)

    Osserviamo che l'esistenza della matrice inversa di Γ(x, t) è garantita dalla se-

    conda ipotesi, ovvero dal fatto che non tutti gli autovalori di A abbiano parte

    reale positiva. Una dimostrazione di questo fatto è data dal Teorema 4.2 in [18].

    Inoltre nello stesso articolo è stato dimostrato che, usando entrambe le ipotesi

    1 e 2 la matrice Γ(x, t)−1 → 0n×n per x→ −∞ ∀t �ssato e Γ(x, t)−1 → Ip per

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 31

    x→ +∞ ∀t �ssato.

    Sostituendo la (2.62) in (2.55) otteniamo

    Kup(x, y) = B†e−xA†Γ(x)−1e−A

    †yC†. (2.63)

    Di conseguenza il potenziale per t = 0 sarà:

    q(x) = −2B†e−xA†Γ(x)−1e−A

    †yC†. (2.64)

    Se si vuole tenere conto dell'evoluzione temporale è su�ciente eseguire la se-

    guente sostituzione:

    (A,B,C)→ (A,B,Ce−4iA2t)

    Otteniamo quindi la seguente espressione esplicita del potenziale:

    q(x, t) = −2B†e−xA†Γ(x, t)−1e−A

    †ye4iA2tC† (2.65)

    2.6 Rappresentazione gra�ca dei solitoni

    In questa sezione vengono riportati alcuni esempi di soluzioni solitoniche ottenuti

    applicando il metodo delle triplette. Le soluzioni sono espresse utilizzando la

    formula (2.65).

    Esempio 1 Monosolitone (caso potenziale reale)

    Scegliendo la tripletta (A,B,C) con

    A = a, a ∈ R,

    B = 1,

    C = c, c ∈ R,

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 32

    si ha

    Q(x) =c2

    2ae2ax,

    N(x) =1

    2aeax.

    Γ(x) = 1 +Q(x)N(x) = 1 +c2

    2ae−2axe−ax

    2a=

    4a2e3ax + c2

    4a2e3ax,

    quindi

    Γ(x, t)−1 =4a2e3ax

    4a2e3ax + c2e−8ia2t

    q(x, t) = −2e−ax 4a2e3xa

    4a2e3ax + c2e−8ia2te−aye4ia

    2tc =−8a2ce2ax−ay+4ia2t

    4a2e3ax + c2e−8ia2t.

    Esempio 2 Monosolitone (caso potenziale complesso)

    Scegliendo la tripletta (A,B,C) con

    A = a = p+ iq, p = Re(a) > 0 e q = Im(a),

    B = 1,

    C = c, c ∈ C,

    si ha

    Q(x) =−c2

    2pe−2px,

    N(x) = − 12pe−2px.

    Γ(x, t) =4pe4px + c2

    4pe4px,

    e, di conseguenza, si trova

    Γ(x, t)−1 =4pe4px

    4pe4px + c2

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 33

    e di conseguenza

    q(x, t) =−8cpe(−p−iq+4p)x+(−p+iq)y+4ip2−4iq2−8pq

    4pe4px + c2.

    Con l'utilizzo di Matlab sono stati ottenuti i gra�ci di tali soluzioni che sono

    mostrati nelle Figure 2.1-2.2.

  • CAPITOLO 2. IST PER L'EQUAZIONE NLS 34

    −3 −2 −1 0 1 2 3−2

    −1

    0

    1

    2

    3

    4

    5

    6Real Part

    −3 −2 −1 0 1 2 3−6

    −4

    −2

    0

    2

    4

    6Imaginary Part

    Figura 2.1: Solitone reale

    −3 −2 −1 0 1 2 3−5

    −4

    −3

    −2

    −1

    0

    1

    2

    3Real Part

    −3 −2 −1 0 1 2 3−6

    −5

    −4

    −3

    −2

    −1

    0

    1Imaginary Part

    Figura 2.2: Solitone complesso

  • Capitolo 3

    IST per l'equazione di

    Heisenberg

    L'equazione integrabile di Heisenberg, nota come the Heisenberg Ferromagnetic

    chain equation (HF), descrive la magnetizzazione, su scala nanometrica, di un

    materiale ferromagnetico unidimensionale in assenza di anisotropia e di campo

    magnetico esterno. In questo capitolo presentiamo la coppia AKNS che genera

    l'equazione di Heisenberg e, successivamente, di seguito applichiamo il metodo

    della IST in modo da determinare una formula che contiene tutte le soluzioni

    solitoniche di questa equazione.

    3.1 L'equazione di Heisenberg

    L'equazione integrabile di Heisenberg è la seguente:

    mt = m ∧mzz (3.1)

    dove m(z, t) ∈ R3 con ‖ m(z, t) ‖= 1, e m(z, t) −→ (0, 0, 1)T quando z −→

    ±∞. Questa equazione è stata studiata ampiamente alla �ne degli anni 70.

    In particolare, Tjon e Wright [40] determinarono la soluzione monosolitonica e

    35

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 36

    studiarono numericamente le interazioni fra due monosolitoni. Successivamen-

    te, nel 1977 Takhtajan [44] provò l'integrabilità dell'equazione HF. In�ne, nel

    1979 Zakharov e Takhtajan [24] mostrarono tramite una trasformazione di gau-

    ge (vedi capitolo 4) una corrispondenza biunivoca fra le soluzioni delle equazioni

    HF e la NLS. Dopo questa scoperta l'interesse verso l'equazione HF diminuì in

    quanto, almeno in linea di principio, ogni risultato stabilito sulla NLS può essere

    mappato in un analogo risultato per il modello di Heisenberg.

    Come fatto nel precedente capitolo per la NLS iniziamo a stabilire che l'equa-

    zione di Heisenberg (3.1) è integrabile nel senso della de�nizione 2.1.

    La coppia AKNS associata all'equazione HF è la seguente:

    Vz = AV = [iλ(m · σ)]V, (3.2a)

    Vt = BV = [−2iλ2(m · σ)− iλ(τ · σ)]V, (3.2b)

    dove σ è il vettore colonna con entrate le matrici di Pauli:

    σ1 =

    0 11 0

    , σ2 =0 −ii 0

    σ3 =1 0

    0 −1

    e τ = m∧mz,m ·σ = m1σ1 +m2σ2 +m3σ3 e λ ∈ C. Imponendo la condizione

    di compatibilità, ovvero l'equazione:

    Az −Bt +AB −BA = 02x2. (3.3)

    e dopo semplici ma lunghi calcoli l'equazione (3.3) diventa:

    iλ([mt + τz] · σ) + 2iλ2[(mz +m× τ ) · σ] = 02×2 (3.4)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 37

    Poichè questa equazione deve essere soddisfatta per qualunque λ, risulta equi-

    valente alla coppia di equazioni:

    mz +m ∧ τ = 0, mt + τz = 0. (3.5)

    Quindi la coppia AKNS (3.2a) (3.2b) è equivalente alle equazioni (3.5). La

    prima delle (3.5) risulta essere un'identità. Infatti:

    mz+m∧τ = mz+[m∧(m∧mz)] = mz+[(m·mz)m−‖m‖2mz] = mz−mz = 0;

    dove si è tenuto conto che essendom un vettore di norma uno risultam·mz = 0.

    Quindi la coppia AKNS (3.2a) (3.2b) è equivalente alla seconda equazione delle

    (3.5) che coincide con l'equazione di Heisenberg. Questo prova l'integrabilità

    dell'equazione di Heisenberg.

    Siamo ora pronti a sviluppare le teorie di scattering diretto e inverso sulla

    falsariga di quanto fatto nel capitolo precedente per l'equazione NLS. Per que-

    sto motivo non daremo tutti i dettagli di quanto ci apprestiamo ad introdurre

    e baderemo invece a evidenziare le di�erenze con quanto fatto nel capitolo pre-

    cedente. Il lettore che ha necessità di reperire i dettagli di quanto esposto può

    considerare [26, 41].

    De�niamo ora le matrici di Jost Ψ(z, λ) e Φ(z, λ) come soluzioni del problema

    lineare agli autovalori (3.2a) e soddisfacenti alle seguenti condizioni asintotiche:

    Ψ(z, λ) = (ψ(z, λ) ψ̄(z, λ)) = eiλzσ3 [I2 + o(1)], z −→ +∞, (3.6)

    Φ(z, λ) = (φ̄(z, λ) φ(z, λ)) = eiλzσ3 [I2 + o(1)], z −→ −∞. (3.7)

    Anche in questo caso le colonne ψ(z, λ), ψ̄(z, λ), φ̄(z, λ), e φ(z, λ) sono dette

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 38

    funzioni di Jost e adotteremo la seguente notazione matriciale:

    Ψ(z, λ) =

    ψup(z, λ) ψ̄up(z, λ)ψdn(z, λ) ψ̄dn(z, λ)

    , Φ(z, λ) =φ̄up(z, λ) φup(z, λ)φ̄dn(z, λ) φdn(z, λ)

    (3.8)

    Essendo le due matrici di Jost entrambe soluzione dello stesso sistema di equa-

    zioni di�erenziali lineare e omogeneo del primo ordine, le due matrici sono li-

    nearmente dipendenti, esiste perciò una cosiddettamatrice di transizione T̃ (λ) ∈

    SU(2), tale che

    Ψ(z, λ) = Φ(z, λ)T̃ (λ), Φ(z, λ) = Ψ(z, λ)T̃ (λ), λ ∈ R, (3.9)

    con

    T̃ (λ) =

    a(λ) −b(λ)b(λ)∗ a(λ)∗,

    dove |a(λ)|2 + |b(λ)|2 = 1.

    Supponiamo anche questa volta che non ci sia alcuna singolarità spettrale, perciò

    possiamo supporre che sia sempre a(λ) 6= 0 ∀λ ∈ R. Possiamo riscrivere il

    sistema (3.2a) con le corrispondenti condizioni asintotiche (3.6) e (3.7) come le

    seguenti equazioni integrali di Volterra:

    Ψ(z, λ) = eiλzσ3 − iλ∫ +∞z

    dẑe−iλ(ẑ−z)σ3(m0(ẑ) · σ)Ψ(ẑ, λ), (3.10a)

    Φ(z, λ) = eiλzσ3 + iλ

    ∫ +∞z

    dẑeiλ(z−ẑ)σ3(m0(ẑ) · σ)Φ(ẑ, λ), (3.10b)

    dove m0(z) = m(z) − σ3. Osserviamo che la presenza del fattore λ davan-

    ti all'integrale ostacola la determinazione in modo diretto del comportamento

    asintotico per |λ| → +∞ delle funzioni di Jost e dei coe�cienti che appaio-

    no nelle matrici di transizione. Dunque è necessario modi�care le equazioni di

    Volterra. Tale modi�ca si può e�ettuare sotto le seguenti ipotesi:

    1. la derivata rispetto a z di m(z) · σ esiste quasi ovunque e m′(z) · σ ha

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 39

    entrate in L1(R). Questo implica che m(z) è assolutamente continua in

    z ∈ R, possiamo perciò parlare di valore puntuale della funzione;

    2. m3(z) > −1 ∀z ∈ R.

    Grazie alla prima ipotesi, possiamo applicare l'integrazione per parti alle equa-

    zioni (3.15) e usando l'equazione (3.2a), si trova:

    Ψ(z, λ) = eiλzσ3 + [e−iλ(ẑ−z)σ3σ3(m0(ẑ) · σ)Ψ(ẑ, λ)]∞ẑ=z

    −∫ ∞z

    dẑe−iλ(ẑ−z)σ3σ3(m′(ẑ) · σ)Ψ(ẑ, λ) + (m0(ẑ) · σ)∂Ψ

    ∂ẑ(ẑ, λ)]

    = eiλzσ3 − σ3(m0(z) · σ)Ψ(z, λ)

    −∫ ∞z

    dẑe−iλ(ẑ−z)σ3σ3[(m′(ẑ) · σ) + iλ(m0(ẑ) · σ)(m(ẑ) · σ)]Ψ(ẑ, λ),

    (3.11)

    Tenendo conto della seguente identità:

    I2 + σ3(m0(z) · σ) = σ3(m(z) · σ) ∈ SU(2),

    si ottiene:

    σ3(m(z) · σ)Ψ(z, λ) = eiλzσ3 −∫ ∞z

    dẑe−iλ(ẑ−z)σ3σ3(m′(ẑ) · σ)Ψ(ẑ, λ)

    − iλ∫ ∞z

    dẑe−iλ(ẑ−z)σ3σ3(m0(ẑ) · σ)(m(ẑ) · σ)Ψ(ẑ, λ).

    (3.12)

    Con semplici calcoli si veri�ca facilmente che:

    (m0 ·σ)(m ·σ) = (m ·σ)2−σ3(m ·σ) = I2−σ3(m ·σ) = −σ3(m0 ·σ). (3.13)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 40

    Usando l'equazione (3.13), l'equazione (3.12) diventa della forma:

    σ3(m(z) · σ)Ψ(z, λ) = eiλzσ3 −∫ ∞z

    dẑe−iλ(ẑ−z)σ3σ3(m′(ẑ) · σ)Ψ(ẑ, λ)

    + iλ

    ∫ ∞z

    dẑe−iλ(ẑ−z)σ3(m0(ẑ) · σ)Ψ(ẑ, λ).

    Se si considera la semisomma fra l'ultima equazione e l'equazione (3.11) si arriva

    all'equazione:

    D(z)Ψ(z, λ) = eiλzσ3 −∫ ∞z

    dẑe−iλ(ẑ−z)σ3D′(ẑ)Ψ(ẑ, λ) (3.14)

    dove

    D(z)def=

    1

    2[I2 + σ3(m(z) · σ)] =

    1

    2

    +m3(z) m−(z)−m+(z) 1 +m3(z)

    . (3.15)Il determinante della matrice D(z) vale 12 (1+m3(z)). La seconda ipotesi esposta

    in precedenza, m3(z) > −1 ∀z ∈ R, fa si che la matrice D(z) sia invertibile e

    che la sua inversa sia

    D−1(z) =1

    1 +m3

    1 +m3 −m−m+ 1 +m3

    .La norma della matrice D(z) è

    √2(1 +m3)

    −1/2 e, inoltre, si ha che D(z)→ I2

    quando z → ±∞. Inoltre l'inversa di D(z) è limitata per ∀z ∈ R. Possiamo

    perciò applicare la disuguaglianza di Gronwall [26] all'equazione (3.14) ricavando

    la seguente stima:

    ‖Ψ(z, λ)‖ ≤ 1√1 +m3(z)

    exp

    [1

    2

    ∫ ∞z

    dẑ‖(m′(ẑ) · σ̂)‖].

    Procedendo in modo analogo a quanto fatto per ottenere l'equazione (3.14), ma

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 41

    utilizzando la matrice di Jost Φ(z, λ), si trova l'equazione:

    D(z)Φ(z, λ) = eiλzσ3 +

    ∫ z−∞

    dẑe−iλ(ẑ−z)σ3D′(ẑ)Φ(ẑ, λ). (3.16)

    Applicando anche a questa la disuguaglianza di Gronwall si ottiene la seguente

    stima:

    ‖Φ(z, λ)‖ ≤ 1√1 +m3(z)

    exp

    [1

    2

    ∫ z−∞

    dẑ‖(m′(ẑ) · σ̂)‖].

    Le equazioni (3.14) e (3.16) consentono di dimostrare l'analiticità e la continuità

    delle soluzioni di Jost, estendendole ai semipiani chiusi superiore ed inferiore.

    Ovvero le soluzioni di Jost e i coe�cienti a(λ) e b(λ) ammettono limite �nito

    per λ→∞, nella chiusura del semipiano in cui sono analitiche. Per dimostrare

    questi risultati è necessario trovare un'opportuna rappresentazione triangolare

    per le soluzioni di Jost. Per questo introduciamo la seguente proposizione:

    Proposizione 3.1.1. Esiste una funzione matriciale ausiliare K(x, y) tale che

    Ψ(z, λ) = H(z)eiλzσ3 +

    ∫ ∞z

    dẑK(z, ẑ)eiλẑσ3 , (3.17)

    dove H(z) è una matrice che soddisfa la condizione H(z) = σ2H(z)∗σ2 e

    H(z)→ I2 quando z → +∞, mentre∫∞zdẑ‖K(z, ẑ)‖ converge uniformemente

    in z ∈ R.

    Dimostrazione. Per la dimostrazione si rimanda a [26].

    Inoltre, in modo analogo, si dimostra che [26] sussiste la seguente:

    Proposizione 3.1.2. Esiste una funzione matriciale ausiliare N(z, ẑ) tale che

    Φ(z, λ) = H̃(z)eiλzσ3 +

    ∫ z−∞

    dẑN(z, ẑ)eiλẑσ3 , (3.18)

    dove H̃(z) è una funzione matriciale che soddisfa la condizione H̃(z) = σ2H̃(z)∗σ2

    e H̃(z) → I2 quando z → −∞, mentre∫ z−∞ dẑ‖N(z, ẑ)‖ converge uniforme-

    mente in z ∈ R.

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 42

    Usando la formulazione "modi�cata" delle matrici di Jost è possibile, ol-

    tre che dimostrare l'analiticità delle funzioni di Jost, anche stabilire il loro

    comportamento asintotico quando λ→∞.

    Teorema 3.1.3. Supponiamo che

    1. m0(z) = m(z)− e3 abbia entrate in L1(R),

    2. Esista quasi ovunque la derivata di m(z) · σ rispetto a z e che m′(z) · σ

    abbia entrate in L1(R),

    3. m3(z) > −1 ∀z ∈ R.

    Allora le funzioni e−iλzψup(z, λ), e−iλzψdn(z, λ), eiλzφup(z, λ) e eiλzφdn(z, λ)

    sono analitiche in λ ∈ C+ e continue in λ ∈ C+ ∪ R, (come abbiamo vi-

    sto nella proposizione 3.2.2); mentre le funzioni: eiλzψ̄up(z, λ), eiλzψ̄dn(z, λ),

    e−iλzφ̄up(z, λ) e e−iλzφ̄dn(z, λ) sono analitiche in λ ∈ C− e continue in λ ∈

    C− ∪ R hanno limite �nito quando λ→∞ all'interno della chiusura di C−.

    Inoltre, i coe�cienti a(λ) hanno limite �nito quando λ→∞ all'interno di C̄+

    mentre b(λ) in generale non può essere prolungata analiticamente al di fuori

    dell'asse reale e b(λ)→ 0 quando λ→ ±∞.

    Dimostrazione. Per l'ipotesi 2 le matrici di Jost soddisfano alle equazioni (3.14)

    e (3.16), in queste equazioni separiamo le colonne di Ψ(z, λ) e Φ(z, λ), abbiamo

    che:

    [D(z)e−iλzψ(z, λ)

    ]up= 1−

    ∫ ∞z

    dẑ[D′(ẑ)e−iλẑψ(ẑ, λ)

    ]up, (3.19a)

    [D(z)e−iλzψ(z, λ)

    ]dn= −

    ∫ ∞z

    dẑe2iλ(ẑ−z)[D′(ẑ)e−iλẑψ(ẑ, λ)

    ]dn, (3.19b)

    [D(z)eiλzψ̄(z, λ)

    ]up= −

    ∫ ∞z

    dẑe−2iλ(ẑ−z)[D′(ẑ)eiλẑψ̄(ẑ, λ)

    ]up, (3.19c)

    [D(z)eiλzψ̄(z, λ)

    ]dn= 1−

    ∫ ∞z

    dẑ[D′(ẑ)eiλẑψ̄(ẑ, λ)

    ]dn. (3.19d)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 43

    Separando invece le colonne di Φ(z, λ) nell'equazione (3.16), si ottiene:

    [D(z)e−iλzφ̄(z, λ)

    ]up= 1 +

    ∫ z−∞

    dẑ[D′(ẑ)e−iλẑφ̄(ẑ, λ)

    ]up, (3.20a)

    [D(z)e−iλzφ̄(z, λ)

    ]dn=

    ∫ z−∞

    dẑe−2iλ(z−ẑ)[D′(ẑ)e−iλẑφ̄(ẑ, λ)

    ]dn, (3.20b)

    [D(z)eiλzφ(z, λ)

    ]up=

    ∫ z−∞

    dẑe2iλ(z−ẑ)[D′(ẑ)eiλẑφ(ẑ, λ)

    ]up, (3.20c)

    [D(z)eiλzφ(z, λ)

    ]dn= 1 +

    ∫ z−∞

    dẑ[D′(ẑ)eiλẑφ(ẑ, λ)

    ]dn. (3.20d)

    Prendendo il limite per z → +∞ nelle (3.18) e usando l'equazione (3.9) otte-

    niamo che

    a(λ) = 1−∫ ∞−∞

    dẑ[D′(ẑ)e−iλẑψ(ẑ, λ)

    ]up, (3.21a)

    b(λ∗)∗ = −∫ ∞−∞

    dẑe2iλẑ[D′(ẑ)e−iλẑψ(ẑ, λ)

    ]dn, (3.21b)

    b(λ) =

    ∫ ∞−∞

    dẑe−2iλẑ[D′(ẑ)eiλẑψ̄(ẑ, λ)

    ]up, (3.21c)

    a(λ∗)∗ = 1−∫ ∞−∞

    dẑ[D′(ẑ)eiλẑψ̄(ẑ, λ)

    ]dn. (3.21d)

    dove abbiamo usato la condizione che D(z)→ I2 quando z → −∞.

    Allo stesso modo prendendo il limite per z → +∞ nelle (3.33), otteniamo le

    seguenti equazioni

    a(λ∗)∗ = 1 +

    ∫ ∞−∞

    dẑ[D′(ẑ)e−iλẑφ̄(ẑ, λ)

    ]up, (3.22a)

    b(λ∗)∗ = −∫ ∞−∞

    dẑe2iλẑ[D′(ẑ)e−iλẑφ̄(ẑ, λ)

    ]dn, (3.22b)

    b(λ) =

    ∫ ∞−∞

    dẑe−2iλẑ[D′(ẑ)eiλẑφ(ẑ, λ)

    ]up, (3.22c)

    a(λ) = 1 +

    ∫ ∞−∞

    dẑ[D′(ẑ)eiλẑφ(ẑ, λ)

    ]dn. (3.22d)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 44

    Usando la (3.17) troviamo che

    a(λ)→ 1−∫ ∞−∞

    dẑ

    (1 0

    )D′(ẑ)H(ẑ)

    10

    , λ→∞ in C̄+,mentre b(λ)→ 0 quando λ→ ±∞. In�ne osserviamo che il limite del coe�ciente

    a(λ) quando |λ| → ∞ è un numero complesso di modulo unitario, ovvero può

    essere scritto nella forma eiα.

    3.2 Dati di scattering

    Introduciamo in questa sezione i dati di scattering corrispondenti al problema

    spettrale:

    Ψz(z, λ) = iλ(M · σ)Ψ(z, λ), (3.23)

    dovem(z, t) ∈ R3 con ‖m(z, t) ‖= 1, em(z, t) −→ (0, 0, 1)T quando z −→ ±∞

    e λ è un parametro spettrale e σ è il vettore colonna con entrate le matrici di

    Pauli:

    σ1 =

    0 11 0

    , σ2 =0 −ii 0

    σ3 =1 0

    0 −1

    Supponiamo che il coe�ciente a(λ) non abbia singolarità spettrali, ovvero a(λ) 6=

    0 ∀λ ∈ R. Riscriviamo l'identità (3.9) nel seguente modo:

    (φ̄(z, λ) ψ̄(z, λ)

    )=

    (ψ(z, λ) φ(z, λ)

    ) 1a(λ) − b(λ)a(λ)− b(λ)

    a(λ)1

    a(λ)

    , (3.24a)(ψ(z, λ) φ(z, λ)

    )=

    (φ̄(z, λ) ψ̄(z, λ)

    ) 1a(λ)∗ b(λ)a(λ)∗b(λ)∗

    a(λ)∗1

    a(λ)∗

    . (3.24b)Ponendo F−(z, λ) =

    (φ̄(z, λ) ψ̄(z, λ)

    )e F+(z, λ) =

    (ψ(z, λ) φ(z, λ)

    ), esat-

    tamente come accadeva nel capitolo precedente, si ottiene il seguente problema

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 45

    di Riemann-Hilbert:

    F−(z, λ) = F+(z, λ)σ3S(λ)σ3, (3.25)

    dove S(λ) è la cosiddetta matrice di scattering. Essa ha la forma

    S(λ) =

    T (λ) R(λ)L(λ) T (λ)

    .In particolare, si ha

    T (λ) =1

    a(λ), R(λ) =

    b(λ)

    a(λ), L(λ) =

    b(λ)∗

    a(λ), (3.26)

    dove T è detto coe�ciente di trasmissione e R e L sono chiamati coe�cienti

    di ri�essione da destra e da sinistra, rispettivamente. Una conseguenza diretta

    delle equazioni (3.9) con (λ̃) ∈ SU(2) è che

    S(λ)† = σ3S(λ)−1σ3, λ ∈ R.

    Quindi possiamo dire che S(λ) è σ3-unitaria con determinante a(λ)∗/a(λ). Inol-

    tre, S(λ) → e−iαI2 quando λ → ±∞ per un certo numero complesso e−iα di

    modulo unitario. L'analogo delle rappresentazioni triangolari (3.17)(3.18) sono:

    F+(z, λ)e−iλzσ3 =

    H1(z) Ĥ2(z)H2(z) Ĥ1(z)

    +∫ ∞0

    dseiλs

    K1(z, z + s) Ñ2(z, z − s)k2(z, z + s) Ñ1(z, z − s)

    ,(3.27a)

    F−(z, λ)e−iλzσ3 =

    H̃1(z)∗ −H2(z)∗−H̃2(z)∗ H1(z)∗

    +

    ∫ ∞0

    dse−iλs

    N1(z, z − s)∗ −k2(z, z + s)∗−N2(z, z − s)∗ K1(z, z + s)∗

    , (3.27b)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 46

    dove

    ∫ ∞0

    ds(|K1(z, z + s)|+ |K2(z, z + s)|+ |N1(z, z − s)|+ |N2(z, z − s)|)

    converge uniformemente in z ∈ R.

    I dati di scattering associati all'equazione (3.23) sono:

    1. uno dei coe�cienti di ri�essione R(λ) o L(λ);

    2. i poli del coe�ciente di trasmissione T (λ) o di T (λ∗)∗ , i quali sono detti

    autovalori discreti nel semipiano superiore C+ (o nel semipiano inferiore)

    e vengono indicati sia con iaj (o con −ia∗j ), per j = 1, ..., N ;

    3. un insieme di costanti Nj(N̄j) nel semipiano superiore (rispettivamente

    nel semipiano inferiore) associate agli autovalori discreti iaj (o −iaj∗)

    j = 1, ..., N . Queste costanti sono note come norming constants.

    Supponiamo per semplicità che ogni polo del coe�ciente di ri�essione abbia

    molteplicità algebrica uguale a uno (il caso di molteplicità algebrica maggiore di

    uno viene trattato in [20]). Mostriamo come si introducono le norming constants

    seguendo uno schema analogo a quello in [21, 22, 14]. In assenza di singolarità

    spettrali è stato dimostrato in [14] che esiste un numero �nito di poli ia1, ..., iaN

    del coe�ente di trasmissione T (λ) nel semipiano superiore C+. Per semplicità

    supponiamo che tali poli siano tutti semplici. Sia τs il residuo di T (λ) per

    λ = ias, ovvero

    τs = limλ→ias

    (λ− ias)T (λ) = limλ→ias

    λ− iasa(λ)− a(ias)

    =1

    ȧ(ias).

    Le norming constants Ns sono tali che

    τsφ(z, ias) = iNsψ(z, ias), s = 1, 2, ..., N. (3.28a)

    Allo stesso modo supponiamo che i poli di T (λ∗)∗, indicati con −ia∗1, ...,−ia∗N ,

    in C− siano semplici. Le corrispondenti norming constants N̄s sono de�nite

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 47

    come

    τ∗s φ̄(z,−ia∗s) = −iN̄sψ̄(z,−ia∗s), s = 1, 2, ..., N. (3.28b)

    Con la seguente proposizione mostriamo il legame tra le norming costant del

    semipiano superiore e le norming constants del semipiano inferiore:

    Proposizione 3.2.1. Le norming constants soddisfano la seguente relazione:

    N̄s = −(Ns)∗

    Dimostrazione. Per la dimostrazione rimandiamo a [26].

    Ora mostriamo come, in assenza di singolarità spettrali, i coe�cienti di ri�es-

    sione ammettono una rappresentazione di Fourier molto semplice. Aggiungendo

    questa ipotesi alle due già introdotte nella pagina precedente, si può adattare

    facilmente la dimostrazione data in [13] per provare la seguente proposizione:

    Proposizione 3.2.2. Supponiamo che:

    1. esiste quasi ovunque la derivata di (m(z) ·σ) rispetto a z e (m′(z) ·σ) ha

    entrate in L1(R),

    2. m3(z) > −1 ∀z ∈ R,

    3. non ci siano singolarità spettrali.

    Allora esistono due funzioni ρ e l in L1(R) tali che:

    R(λ) =

    ∫ ∞−∞

    dwe−iλwρ(w), L(λ) =

    ∫ ∞−∞

    dweiλwl(w). (3.29)

    3.3 Evoluzione temporale dei dati di scattering

    Per dimostrare come i dati di scattering evolvono nel tempo procediamo come

    abbiamo fatto nel precedente capitolo per l'equazione NLS.

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 48

    Consideriamo nuovamente la condizione di compatibilità

    Vz = AV, Vt = BV,

    dove V (x, t;λ) è una funzione matriciale di ordine 2 × 2 non singolare che non

    necessariamente coincide con una delle matrici di Jost. Esistono due matrici

    invertibili CΨ(t, λ) e CΦ(t, λ) (che non dipendono da z), Ψ = V C−1Ψ e Φ = V C

    −1Φ

    e si ha

    Ψt = BΨ−Ψ[CΨ]tC−1Ψ ,

    Quest'ultima relazione implica:

    [CΨ]tC−1Ψ = Ψ

    −1BΨ−Ψ−1Ψt, (3.30)

    Per z a +∞ poichè B ' −2iλ2σ3 e Ψ ' eiλzσ3 quando z → +∞, troviamo

    [CΨ]tC−1Ψ = −2iλ

    2σ3. (3.31)

    Lo stesso risultato può essere ottenuto anche per l'altra matrice di Jost; si ha

    infatti

    [CΦ]tC−1Φ = −2iλ

    2σ3.

    Dalla relazione Ψ = ΦT̃ , troviamo:

    T̃t = 2iλ2(T̃ σ3 − σ3T̃ ). (3.32)

    Integrando la precedente equazione (3.32) otteniamo:

    T̃ (λ, t) = e−2iλ2tσ3 T̃ (λ, 0)e2iλ

    2tσ3 . (3.33)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 49

    Abbiamo quindi dedotto che a(λ) e T (λ) non dipendono dal tempo t, mentre

    per i coe�cienti di ri�essione si trova la seguente dipendenza temporale:

    R(λ, t) = e−4iλ2tR(λ, 0), L(λ, t) = e4iλ

    2tL(λ, 0). (3.34)

    A di�erenza di quanto fatto nel precedente capitolo per la IST, qui diamo anche

    la dimostrazione della legge di evoluzione temporale delle norming constants. A

    tal �ne di�erenziamo l'equazione (3.28a) rispetto a t, ottenendo

    τsφt(z, ias) = iNsψt(z, ias) + i[Ns]tψ(z, ias).

    Applicando la condizione (3.30) per Ψ e Φ e usando l'espressione (3.31), troviamo

    τs{B(ias)φ(z, ias)− 2ia2sφ(z, ias)} =iNs{B(ias)ψ(z, ias) + 2ia2sψ(z, ias)}+

    i[Ns]tψ(z, ias).

    Usando ancora una volta l'equazione (3.28a) si perviene alla seguente relazione:

    [Ns]t = −4ia2sNs.

    Dalla proprietà N̄s = −[Ns]∗ dimostrata nella Proposizione 3.3.1, possiamo

    �nalmente esprimere l'evoluzione temporale delle norming constants come:

    Ns(t) = e−4ia2stNs(0), N̄s(t) = e

    4ia∗2s tN̄(0). (3.35)

    3.4 Problema di scattering inverso

    Partendo dal problema:

    mt = m ∧mzz,

    m(z, 0) = m(z) noto .

    (3.36)

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 50

    E' possibile associare a tale problema, il seguente problema spettrale

    Vx = [iλ(m(z, 0) · σ)]V , (3.37)

    dove V è una matrice invertibile 2×2 che dipende dalla posizione z, dal tempo t

    e dal parametro spettrale λ. Nella sezione precedente abbiamo visto come si ot-

    tengono i dati di scattering quando è assegnatom(z, 0) (problema di scattering

    diretto), e come essi evolvono nel tempo.

    In questa sezione vogliamo a�rontare il problema di scattering inverso che

    consiste nel determinare il potenziale m(z, t) considerando assegnati i dati di

    scattering. In analogia al problema di scattering inverso studiato per NLS,

    possiamo ricostruire m(z, t) seguendo i seguenti passi:

    Costruzione, partendo dai dati di scattering al tempo t, della matrice

    Ω(w; t) =

    0 ω(w; t)−ω(w; t)∗ 0

    , con ω(w; t) = ρ(w; t) + n∑s=1

    e−aswNs(t) ,

    dove ρ(w; t) è la trasformata di Fourier del coe�ciente di ri�essione R(λ; t);

    Risoluzione dell'equazione di Marchenko

    L(z, y; t) + Ω(z + y; t) +

    ∫ ∞z

    duL(z, u; t)Ω(u+ y; t) = 02×2. (3.38)

    Calcolo della matrice

    L̃(z; t) =

    ∫ ∞z

    dyL(z, y; t) ,

    Ricostruzione del potenziale mediante la formula (la dimostrazione si trova

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 51

    nell'articolo [26])

    m(z; t) · σ = H(z; t)σ3H(z; t)−1 =[I2 + L̃(z; t)

    ]−1σ3

    [I2 + L̃(z; t)

    ]=[

    I2 + L̃+(z, t)]σ3[I2 + L̃(z, t)

    ].

    (3.39)

    Anche in questo caso si dimostra [24, 26] che il problema di scattering inver-

    so può essere a�rontato in termini di equazioni integrali di Marchenko. La

    dimostrazione di (3.38) (e dell'analoga equazione di Marchenko da sinistra) è

    dettagliatamente riportata in [26]).

    3.5 Metodo delle triplette

    Al �ne di determinare le soluzioni solitoniche dell'equazione di Heisenberg ap-

    plichiamo il metodo delle triplette, presentato nel capitolo precedente per la

    risoluzione dell'equazione NLS, all'equazione di Heisenberg. Supponiamo quin-

    di che il il coe�ciente di ri�essione sia nullo, allora il nucleo1 dell'equazione di

    Marchenko assume la forma

    Ω(w) =

    0 ω(w)−ω(w)∗ 0

    , con ω(w) = N∑s=1

    nj−1∑s=0

    Njsws

    s!e−asw. (3.40)

    Nel caso in cui tutti i poli del coe�ciente di trasmissione siano semplici, l'e-

    spressione per ω(w) si sempli�ca (vedi Capitolo 2) nel seguente modo:

    ω(w) =

    N∑s=1

    Nj0e−asw.

    Dato il nucleo di Marchenko (3.40), esiste una tripletta di matrici (A,B, C), tale

    che

    Ω(w) = Ce−wAB , (3.41)1L'espressione ω(w) data dall'equazione (3.38) si riferisce al caso in cui gli autovalori discreti

    abbiano molteplicità maggiore di uno. Tale caso è trattato in dettaglio in [20].

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 52

    dove la matrice A è una matrice quadrata di ordine 2p che ha soltanto autovalori

    con parte reale positiva, B è di ordine 2p× 2 e C è di ordine 2× 2p. Utilizzando

    un'opportuna partizione delle matrici A, B e C, di tipo

    A =

    A 0p×p0p×p A

    , B =0p×1 B−C† 0p×1

    , C = C 01×p

    01×p B†

    . (3.42)si ottiene per ω(w) la seguente rappresentazione

    ω(w) = Ce−wAB , (3.43)

    dove A è una matrice p× p i cui autovalori hanno tutti parte reale positiva, B

    è una matrice p× 1, mentre C è una matrice 1× p.

    Nel seguito risulterà comodo richiedere che la tripletta (A,B,C) sia anche

    minimale (vedi [39, 37]), nel senso della seguente

    De�nizione 3.1. Una tripletta di matrici (A,B,C), con A di ordine p× p, B

    di ordine p × 1 e C di ordine 1 × p, è detta minimale se e sole se le matrici di

    ordine p× p così de�nite

    colp(C,A) =

    C

    CA

    . . .

    CAp−1

    , rowp(A,B) =

    (B AB . . . Ap−1B

    ),

    (3.44)

    hanno entrambe rango p.

    In altre parole, possiamo a�ermare che le triplette minimali sono, fra tut-

    te quelle (A′, B′, C ′) tali per cui ω(w) = C ′e−wA′B′, quelle per cui l'ordi-

    ne della matrice A′ è il più piccolo possibile. Supponiamo che (A,B,C) sia

    una tripletta minimale. E' allora immediato veri�care che anche la tripletta

    (SAS−1, SB,CS−1) è minimale, dove S è un'opportuna matrice invertibile.

    Anche in questo caso risolviamo, per semplicità, il problema inverso in as-

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 53

    senza della variabile temporale che verrà introdotto alla �ne del paragrafo.

    Sostituendo l'equazione (3.41 ) nell'equazione di Marchenko (3.38) si ottiene:

    L(z, y) + Ce−(z+y)AB +∫ ∞z

    duL(z, u)Ce−(u+y)AB = 02×2 . (3.45)

    anche nella (3.45) è possibile separare le variabili indipendenti e quindi risol-

    vere tale equazione esplicitamente. Al �ne di determinare la soluzione di tale

    equazione si ponga

    F (z) = Ce−zA +∫ ∞z

    duL(z, u)Ce−uA , (3.46)

    nell'equazione (3.45), da cui deduciamo la rappresentazione moltiplicativa

    L(z, y) = −F (z)e−yAB . (3.47)

    Sostituendo (3.47) nell'espressione (3.46), si ottiene

    F (z) = Ce−zA − F (z)e−zAPe−zA,

    dove

    P =∫ ∞

    0

    du e−uABCe−uA

    è la soluzione unica [37] dell'equazione di Sylvester AP + PA = BC. Sotto

    l'ipotesi che la matrice Ip + e−zAPe−zA sia invertibile per ogni z ∈ R 2 dopo

    alcuni calcoli diretti analoghi a quelli sviluppati nel capitolo precedente per la

    NLS, troviamo

    L(z, y) = −Ce−zA[I2p + e−xAPe−xA]−1e−yAB . (3.48)2L'invertibilità di Ip + e−zAPe−zCA è equivalente alla risolubilità unica dell'equazione di

    Marchenko (3.38). Quest'ultimo è un risultato noto [13, 20].

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 54

    Quindi da (3.48) si ottiene facilmente

    L̃(z) = −Ce−zA[Ip + e−zAPe−zA]−1e−zAA−1B , (3.49)

    essendo L̃(z) =∫∞zdyL(z, y). In�ne, troviamo il potenzialem(z, 0) sostituendo

    l'espressione di L̃(z) data da (3.49) nella seguente formula (vedi formula (3.39))

    m(z) · σ =[I2 + L̃(z)

    ]−1σ3

    [I2 + L̃(z)

    ],

    e, quindi, si ottiene la formula:

    m(z) · σ =[I2 − Ce−zA[Ip + e−zAPe−zA]−1 e−zAA−1B

    ]−1×× σ3

    [I2 − Ce−zA[Ip + e−zAPe−zA]−1e−zAA−1B

    ]. (3.50)

    Come già precedentemente anticipato, �nora non abbiamo preso in conside-

    razione la dipendenza temporale. L'evoluzione temporale dei dai di scattering è

    stata determinata nella sezione (3.3) e quindi sappiamo che i dati di scattering

    evolvono come segue:

    T (λ, t) = T (λ, 0) ,

    R(λ, t) = e4iλ2tR(λ, 0) ,

    Ns(t) = e−4ia2stNs(0) .

    Utilizzando tali leggi di evoluzione, nel caso in cui il coe�ciente di ri�essio-

    ne R(λ, t) sia nullo, non è di�cile mostrare che i nuclei della equazione di

    Marchenko (3.38) evolvono nel seguente modo:

    ω(w; t) = Ce−wAe−4itA2

    B, ω∗(w; t) = B†e−wA†e4itA

    †2tC†. (3.51)

    L'equazione (3.51) evidenzia come l'espressione del nucleo di Marchenko al

  • CAPITOLO 3. IST PER L'EQUAZIONE DI HEISENBERG 55

    tempo t si ottiene da quella al tempo t = 0 mediante la sostituzione

    (A,B,Ce−4itA2

    ). (3.52)