Meccanica quantisticauz.sns.it/~BeppeBogna/quantistica.pdfIn meccanica quantistica le misure sono...

100
Meccanica quantistica Giuseppe Bogna 22 marzo 2019 Indice 1 Introduzione 3 1.1 Stati e misure .................................... 3 1.2 Esperimento di Stern-Gerlach ........................... 3 1.3 Assiomatizzazione parziale dell’apparato di Stern-Gerlach ........... 6 2 Assiomatizzazione della meccanica quantistica 8 2.1 Richiami di analisi e geometria .......................... 8 2.1.1 Spazi a dimensione finita ......................... 9 2.1.2 Spazi a dimensione infinita ........................ 13 2.2 Assiomi della meccanica quantistica: caso finito dimensionale ......... 18 2.3 Assiomi della meccanica quantistica: caso infinito dimensionale ........ 20 3 Sviluppo della teoria 21 3.1 Valori medi e varianze ............................... 21 3.2 Stati impuri e matrice densit` a ........................... 22 3.3 Matrice densit` a ridotta ............................... 24 3.4 Evoluzione temporale e Hamiltoniana ...................... 26 3.5 Rappresentazioni di Schr¨ odinger, di Heisenberg e di interazione ........ 28 3.6 Teorema di Ehrenfest ................................ 29 3.7 Evoluzione temporale per una mistura ...................... 30 3.8 Regole di quantizzazione .............................. 31 3.8.1 Quantizzazione canonica .......................... 31 3.8.2 Principio di relativit` a ........................... 32 3.8.3 Particella libera ............................... 33 3.8.4 Distribuzione di quasiprobabilit` a di Wigner ............... 36 3.9 Dinamica in una dimensione ............................ 37 3.10 Oscillatore armonico quantistico ......................... 40 3.10.1 Stati coerenti ................................ 42 3.11 Teorema del viriale ................................. 48 3.12 Path integral .................................... 49 3.13 Teorema adiabatico ................................. 50 3.13.1 Fasi di Berry ................................ 52 3.14 Teoria delle perturbazioni ............................. 54 3.14.1 Teoria delle perturbazioni per livelli discreti e non degeneri ...... 54 3.14.2 Teoria delle perturbazioni per livelli discreti e degeneri ......... 57 3.14.3 Operatore risolvente ............................ 59 3.14.4 Teoria delle perturbazioni dipendenti dal tempo ............. 60 1

Transcript of Meccanica quantisticauz.sns.it/~BeppeBogna/quantistica.pdfIn meccanica quantistica le misure sono...

  • Meccanica quantistica

    Giuseppe Bogna

    22 marzo 2019

    Indice

    1 Introduzione 31.1 Stati e misure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Esperimento di Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Assiomatizzazione parziale dell’apparato di Stern-Gerlach . . . . . . . . . . . 6

    2 Assiomatizzazione della meccanica quantistica 82.1 Richiami di analisi e geometria . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    2.1.1 Spazi a dimensione finita . . . . . . . . . . . . . . . . . . . . . . . . . 92.1.2 Spazi a dimensione infinita . . . . . . . . . . . . . . . . . . . . . . . . 13

    2.2 Assiomi della meccanica quantistica: caso finito dimensionale . . . . . . . . . 182.3 Assiomi della meccanica quantistica: caso infinito dimensionale . . . . . . . . 20

    3 Sviluppo della teoria 213.1 Valori medi e varianze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213.2 Stati impuri e matrice densità . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.3 Matrice densità ridotta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.4 Evoluzione temporale e Hamiltoniana . . . . . . . . . . . . . . . . . . . . . . 263.5 Rappresentazioni di Schrödinger, di Heisenberg e di interazione . . . . . . . . 283.6 Teorema di Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.7 Evoluzione temporale per una mistura . . . . . . . . . . . . . . . . . . . . . . 303.8 Regole di quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    3.8.1 Quantizzazione canonica . . . . . . . . . . . . . . . . . . . . . . . . . . 313.8.2 Principio di relatività . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.8.3 Particella libera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.8.4 Distribuzione di quasiprobabilità di Wigner . . . . . . . . . . . . . . . 36

    3.9 Dinamica in una dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373.10 Oscillatore armonico quantistico . . . . . . . . . . . . . . . . . . . . . . . . . 40

    3.10.1 Stati coerenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.11 Teorema del viriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483.12 Path integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493.13 Teorema adiabatico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

    3.13.1 Fasi di Berry . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.14 Teoria delle perturbazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    3.14.1 Teoria delle perturbazioni per livelli discreti e non degeneri . . . . . . 543.14.2 Teoria delle perturbazioni per livelli discreti e degeneri . . . . . . . . . 573.14.3 Operatore risolvente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593.14.4 Teoria delle perturbazioni dipendenti dal tempo . . . . . . . . . . . . . 60

    1

  • 3.14.5 Oscillazioni di Rabi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623.15 Algebre di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

    3.15.1 Oscillatore armonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663.15.2 Algebra di SU(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.15.3 Esempi di ottica quantistica . . . . . . . . . . . . . . . . . . . . . . . . 68

    3.16 Momento angolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.17 Interazione con campi elettromagnetici . . . . . . . . . . . . . . . . . . . . . . 78

    3.17.1 Effetto Aharonov-Bohm . . . . . . . . . . . . . . . . . . . . . . . . . . 823.17.2 Accoppiamento spin-campo magnetico e equazione di Pauli-Schrödinger 84

    3.18 Simmetrie discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853.18.1 Parità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853.18.2 Traslazioni discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 863.18.3 Inversione temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

    3.19 Sistemi a molte particelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 893.20 Cenni alla seconda quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . 943.21 Teoria dello scattering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

    2

  • 1 Introduzione

    L’approccio che avremo in questi appunti è di tipo assiomatico. Faremo dei postulati, da cuisvilupperemo una teoria per cercare di spiegare alcuni fatti sperimentali non interpretabiliclassicamente. Non seguiremo invece un approccio storico, che consiste essenzialmente nelpartire dal problema della radiazione di corpo nero, dall’instabilità classica degli atomi edall’effetto fotoelettrico per introdurre le prime idee della meccanica quantistica. La teo-ria che andremo a costruire sarà piuttosto controintuitiva sul piano interpretativo, mentresul piano formale avremo una teoria autoconsistente e piuttosto semplice, che di fatto saràqualcosa di più di una teoria fisica. Nella formulazione assiomatica non c’è infatti il biso-gno di introdurre particolari accoppiamenti o interazioni, anzi la struttura matematica chedescriveremo sarà alla base di qualunque interazione venga poi attuata dalla natura.

    1.1 Stati e misure

    Iniziamo descrivendo alcune differenze tra la meccanica classica e la meccanica quantistica.Nella prima, non c’è una chiara distinzione tra lo stato di un sistema e il concetto di misura.Al contrario, lo stato di un sistema fisico è completamente determinato una volta che vengonoassegnati (e quindi misurati) i valori di un numero sufficiente di osservabili: ad esempio, lostato di una particella puntiforme è noto una volta che ne conosciamo la posizione e lavelocità. Questa sorta di equivalenza ci dà, implicitamente, anche abbastanza informazionisu come preparare effettivamente lo stato, almeno a livello di principio.

    In meccanica quantistica il legame tra stato e misura non è cos̀ı stringente: assegnare lostato di un sistema non fornisce in maniera esaustiva il valore delle misure delle osservabilidel sistema. Viceversa, la definizione di stato è ancora fortemente connessa con il concettodi preparabilità. In particolare, assegnare uno stato significa dare abbastanza informazioniper prepararlo.

    Un’altra differenza fondamentale tra le due teorie è l’invasività delle misure. In una teoriaclassica è possibile, almeno teoricamente, fare misure non invasive su un sistema: la misurastessa, ossia l’estrazione di informazione dal sistema, non altera lo stato di quest’ultimo.In meccanica quantistica le misure sono invasive, nel senso che c’è un legame ben precisotra la quantità di informazione ottenuta e la perturbazione introdotta sul sistema. Questaperturbazione è intrinseca, ossia non è imputabile semplicemente a una scarsa capacità dellosperimentatore.

    Infine, c’è una sostanziale differenza nello studio dei sistemi compositi: se in meccanicaclassica si tende ad avere un approccio riduzionista, ossia si tende a studiare i singoli co-stituenti di un sistema fisico, per poi estenderlo a su larga scala, in meccanica quantisticaquesto non è più possibile. In altre parole, non è più vero che definire lo stato di un sistemacomposito sia equivalente a definire lo stato di tutti i suoi costituenti.

    1.2 Esperimento di Stern-Gerlach

    Vediamo ora l’esperimento di Stern-Gerlach, che permette di vedere le differenze discussenella sezione precedente. Consideriamo una sorgente che emette atomi in una direzione,diciamo lungo ŷ. Vogliamo ideare un apparato per misurare lo spin degli atomi, che èuna proprietà tipicamente quantistica di un sistema, analoga per certi versi a un momentomagnetico intrinseco µ. Supponiamo quindi che gli atomi formino un fascio, ben collimato,che attraversa una regione di spazio in cui è presente un campo magnetico non uniforme

    3

  • B = Bz(z)ẑ.1 Se lo spin si comporta come un momento magnetico, all’interno del campo

    magnetico ci aspettiamo innanzitutto una precessione di µ intorno all’asse ẑ. Inoltre, datoche il campo non è uniforme sull’atomo agisce una forza

    F = µz∂Bz∂z

    Se supponiamo che l’orientazione dello spin degli atomi emessi sia casuale, ci aspettiamo cheil fascio si divida attraversando la regione con il campo magnetico. Se mettiamo uno schermo,classicamente ci aspettiamo una distribuzione continua, corrispondente a una distribuzionecontinua di µz tra −|µ| e +|µ|. Sperimentalmente si osservano cose ben diverse: si formanodue macchie molto pronunciate, che ci permettono di affermare (entro gli errori sperimentali)che µz può avere solo due valori opposti. A meno di costanti, indichiamoli con ±1, e diciamoche un atomo si trova nello stato up (u) se µz = +1, nello stato down (d) se µz = −1.Inoltre, si osserva che il numero di eventi in ogni picco è lo stesso, dunque i due valori di µzsono equiprobabili. Schematicamente, l’esperimento si può rappresentare come

    ẑu

    d

    Il rettangolo privo di un lato indica la sorgente di atomi con spin orientato casualmente, ilquadrato con all’interno ẑ indica la regione di spazio in cui B è rivolto lungo ẑ, le lettereu e d indicano che un atomo che esce dal campo magnetico può avere spin up o down conuguali probabilità. Notiamo che il quadrato si comporta di fatto come un misuratore di µ · ẑ.Consideriamo ora il seguente esperimento ”a cascata”

    ẑu ẑu

    dove la scatola con ẑu indica un apparato di Stern-Gerlach che lascia passare solo gli atomicon µz = +1 (ad esempio bloccando con uno schermo quelli con µz = −1) e la freccia conuna sola u indica un fascio con atomi tutti con µz = +1. In tal caso, dal secondo apparatosi osserva che tutti gli atomi hanno ancora µz = +, e questo continua a valere anche se simettono altri apparati oltre il secondo. Questo fatto ci permette di interpretare la sorgentee il primo stadio come un’unica sorgente ”pura” di atomi con solo spin up. Indichiamolacon

    ẑ, u

    Usiamo chiaramente un simbolo analogo per una sorgente pura di stati down

    ẑ, d

    Chiediamoci ora cosa accade se consideriamo

    1In realtà un tale campo non rispetta le equazioni di Maxwell: più realisticamente, consideriamo un campoin cui Bx, By � Bz.

    4

  • ẑ, u −ẑ

    In tal caso il fascio che esce dall’apparato è tutto con spin down, nel senso che la deflessionedi cui risente è verso ẑ. Questo è in accordo con l’idea di spin come grandezza vettoriale.Possiamo anche ripetere l’esperimento ruotando l’apparato di 90◦, ossia usando un apparatocon campo magnetico rivolto lungo x̂. L’esito è analogo al primo esperimento descritto, maquesta volta indichiamo i due valori possibili dello spin con left (l) e right (r). Ovviamente

    x̂lr

    Se invece consideriamo l’apparato

    ẑ, u x̂

    si osserva ancora una divisione, sempre in parti uguali, del fascio tra atomi con spin lefte atomi con spin right. Arrivati a questo punto, una spiegazione classica potrebbe ancoraessere accettabile: per un qualche motivo strano, il valore di µz e di µx può solo essere±1, ma se accettiamo questo fatto l’apparato si comporta come un selettore per i valori diµz e di µx. Se però incliniamo l’apparato in una direzione n̂ = cos θx̂ + sin θẑ, si osservaancora la divisione in due fasci. Questo non è spiegabile se µ si comporta come un vettore.Ancora peggio, possiamo immaginare un apparato formato da tre sottoapparati diretti lungoi versori ẑ, ê1 = (

    √3/2)x̂− (1/2)ẑ e ê2 = −(

    √3/2)x̂− (1/2)ẑ. In tal modo, si ha

    ẑ + ê1 + ê2 = 0

    e di conseguenza(ẑ + ê1 + ê2) · µ = 0

    Questo risultato è privo di senso, perchè i valori possibili nella misura di ẑ ·µ, ê1 ·µ e ê2 ·µsono ±1, ma non possiamo ottenere 0 sommando un numero dispari di ±1.2 Consideriamoora l’apparato

    ẑ, u x̂lr ẑ

    Sperimentalmente si osserva che, all’uscita dell’apparato lungo ẑ, il fascio si divide nuo-vamente tra stato up e stato down. Questo controintuitivo risultato, unito a quello sugliapparati lungo ẑ in cascata, mostra sperimentalmente come la misura di µx sia invasiva, nelsenso che fa perdere l’informazione precedente su µz. Come ultimo esempio, supponiamo divoler verificare tramite un esperimento di Stern-Gerlach la proposizione ”µx = l ∨ µz = u”

    2Questa incompatibilità tra le misure è essenzialmente dovuta al fatto che le matrici di Pauli

    σx =

    (0 11 0

    ), σy =

    (0 −ii 0

    ), σz =

    (1 00 −1

    )non commutano tra di loro.

    5

  • per un fascio proveniente da una sorgente pura di stati up. Possiamo procedere in due modidistinti:

    1. misuriamo µz, poi misuriamo µx;

    2. misuriamo µx, poi misuriamo µz.

    Classicamente non c’è alcuna distinzione tra i due procedimenti. D’altronde, come abbiamovisto, in meccanica classica le misure lasciano il sistema inalterato nel suo stato. Abbiamoormai imparato che in meccanica quantistica ciò non è più vero: la prima procedura ci diceche la proposizione è vera nel 100% dei casi, mentre la seconda solo nel 75% dei casi.Notiamo incidentalmente che, a meno di deviare il fascio, possiamo misurare anche lo spinlungo ŷ. Nel seguito indichiamo con top (t) e bottom (b) i due stati possibili di µy.

    1.3 Assiomatizzazione parziale dell’apparato di Stern-Gerlach

    Dobbiamo ora sviluppare un certo numero di assiomi che ci permettono di predire questibizzarri comportamenti. Per prima cosa, postuliamo che lo stato proveniente da una sor-gente pura sia associato a un vettore |ψ〉3 appartenente a un certo spazio di Hilbert H,di dimensione opportuna. Ad esempio, per gli stati lungo i tre assi usiamo le notazioni|u〉, |d〉, |l〉, |r〉, |t〉 e |b〉. A questo punto postuliamo che |u〉 e |d〉 siano ortogonali, poichèesiste una misura in grado di distinguerli senza ambiguità, ossia

    〈u|d〉 = 0

    Inoltre, non ci sono altri gradi di libertà rilevanti. Imponiamo quindi dimH = 2 e richiediamoche ogni altro stato |ψ〉 del sistema sia della forma

    |ψ〉 = α|u〉+ β|d〉

    Come mostreremo tra poco, i coefficienti α, β sono generalmente complessi. Per lo spin leftavremo allora

    |l〉 = αl|u〉+ βl|d〉

    Postuliamo ora che |αl|2 e |βl|2 siano le probabilità condizionate di misurare l, ossia

    |αl|2 = P (µz = +1||l〉)|βl|2 = P (µz = −1||l〉)

    Notiamo che per costruzione si ha αl = 〈u|l〉 e βl = 〈d|l〉. Inoltre, sperimentalmente siosserva

    |αl|2 = |βl|2 =1

    2

    Ovviamente, questa condizione da sola non permette di determinare i due coefficienti.Possiamo però fare un discorso analogo per |r〉, ossia scrivere

    |r〉 = αr|u〉+ βr|d〉

    con

    |αr|2 = |βr|2 =1

    2

    3Usiamo la notazione di Dirac, che sarà spiegata nella prossima sezione.

    6

  • Inoltre, anche |l〉 e |r〉 devono essere ortogonali. Questo richiede

    α∗rαl + β∗rβl = 0

    Tutte queste condizioni sono verificate se si pone

    |l〉 = 1√2

    (|u〉+ |d〉)

    |r〉 = 1√2

    (|u〉 − |d〉)

    Ma, chiaramente, non è la scrittura più generale dei coefficienti: possiamo ad esempio molti-plicare αl e βl per e

    iθl e αr e βr per eiθr , continuando a rispettare le condizioni date. Vedremo

    più avanti che in realtà queste fasi globali sono del tutto irrilevanti. Infine, possiamo ripetereil discorso anche per |t〉 e |b〉. In tal caso però abbiamo ulteriori condizioni, perchè potremmoscegliere anche {|l〉, |r〉} come base di H. Queste considerazioni richiedono, a meno di fasiglobali

    |t〉 = 1√2

    (|u〉 − i|d〉)

    |b〉 = 1√2

    (|u〉+ i|d〉)

    Quindi è essenziale che H sia complesso. Effettivamente, abbiamo costruito tre coppie divettori mutuamente ortogonali tali che, comunque presi due vettori da coppie diverse, questihanno sempre un angolo tra di loro di π/4. Questo è impossibile in uno spazio vettoriale realea due dimensioni. Se però prendiamo H come spazio complesso, potrebbe sorgerci il dubbioche in realtà sia a quattro dimensioni, dato che due coefficienti complessi dipendono daquattro parametri reali. Non è cos̀ı perchè uno dei parametri può essere eliminato togliendole fasi globali, e un altro viene eliminato considerando la condizione di normalizzazione,necessaria per un’interpretazione probabilistica dei coefficienti. Questi due parametri hannouna sorta di analogo nel sistema reale: i due angoli necessari per determinare l’orientazionedell’apparato.

    7

  • 2 Assiomatizzazione della meccanica quantistica

    2.1 Richiami di analisi e geometria

    Diamo per note le nozioni di spazio vettoriale, lineare indipendenza e base. Se non indicato,lo spazio si suppone su C. Seguono alcune definizioni che dovrebbero essere già note, ma sucui, a volte, c’è ambiguità nella notazione usata dai matematici e dai fisici. Inoltre, daremodiversi risultati utili senza dimostrazione, dato che dovrebbero essere stati visti in altri corsi.Ci limiteremo a dimostrare solo alcuni ultimi teoremi e lemmi.

    Definizione 2.1 (Prodotto scalare). Sia V uno spazio vettoriale. Un prodotto scalare su Vè una mappa (, ) : V × V → C che gode di

    • linearità nel secondo argomento,

    • per ogni v ∈ V si ha (v, v) ≥ 0, con uguaglianza se e solo se v = 0,

    • per ogni v, w ∈ V si ha (v, w) = (w, v)∗.

    Lemma 2.1 (Disuguaglianza di Cauchy-Schwarz). Sia V uno spazio vettoriale dotato di unprodotto scalare (, ). Allora per ogni v, w ∈ V

    |(v, w)| ≤√

    (v, v)(w,w)

    Definizione 2.2 (Norma indotta). Sia V uno spazio vettoriale dotato di un prodotto scalare(, ). La norma indotta dal prodotto scalare è la mappa ‖·‖ : V → R definita da

    ‖v‖ =√

    (v, v)

    e gode delle proprietà

    • per ogni v ∈ V si ha ‖v‖ ≥ 0, con uguaglianza se e solo se v = 0,

    • per ogni v ∈ V e λ ∈ C si ha ‖λv‖ = |λ| ‖v‖,

    • vale la disuguaglianza triangolare, ovvero per ogni v, w ∈ V si ha

    ‖v + w‖ ≤ ‖v‖+ ‖w‖

    Definizione 2.3 (Distanza indotta). Sia V uno spazio vettoriale dotato di un prodottoscalare (, ). La distanza indotta dal prodotto scalare è la mappa d : V × V → R definita da

    d(v, w) = ‖v − w‖

    e gode delle proprietà

    • per ogni v, w ∈ V si ha d(v, w) ≥ 0, con uguaglianza se e solo se v = w,

    • per ogni v, w ∈ V si ha d(v, w) = d(w, v),

    • vale la disuguaglianza triangolare, ovvero per ogni v, w, u ∈ V si ha

    d(v, w) ≤ d(v, u) + d(u,w)

    8

  • Definizione 2.4 (Successione di Cauchy). Siano V uno spazio vettoriale con una norma ‖·‖e {vn}n∈N una successione in V . La successione è detta di Cauchy se per ogni ε > 0 esisteNε ∈ N tale che per ogni n,m ≥ Nε si ha

    ‖vn − vm‖ < ε

    Definizione 2.5 (Spazio completo). Uno spazio vettoriale con una norma ‖·‖ si dice com-pleto o chiuso se tutte le successioni di Cauchy convergono.

    Definizione 2.6 (Spazio di Hilbert). Uno spazio di Hilbert H è uno spazio vettoriale dotatodi prodotto scalare, completo rispetto alla norma indotta.

    2.1.1 Spazi a dimensione finita

    D’ora in poi ci limitiamo al caso in cui dimH < +∞, tratteremo poi il caso degli spazi adimensione infinita.

    Definizione 2.7 (Funzionale e spazio duale). Sia H uno spazio di Hilbert. Un funzionale suH è una mappa lineare φ : H → C. L’insieme dei funzionali su H forma uno spazio vettoriale,detto spazio duale di H e indicato con H†.

    Teorema 2.1 (di rappresentazione di Riesz). Sia f un funzionale su uno spazio di HilbertH. Allora esiste un unico vettore w ∈ H tale che per ogni v ∈ V

    f(v) = (w, v)

    Corollario 2.1. Uno spazio di Hilbert H è isomorfo al suo duale H†.

    Definizione 2.8 (Operatore). Un operatore su uno spazio di Hilbert H è un’applicazionelineare Θ̂ : H → H.

    Possiamo ora introdurre la notazione di Dirac: indichiamo i vettori di uno spazio diHilbert H con la notazione |v〉. Il vettore cos̀ı indicato è detto ket. Inoltre, indichiamo glielementi H† con la notazione 〈w|, detto bra. Dato l’isomorfismo tra H e H†, indichiamo ilprodotto scalare tra |v〉 e |w〉 con

    〈v|w〉

    Inoltre, indichiamo l’azione di un operatore Θ̂ su un vettore |v〉 con Θ̂|v〉. In tal modo, ilprodotto scalare tra i vettori |v〉 e Θ̂|w〉 è

    〈v|Θ̂|w〉

    In particolare, il prodotto〈v|Θ̂|v〉

    è detto valore di aspettazione di Θ̂ sul vettore (o stato) |v〉. Infine, presi |v〉, |w〉 ∈ H,possiamo definire il prodotto esterno Θ̂ = |v〉〈w|. Questo operatore agisce su |u〉 ∈ H con

    Θ̂|u〉 = 〈w|u〉|v〉

    Si noti chetr(|v〉〈w|) = 〈w|v〉

    Se |v〉 ha norma 1, allora Π̂ = |v〉〈v| è il proiettore su |v〉.

    9

  • Definizione 2.9 (Matrice associata a un operatore). Siano Θ̂ un operatore su uno spaziodi Hilbert H di dimensione d e {|ei〉}di=1 una base di H. La matrice M associata a Θ̂ nellabase scelta è la matrice con coefficienti

    Mij = 〈ei|Θ̂|ej〉

    Lemma 2.2. Nelle ipotesi precedenti, se indichiamo con α|v〉, αΘ̂|v〉 ∈ Cd le d-uple delle

    coordinate di |v〉 e Θ̂|v〉 rispetto alla base fissata, si ha

    αΘ̂|v〉 = Mα|v〉

    Definizione 2.10 (Prodotto di operatori, commutatore e anticommutatore). Siano Θ̂1, Θ̂2due operatori su uno spazio di Hilbert H. Il loro prodotto Θ̂1Θ̂2 è definito come la lorocomposizione ed è, in generale, non commutativo. Il commutatore tra Θ̂1 e Θ̂2 è

    [Θ̂1, Θ̂2] = Θ̂1Θ̂2 − Θ̂2Θ̂1

    mentre l’anticommutatore è{Θ̂1, Θ̂2} = Θ̂1Θ̂2 + Θ̂2Θ̂1

    Diremo che i due operatori (anti)commutano o sono (anti)commutanti se il loro (anti)commutatoreè l’operatore nullo.

    Definizione 2.11 (Operatore aggiunto). Sia Θ̂ un operatore su uno spazio di Hilbert H.L’operatore aggiunto Θ̂† è definito come l’operatore tale che per ogni |v〉, |w〉 ∈ H si abbia

    〈w|Θ̂†|v〉 =(〈v|Θ̂|w〉

    )∗Si noti che se M è la matrice associata a Θ̂ in una data base, allora M † è la matrice

    associata a Θ̂† nella stessa base. Inoltre, senza la notazione di Dirac la definizione di aggiuntoè in un certo senso più semplice: è l’operatore tale che, per ogni v, w ∈ H, si abbia

    (Θ̂†v, w) = (v, Θ̂w)

    Definizione 2.12 (Operatore normale). Un operatore Θ̂ su uno spazio di Hilbert H si dicenormale se [Θ̂, Θ̂†] = 0.

    Definizione 2.13 (Operatore isometrico). Un operatore Θ̂ su uno spazio di Hilbert H sidice isometrico se Θ̂†Θ̂ = IdH.

    Definizione 2.14 (Operatore unitario). Un operatore Θ̂ su uno spazio di Hilbert H si diceunitario se è normale e isometrico.

    Definizione 2.15 (Operatore hermitiano). Un operatore Θ̂ su uno spazio di Hilbert H sidice hermitiano (o autoaggiunto) se Θ̂ = Θ̂†.

    Definizione 2.16 (Operatore positivo). Un operatore Θ̂ su uno spazio di Hilbert H si dicepositivo, e si scrive Θ̂ ≥ 0, se il suo valore di aspettazione è non negativo su ogni stato, ossiase per ogni |ψ〉 ∈ H si ha 〈ψ|Θ̂|ψ〉 ≥ 0.

    Si noti che un operatore positivo è necessariamente autoaggiunto e che un operatoreautoaggiunto è necessariamente normale. Inoltre, un operatore isometrico è necessariamentenormale.

    10

  • Definizione 2.17 (Autovettori e autovalori). Sia Θ̂ un operatore su uno spazio di HilbertH. |v〉 ∈ H\{0} si dice autovettore di Θ̂ relativo all’autovalore λ ∈ C se

    Θ̂|v〉 = λ|v〉

    Definizione 2.18. Siano λ ∈ C, Θ̂ un operatore su uno spazio di Hilbert H. Il polinomiocaratteristico pΘ̂ di Θ̂ è il polinomio

    pΘ̂(λ) = det(Θ̂− λId)

    Teorema 2.2. Gli autovalori di Θ̂ sono tutte e sole le radici di pΘ̂.

    Lemma 2.3. Gli autovalori di un operatore autoaggiunto sono reali.

    Lemma 2.4. Gli autovalori di un operatore isometrico hanno modulo 1.

    Lemma 2.5. Gli autovettori di un operatore normale relativi ad autovalori distinti sonoortogonali.

    Lemma 2.6. Se λ ∈ C è un autovalore per un operatore normale Θ̂ e |v〉 è un autovettorerelativo a λ, allora |v〉 è un autovettore anche per Θ̂† con autovalore λ∗.

    Teorema 2.3. Siano Â, B̂ due operatori diagonalizzabili su uno spazio di Hilbert H. Alloraesiste una base di H di autovettori per  e B̂ se e solo se [Â, B̂] = 0.

    Teorema 2.4 (Teorema spettrale per operatori autoaggiunti). Sia Θ̂ un operatore autoag-giunto su uno spazio di Hilbert H. Allora esiste una base ortonormale di H di autovettoridi Θ̂.

    Dimostrazione. Procediamo per induzione su d = dimH. Per d = 1 non c’è nulla da mostra-re. Supponiamo ora d > 1 e sia λ1 un autovalore di Θ̂, con autovettore |e1〉 normalizzato.Completiamo |e1〉 a base {|e1〉, |v2〉, . . . , |vd〉} di H in modo che |e1〉 sia ortogonale a tutti glialtri vettori di base. In tal modo, se M è la matrice associata a Θ̂ in tale base si ha

    Mi1 = 〈ei|Θ̂|e1〉 = λ1δi1

    In particolare, Mi1 = 0 per i ≥ 2. Dato che l’operatore è autoaggiunto, allora Mij = M∗ji,dunque M1i = 0 per i ≥ 2. Quindi se W ⊆ H è il sottospazio generato da |v2〉, . . . , |vd〉 si haΘ̂(W ) ⊆W , inoltre dimW = d−1, quindi per ipotesi induttiva esiste una base ortonormaleB di W di autovettori per Θ̂|W . Chiaramente B ∪ {|e1〉} è una base ortonormale di H diautovettori di Θ̂.

    Lemma 2.7. Sia Θ̂ un operatore su uno spazio di Hilbert H. Θ̂ è normale se e solo seesistono due operatori Â, B̂ autoaggiunti e commutanti tali Θ̂ = Â+ iB̂.

    Dimostrazione. La freccia ⇐ è ovvia. Per l’altra freccia, definiamo

    Â =Θ̂ + Θ̂†

    2

    B̂ =Θ̂− Θ̂†

    2i

    Chiaramente  e B̂ sono due operatori autoaggiunti tali che Θ̂ = Â+ iB̂. Inoltre

    [Â, B̂] =(Θ̂ + Θ̂†)(Θ̂− Θ̂†)

    4i− (Θ̂− Θ̂

    †)(Θ̂ + Θ̂†)

    4i=

    = 0

    11

  • Teorema 2.5 (Teorema spettrale). Sia Θ̂ un operatore su uno spazio di Hilbert H. AlloraΘ̂ è normale se e solo se esiste una base ortonormale di H di autovettori di Θ̂.

    Dimostrazione. Di nuovo, la freccia ⇐ è banale. Per l’altra freccia, basta usare la decom-posizione data dal lemma precedente e il teorema 2.3 per concludere.

    Definizione 2.19 (Prodotto tensoriale di spazi vettoriali). Siano V , W due spazi vettoriali.Un prodotto di tensoriale di V e W , indicato con V ⊗̂W , è uno spazio vettoriale dotato diuna mappa bilineare ⊗̂ : V ×W → V ⊗̂W , che associa la coppia (v, w) ∈ V ×W all’elementov⊗̂w ∈ V ⊗̂W , tale che, preso uno spazio vettoriale Z qualunque, per ogni mappa bilineareh : V ×W → Z esiste una mappa lineare h′ : V ⊗̂W → Z che faccia commutare il diagramma

    V ×W V ⊗̂W

    Z

    h

    ⊗̂

    h′

    Teorema 2.6. Il prodotto tensoriale V ⊗̂W esiste ed è unico a meno di isomorfismi. Inol-tre, se {vi}i∈I e {wj}j∈J sono rispettivamente una base di V e una base di W , allora{vi⊗̂wj

    }(i,j)∈I×J è una base di V ⊗̂W .

    Definizione 2.20. I vettori di V ⊗̂W della forma v⊗̂w, con v ∈ V e w ∈ W , sono dettivettori decomponibili.

    Definizione 2.21 (Prodotto tensoriale di spazi di Hilbert). Siano H, H′ due spazi di Hilbertcon prodotti scalari (, )H e (, )H′ . Definiamo sui vettori decomponibili di H⊗̂H′ il prodottoscalare (, ) : (H⊗̂H′)× (H⊗̂H′)→ C

    (v1⊗̂v′1, v2⊗̂v′2) = (v1, v2)H(v′1, v′2)H′

    Il prodotto tensoriale di H e H′, indicato con H⊗H′, è il completamento metrico di H⊗̂H′.

    Nel seguito, useremo il prodotto tensoriale di spazi di Hilbert per studiare un sistemacomposito a partire dai suoi sottosistemi. Indicheremo con stati entangled gli stati indecom-ponibili, e questi avranno un ruolo importante dal punto di vista interpretativo: rappresen-teranno infatti degli stati che non hanno un analogo classico. In ogni caso si noti che, peril teorema 2.6, comunque preso |ψ〉 ∈ H ⊗ H′ esistono due successioni {|φn〉H}n∈N ⊆ H e{|χm〉H′}m∈N ⊆ H′ tali che

    |ψ〉 =∑k

    |φk〉H ⊗ |χk〉H′

    Viceversa, gli stati decomponibili saranno chiamati indifferentemente stati prodotto, statifattorizzati o stati non entangled. Inoltre, per il prodotto tensoriale useremo, quando nonambigue, le notazioni

    |ψ〉H ⊗ |φ〉H′ = |ψ〉 ⊗ |φ〉 = |ψ〉H|φ〉H′ = |ψ, φ〉H,H′ = |φ〉H′ ⊗ |ψ〉H = |φ〉H|ψ〉H′

    In particolare, utilizzando le ultime due notazioni indicheremo sempre con un pedice lospazio a cui appartengono i ket.

    Definizione 2.22 (Prodotto tensoriale di operatori). Siano Θ̂H e Ω̂H′ due operatori, rispet-tivamente sugli spazi di Hilbert H e H′. Il prodotto tensoriale dei due operatori è l’operatoreΘ̂H ⊗ Ω̂H′ su H⊗H′ definito sugli stati non entangled da

    Θ̂H ⊗ Ω̂H′(|ψ〉H ⊗ |φ〉H′) = (Θ̂H|ψ〉H)⊗ (Ω̂H′ |φ〉H′)

    12

  • Se uno dei due operatori (ad esempio Ω̂′H) è l’identità, spesso indicheremo per brevità

    Θ̂H ⊗ IdH′ direttamente con Θ̂H. Inoltre, in maniera analoga a quanto visto con gli stati,se Λ̂ è un operatore su H ⊗ H′ allora esistono due successioni di operatori

    {Θ̂

    (n)H

    }n∈N

    e{Ω̂

    (m)H′}m∈N

    , rispettivamente su H e H′, tali che

    Λ̂ =∑k

    Θ̂(k)H ⊗ Ω̂

    (k)H′

    Gli operatori ”decomponibili”, cioè scrivibili come prodotto di due operatori sui due spazi,saranno chiamati operatori locali.

    Definizione 2.23 (Contrazione). Presi due spazi di Hilbert H e H′, e presi |χ〉H ∈ H e|ψ〉H⊗H′ ∈ H ⊗H′, la contrazione tra i due vettori è

    〈χ|H ψ〉H⊗H′

    Si noti che la contrazione è un vettore diH′. Infatti, fissate due basi ortonormali {|i〉H}i∈Ie {|j〉H′}j∈J di H e H′, si ha

    |χ〉H =∑i∈I

    αi|i〉H

    |ψ〉H⊗H′ =∑

    (i,j)∈I×J

    βij |i〉H ⊗ |j〉H′

    e quindi

    〈χ|H ψ〉H⊗H′ =∑

    (i,j)∈I×J

    α∗i βij |j〉H′ ∈ H′

    Ovviamente, le definizioni date finora si estendono anche al prodotto tensoriale di più spazidi Hilbert.

    2.1.2 Spazi a dimensione infinita

    In questa sezione non usiamo la notazione di Dirac. Molti dei risultati appena visti nonvalgono nel caso generale: saremo quindi interessati a dare opportune restrizioni per avererisultati simili al caso finito dimensionale.

    Definizione 2.24 (Convergenza forte e debole). Sia {en}n∈N una successione in uno spaziodi Hilbert H. Si dice che la successione converge fortemente (o in norma) a e ∈ H se

    limn→+∞

    ‖en − e‖ = 0

    Si dice che la successione converge debolmente a e ∈ H se per ogni v ∈ H si ha

    limn→+∞

    (v, en) = (v, e)

    Lemma 2.8. La convergenza forte implica la convergenza debole.

    Lemma 2.9 (Disuguaglianza di Bessel). Siano H uno spazio di Hilbert a dimensione infinita,{vk}k∈N ⊆ H una successione di vettori ortonormali e {αk}k∈N ⊆ C una successione dicomplessi. Allora, per ogni w ∈ H e per ogni N ∈ N, la grandezza∥∥∥∥∥∥w −

    N∑j=0

    αjvj

    ∥∥∥∥∥∥13

  • è minima per αj = (vj , w). Inoltre, si ha

    N∑j=0

    |(vj , w)|2 ≤ ‖w‖2

    Dimostrazione. Si ha

    0 ≤

    ∥∥∥∥∥∥w −N∑j=0

    αjvj

    ∥∥∥∥∥∥2

    =

    = ‖w‖2 +N∑j=0

    |αj |2 − 2ReN∑j=0

    αj(w, vj) =

    = ‖w‖2 −N∑j=0

    |(vj , w)|2 +N∑j=1

    |αj − (vj , w)|2

    Quindi la norma iniziale è minima se αj = (vj , w). Inoltre, in tal caso segue la disuguaglianzadi Bessel.

    Lemma 2.10. Siano H uno spazio di Hilbert, {vk}k∈N ⊆ H una successione di vettoriortonormali, w ∈ H. La successione

    wn =n∑k=0

    (vk, w)vk

    è di Cauchy.

    Definizione 2.25 (Insieme ortonormale completo). Nelle ipotesi del lemma precedente, seper ogni w ∈ H si ha w = lim

    n→+∞wn, la successione {vk}k∈N forma un insieme ortonormale

    completo.

    Definizione 2.26 (Spazio di Hilbert separabile). Uno spazio di Hilbert H è separabile seha un sottoinsieme numerabile e denso.

    Teorema 2.7. Uno spazio di Hilbert H è separabile se e solo se ammette un insiemeortonormale completo numerabile.

    Teorema 2.8. Lo spazio

    l2 =

    {a = {an}n∈N ⊆ C :

    +∞∑n=0

    |an|2 < +∞

    }

    munito del prodotto scalare

    (a, b) =+∞∑n=0

    a∗nbn

    è uno spazio di Hilbert separabile.

    Teorema 2.9. Ogni spazio di Hilbert H separabile è isomorfo a l2.

    14

  • Teorema 2.10. Lo spazio

    L2(R) ={f : R→ C :

    ∫ +∞−∞

    |f(x)|2dx < +∞}

    munito del prodotto scalare

    (f, g) =

    ∫ +∞−∞

    f∗(x)g(x)dx

    e a meno della relazione di equivalenza f ∼ g se f = g quasi ovunque, è uno spazio diHilbert.

    Consideriamo ora lo spazio degli operatori lineari su H: lo indicheremo con L(H). Datoche lavoriamo in uno spazio a dimensione infinita, si possono anche considerare operatorinon definiti su tutto lo spazio4: se Θ̂ è un operatore, indichiamo il suo dominio con D(Θ̂).

    Definizione 2.27 (Norma operatoriale). Sia Θ̂ ∈ L(H). La norma di Θ̂ è

    ‖Θ̂‖ = supv∈H\{0}

    ‖Θ̂v‖‖v‖

    Definizione 2.28 (Operatore limitato). Sia Θ̂ ∈ L(H). Se ‖Θ̂‖ < +∞, diciamo che Θ̂ èlimitato. Lo spazio degli operatori limitati è B(H).

    Definizione 2.29 (Operatore chiuso). Sia Θ̂ un operatore lineare in uno spazio di HilbertH con dominio D(Θ̂). Θ̂ si dice chiuso se per ogni successione {vn}n∈N ⊆ D(Θ̂) tale cheesistano v = lim

    n→+∞vn e w = lim

    n→+∞Θ̂vn, si ha v ∈ D(Θ̂) e w = Tv.

    Definizione 2.30 (Operatore aggiunto). Sia Θ̂ un operatore con dominio D(Θ̂) denso inH. Sia

    A ={v ∈ H : esiste v ∈ H tale che per ogni w ∈ D(Θ̂), (v, Θ̂w) = (v, w)

    }L’operatore aggiunto Θ̂† di Θ̂ è l’operatore con dominio D(Θ̂†) = A tale che per ogniw ∈ D(Θ̂) e per ogni v ∈ D(Θ̂†)

    (Θ̂†v, w) = (v, Θ̂w)

    Si noti che la densità del dominio è essenziale per definire l’aggiunto. Infatti, se esistonodue vettori v1, v2 ∈ H tali che per ogni w ∈ D(Θ̂) si abbia

    (v1 − v2, w) = 0

    allora, grazie alla densità di D(Θ̂) e alla continuità del prodotto scalare si ha la stessauguaglianza per ogni w ∈ H, e quindi v1 = v2.

    Definizione 2.31 (Operatore hermitiano). Un operatore Θ̂ si dice hermitiano se per ogniv, w ∈ D(Θ̂) si ha

    (w, Θ̂v) = (Θ̂w, v)

    Si noti che un operatore hermitiano non coincide in generale con il suo aggiunto, datoche questo potrebbe non esistere o avere un dominio diverso.

    4A differenza del caso finito dimensionale, definire un operatore su un insieme ortonormale completo nonsignifica definirlo su tutto lo spazio.

    15

  • Definizione 2.32 (Operatore simmetrico). Un operatore Θ̂ è simmetrico se è hermitiano eD(Θ̂) è denso in H.

    Definizione 2.33 (Operatore autoaggiunto). Un operatore Θ̂ è autoaggiunto se è simme-trico e se D(Θ̂) = D(Θ̂†).

    Definizione 2.34 (Operatore compatto). Un operatore Θ̂ si dice compatto se per ognisuccessione limitata {vn}n∈N ⊆ D(Θ̂) esiste una sottosuccessione

    {vnj}j∈N tale che la suc-

    cessione{

    Θ̂vnj

    }j∈N

    converge in modo forte. Lo spazio degli operatori compatti sarà indicato

    con B∞(H).

    Lemma 2.11. Un operatore compatto è limitato.

    Lemma 2.12. Un operatore è compatto se e solo se la chiusura dell’immagine di un qua-lunque sottoinsieme limitato del dominio è compatta.

    Si noti che la proprietà di compattezza è molto forte: ad esempio, l’identità non ècompatta.

    Definizione 2.35 (Operatore di classe traccia). Un operatore Θ̂ è di classe traccia se esisteun sistema ortonormale completo {ei}i∈N tale che

    +∞∑i=0

    (ei,√

    Θ̂†Θ̂ ei) < +∞

    Lo spazio degli operatori di classe traccia sarà indicato con B1(H).

    Gli operatori di classe traccia sono particolarmente importanti perchè, come vedremo, aun dato sistema fisico sarà possibile associare un operatore, detto matrice densità, che è diquesto tipo. Inoltre, se Θ̂ ∈ B1(H), è possibile definire come in dimensione finita la tracciatrΘ̂.

    Teorema 2.11 (Teorema spettrale compatto autoaggiunto). Sia Θ̂ un operatore compattoe autoaggiunto con dominio H. Allora vale uno dei seguenti enunciati:

    • Θ̂ ha un numero finito di autovalori λ1, . . . , λn non nulli. Detto Hj l’autospazio relativoa λj, si ha dimHj < +∞ per ogni j = 1, . . . , n. Inoltre, vale la decomposizione

    H = ker Θ̂⊕H1 ⊕ · · · ⊕ Hn

    ed esiste una base ortonormale {eji}1≤i≤dimHj ,1≤j≤n di autovettori di (ker Θ̂)⊥ di Θ̂.Si ha infine per ogni v ∈ H

    Θ̂v =

    n∑j=1

    λj

    dimHj∑i=1

    (eji , v)eji

    • Θ̂ ha un’infinità numerabile di autovalori non nulli λi, i ∈ N, ordinabili in modo che

    limn→+∞

    λn = 0

    Detto Hj l’autospazio relativo a λj, si ha dimHj < +∞ per ogni j ∈ N. Inoltre, valela decomposizione

    H = ker Θ̂⊕+∞⊕j=0

    Hj

    16

  • ed esiste una base ortonormale {eji}1≤i≤dimHj ,j∈N di (ker Θ̂)⊥ di autovettori di Θ̂. Siha infine per ogni v ∈ H

    Θ̂v =+∞∑j=0

    λj

    dimHj∑i=1

    (eji , v)eji

    Limitarsi però ai soli operatori compatti autoaggiunti sarebbe un limite notevole perlo sviluppo della teoria. Cerchiamo adesso di adattare alcune definizioni per avere unatrattazione decente dello spettro di un operatore.

    Definizione 2.36 (Autovalore generalizzato). Siano Θ̂ un operatore in uno spazio di Hilbert

    H e λ ∈ C. λ è un autovalore generalizzato per Θ̂ se esiste una successione{v

    (n)λ

    }n∈N⊆ D(Θ̂)

    di vettori normalizzati tali che

    limn→+∞

    ‖Θ̂v(n)λ − λv(n)λ ‖ = 0

    Teorema 2.12 (Weyl). λ è un autovalore generalizzato per Θ̂ se e solo se Θ̂ − λId non èinvertibile.

    Si noti che in dimensione finita non c’è distinzione tra autovalori e autovalori gene-ralizzati. Vediamo ora un esempio: consideriamo l’operatore Q̂ : D(Q̂) → L2(R) definitoda

    Q̂[f ](x) = xf(x)

    Il dominio è evidentemente

    D(Q̂) ={f ∈ L2(R) : xf(x) ∈ L2(R)

    }Si può mostrare che un tale dominio è denso in L2(R), dunque possiamo considerare l’ag-giunto Q̂†. Si mostra facilmente che Q̂† = Q̂ e D(Q̂†) = D(Q̂), quindi Q̂ è autoaggiunto. Sefλ è un autofunzione relativa a λ (che supponiamo reale), si deve avere

    (λ− x)fλ(x) = 0

    Quindi fλ ha come supporto {λ}, ossia fλ = 0, dunque Q̂ non ha autovalori propri. Sidefinisca ora la successione

    f(n)λ (x) =

    √n

    2χAλ,n(x)

    dove χAλ,n è la funzione caratteristica dell’intervallo

    Aλ,n =

    [λ− 1

    n, λ+

    1

    n

    ]Allora banalmente ‖f (n)λ ‖ = 1 per ogni n e inoltre

    limn→+∞

    ∥∥∥Q̂f (n)λ − λf (n)λ ∥∥∥ = 0Quindi lo spettro di Q̂ è tutto l’asse reale, nonostante non esistano autovettori. Si può peròpensare di estendere in qualche modo L2(R) in modo che abbia più ”funzioni”. Ad esempio,se consideriamo l’equazione agli autovalori per Q̂ nel senso delle distribuzioni, la soluzione èsemplicemente

    fλ(x) = Aδ(x− λ)

    In tal senso, possiamo pensare alla δ come a un autovettore generalizzato.

    17

  • Definizione 2.37 (Tripla di Gelfand). Una tripla di Gelfand è una tripla (Φ,H,Φ†), doveH è uno spazio di Hilbert, Φ un sottospazio denso di H che abbia una struttura di spaziovettoriale topologico tale che l’inclusione ι : Φ→ H sia continua.

    Grazie al teorema di rappresentazione di Riesz, possiamo identificare H come sottospa-zio di Φ†, e considerare quest’ultimo come una sorta di allargamento di H. Nell’esempioprecedente potremmo considerare la tripla di Gelfand (S,L2(R),S†), dove S è la classe diScwhartz e S† è lo spazio delle distribuzioni temperate. Riprendiamo adesso la notazionedi Dirac, in cui i risultati che seguono si possono esprimere in maniera più semplice. Inparticolare, identifichiamo f ∈ L2(R) con |f〉 e la delta di Dirac centrata in x0 con |x0〉, lavalutazione di f in x0 con 〈x0|f〉. Dal fatto che

    f(x) =

    ∫dyf(y)δ(x− y)

    segue che l’identità si scrive nella forma

    Id =

    ∫dx|x〉〈x|

    mentre l’operatore Q̂ dell’esempio precedente, che ha come autovalore generalizzato x e comeautovettore generalizzato |x〉, si scrive come

    Q̂ =

    ∫dxx|x〉〈x|

    Più in generale, un operatore Ω̂ avrà uno spettro sia continuo che discreto. La sua decom-posizione spettrale sarà della forma

    Ω̂ =

    ∫dω ω|ω〉〈ω|+

    ∑j

    ωj |j〉〈j|

    Imponiamo le relazioni per gli autovettori, generalizzati o meno

    〈j|j′〉 = δjj′〈ω|ω′〉 = δ(ω − ω′)〈ω|j〉 = 0

    2.2 Assiomi della meccanica quantistica: caso finito dimensionale

    Siamo ora pronti a dare la prima assiomatizzazione della teoria. Limitiamoci per ora a spazia dimensione finita, per poi generalizzare a spazi a dimensione infinita.

    Primo assioma: stati e spazi di Hilbert Dato un sistema fisico, gli stati puri di questosistema sono descritti da vettori in uno spazio di Hilbert H di dimensione (finita) opportuna.I vettori devono essere normalizzati e possono essere definiti a meno di una fase, dunque ivettori

    |ψ〉, eiθ|ψ〉

    rappresentano lo stesso stato. Assumiamo anche il viceversa: un vettore normalizzato rap-presenta, a meno di una fase, uno stato del sistema. Questo implica che nella teoria che

    18

  • svilupperemo vale il principio di sovrapposizione: se |ψ〉 e |φ〉 rappresentano due stati, alloraanche

    |ψ〉+ |φ〉‖|ψ〉+ |φ〉‖

    rappresenta uno stato. In realtà, vista l’ambiguità della fase, da due soli stati possiamocostruire molti stati diversi. Infatti, tralasciando il fattore di normalizzazione, a partire da|ψ〉 e |φ〉 possiamo costruire i vettori

    |ψ〉+ eiθ|φ〉

    che saranno associati a stati diversi del sistema.

    Secondo assioma: osservabili e misure Le osservabili di un sistema descritto dallospazio di Hilbert H sono associate agli operatori autoaggiunti su H e viceversa. La misuradi un’osservabile segue la regola di Born: se d = dimH e se consideriamo la decomposizionespettrale di un operatore Θ̂

    Θ̂ =

    d∑j=1

    θj |j〉〈j|

    allora la misura dell’osservabile associata a Θ̂ sullo stato puro |ψ〉 consiste in un’estrazionecasuale classica di un indice j compreso tra 1 e d con probabilità

    Pj(|ψ〉) = |〈j|ψ〉|2

    All’indice j è associato il valore θj dell’osservabile.Si noti che abbiamo utilizzato l’indice j per poter trattare anche il caso in cui un auto-

    valore è degenere. Inoltre, la definizione di Pj è consistente con il primo assioma: dato che|ψ〉 è normalizzato e dato che {|j〉}1≤j≤d è ortonormale, si ha

    0 ≤ Pj(|ψ〉) ≤ 1,d∑j=1

    Pj(|ψ〉) = 1

    che sono le proprietà minime che richiediamo da una distribuzione di probabilità. Resta orada chiarire cosa accade al sistema nella misura, e in particolare in quale stato sia dopo lastessa. Postuliamo che, in una misura di Θ̂ in cui si ottenga θj , lo stato del sistema passiistantaneamente dallo stato |ψ〉 allo stato |j〉. Questo processo viene chiamato meccanismodi proiezione (o, se si vuole, si può parlare di misura proiettiva) e, chiaramente, è un processoideale.

    Terzo assioma: sistemi compositi Dati due sistemi A, B indipendenti, con spazi di Hil-bertHA eHB, gli stati puri del sistema composito AB sono vettori normalizzati appartenentia HAB = HA ⊗HB.

    Quarto assioma: evoluzione temporale Dato un sistema che al tempo t0 si trova nellostato |ψ(t0)〉 e al tempo t ≥ t0 si trova nello stato |ψ(t)〉, esiste un operatore lineare unitarioÛ(t, t0), detto operatore di evoluzione temporale, tale che

    |ψ(t)〉 = Û(t, t0)|ψ(t0)〉

    Richiediamo inoltre che l’operatore di evoluzione sia continuo, che Û(t, t) = Id e che perogni t0 ≤ t1 ≤ t2 valga

    Û(t2, t0) = Û(t2, t1)Û(t1, t0)

    Infine, per brevità useremo la notazione Û(t) al posto di Û(t, t0), quando non ambigua.

    19

  • 2.3 Assiomi della meccanica quantistica: caso infinito dimensionale

    In questo caso gli assiomi non variano notevolmente dalla situazione precedente. Dobbiamosolo stare attenti alle sottigliezze che sorgono in uno spazio a dimensione infinita. Gli statidi un sistema fisico continuano a essere vettori normalizzati di uno spazio di Hilbert H,a meno di una fase, cos̀ı come le osservabili continuano ad essere associate agli operatoriautoaggiunti su H. Tuttavia, non esistono sempre autovalori all’interno dello spazio, eall’occorrenza considereremo anche gli autovettori generalizzati e lo spettro continuo di unoperatore.

    20

  • 3 Sviluppo della teoria

    3.1 Valori medi e varianze

    Per gli assiomi che abbiamo dato, il processo di misura è necessariamente stocastico. Diconseguenza, è opportuno compiere molte misure su sistemi nello stesso stato, per poi trarreconclusioni di natura statistica. In quest’ottica, definiamo il valor medio di un’osservabileΘ̂ sullo stato |ψ〉 come

    〈Θ̂〉∣∣∣|ψ〉

    =

    d∑j=1

    Pj(|ψ〉)θj

    Si noti che dalla definizione di Pj(|ψ〉) e ricordando che Θ̂|j〉 = θj |j〉

    〈Θ̂〉∣∣∣|ψ〉

    =d∑j=1

    〈ψ|j〉〈j|ψ〉θj =

    =

    〈ψ∣∣∣Θ̂∣∣∣ d∑

    j=1

    〈j|ψ〉|j〉

    〉=

    = 〈ψ|Θ̂|ψ〉

    Inoltre, se ordiniamo gli autovalori θj in ordine crescente, si ha chiaramente per ogni |ψ〉

    θ1 ≤ 〈ψ|Θ̂|ψ〉 ≤ θd

    Analogamente, definiamo la varianza sullo stato |ψ〉 come

    ∆2Θ̂∣∣∣|ψ〉

    =

    d∑j=1

    Pj(|ψ〉)(

    Θ̂− 〈Θ̂〉∣∣∣|ψ〉

    )2Calcoli analoghi ai precedenti mostrano che

    ∆2Θ̂∣∣∣|ψ〉

    =

    〈ψ

    ∣∣∣∣∣(

    Θ̂− 〈Θ̂〉∣∣∣|ψ〉

    )2∣∣∣∣∣ψ〉

    = 〈ψ|Θ̂2|ψ〉 −(〈ψ|Θ̂|ψ〉

    )2Ricordando inoltre la traccia del prodotto esterno, si ha anche

    〈Θ̂〉∣∣∣|ψ〉

    = tr(|ψ〉〈ψ|Θ̂

    )∆2Θ̂

    ∣∣∣|ψ〉

    = tr(|ψ〉〈ψ|Θ̂2

    )−(

    tr(|ψ〉〈ψ|Θ̂

    ))2Nel caso in cui lo stato |ψ〉 non abbia un qualche significato particolare, ometteremo il pedicequando indicheremo i valori medi e le varianze.

    Prendiamo ora due osservabili  e B̂. In un contesto classico, in cui le misure sononon invasive, non ci sono particolari vincoli sulle accuratezze ∆2 e ∆2B̂. In meccanicaquantistica invece la situazione è molto diversa. Vale infatti

    Teorema 3.1 (Disuaguaglianza di Robertson). Siano  e B̂ due osservabili di un sistemafisico. Allora per ogni stato |ψ〉 vale

    ∆2Â∣∣∣|ψ〉

    ∆2B̂∣∣∣|ψ〉≥

    ∣∣∣〈ψ|[Â, B̂]|ψ〉∣∣∣24

    21

  • Dimostrazione. Per α ∈ R e |ψ〉 ∈ H definiamo l’operatore

    Tα = Â− 〈Â〉∣∣∣|ψ〉

    + iα

    (B̂ − 〈B̂〉

    ∣∣∣|ψ〉

    )Per ogni α si deve avere

    〈ψ|T̂ †αT̂α|ψ〉 ≥ 0

    Ciò significa (omettiamo i pedici per brevità)

    0 ≤〈ψ|(Â− 〈Â〉 − iα(B̂ − 〈B̂〉))(Â− 〈Â〉+ iα(B̂ − 〈B̂〉))|ψ〉 ==〈ψ|(Â− 〈Â〉)2|ψ〉+ α2〈ψ|(B̂ − 〈B̂〉)2|ψ〉+

    + iα〈ψ|(Â− 〈Â〉)(B̂ − 〈B̂〉)− (B̂ − 〈B̂〉)(Â− 〈Â〉)|ψ〉 ==∆2Â+ α2∆2B̂ + α〈ψ|i[Â, B̂]|ψ〉

    Si noti che, essendo  e B̂ autoaggiunti, allora i[Â, B̂] è autoaggiunto. Di conseguenza, iltermine che moltiplica α è reale, dunque si deve imporre(

    〈ψ|i[Â, B̂]|ψ〉)2− 4∆2Â∆2B̂ ≤ 0

    che è la disuguaglianza di Robertson.

    Da un punto di vista storico, Heisenberg introdusse il principio di indeterminazione nellaforma

    ∆x∆px ≥~2

    Questa disuguaglianza ora non è più un principio, ma è a tutti gli effetti un teorema. Vedremoinfatti che

    [p̂x, x̂] =~i

    3.2 Stati impuri e matrice densità

    Ritorniamo per un attimo al primo assioma: abbiamo richiesto che i vettori |ψ〉 rappre-sentino gli stati puri del sistema. Consideriamo ora un ensemble statistico di stati, ossiaun insieme {|ψk〉}1≤k≤N di stati, e supponiamo di avere una qualche sorgente che estraggacasualmente uno stato dall’ensemble. Sia Pk la probabilità di estrarre lo stato |ψk〉. Allora,presa un’osservabile Ω̂, è naturale definire il suo valor medio come

    〈Ω̂〉 =N∑k=1

    Pk〈ψk|Ω̂|ψk〉

    Si noti che

    〈Ω̂〉 =N∑k=1

    Pjtr(|ψk〉〈ψk|Ω̂) =

    = tr

    (N∑k=1

    Pk|ψk〉〈ψk|Ω̂

    )=

    = tr(ρ̂Ω̂)

    22

  • All’ultimo passaggio si è introdotto l’operatore

    ρ̂ =

    N∑k=1

    Pk|ψk〉〈ψk|

    che viene chiamato operatore (o matrice) densità. Dato che per ogni k si ha 0 ≤ Pk ≤ 1e dato che P1 + · · · + PN = 1, la matrice densità è una somma convessa di proiettori. Inessa è codificata tutta l’informazione estraibile dal sistema, dato che conoscendo la matricedensità possiamo calcolare il valore medio di una qualunque osservabile. Volendo, è possibilesostituire il primo assioma e utilizzare direttamente la matrice densità (si noti che per unostato puro |ψ〉 la matrice densità è il proiettore su |ψ〉). Sorgono ora diverse domande: esi-stono ensemble diversi con la stessa matrice densità? Se s̀ı, è possibile distinguerli in qualchemodo? La prima risposta è affermativa, la seconda è negativa, anche se non mostreremo talirisultati all’interno del corso. Vediamo ora alcune proprietà di ρ̂: è un operatore positivo,infatti

    〈φ|ρ̂|φ〉 =N∑k=1

    Pk |〈φ|ψk〉|2 ≥ 0

    Inoltre, dato che gli stati dell’ensemble sono normalizzati e dato che P1 + · · · + PN = 1, siha

    trρ̂ = 1

    Si può anche mostrare che queste due proprietà caratterizzano tutte le possibili matricidensità. Più in generale, se Θ̂ ≥ 0 allora tr(ρ̂Θ̂) ≥ 0, dato che

    tr(ρ̂Θ̂) =N∑j=1

    Pj〈ψj |Θ̂|ψj〉 ≥ 0

    Se poi Θ̂ = ρ̂, vale una disuguaglianza più forte:

    tr(ρ̂2) ≥ 1N

    che segue facilmente da Cauchy-Schwarz. Mostriamo ora che ρ̂− ρ̂2 ≥ 0. Per farlo, notiamoche ρ̂ è autoaggiunto, fissiamo quindi una base ortonormale {|χk〉}1≤k≤N di autovettori perρ̂. Sia λk l’autovalore relativo a χk. Si ha 0 ≤ λk ≤ 1. La prima disuguaglianza è banale,infatti

    0 ≤ 〈χk|ρ̂|χk〉 = 〈χk|λk|χk〉 = λkPer la seconda, basta notare che λk = ‖ρ̂|χk〉‖ e

    ‖ρ̂|χk〉‖ =

    ∥∥∥∥∥∥N∑j=1

    Pj |ψj〉〈ψj |χk〉

    ∥∥∥∥∥∥ ≤≤

    N∑j=1

    Pj |〈ψj |χk〉| ≤

    ≤N∑j=1

    Pj = 1

    23

  • Allora, notando che

    ρ̂ =

    N∑k=1

    λk|χk〉〈χk|

    ρ̂2 =N∑k=1

    λ2k|χk〉〈χk|

    si ha su un qualunque stato |φ〉

    〈φ|ρ̂− ρ̂2|φ〉 =N∑k=1

    λk(1− λk) |〈χk|φ〉|2 ≥ 0

    Vediamo in quali casi si ha ρ̂ = ρ̂2. Si mostra facilmente che ciò accade se e solo se ρ̂ è lamatrice densità di uno stato puro. Un’implicazione è ovvia, per l’altra notiamo che se ρ̂ = ρ̂2

    allora gli autovalori di ρ̂ possono essere solo 0 e 1. La condizione trρ̂ = 1 richiede che ci siaesattamente un autovalore pari a 1. Se ad esempio è λ1 = 1, allora

    ρ̂ = |χ1〉〈χ1|

    Si noti infine che anche per i sistemi descritti da una matrice densità vale la disuguaglianzadi Robertson. Infatti, presa una qualunque osservabile  si ha

    ∆2Â = tr(ρ̂Â2)−(

    tr(ρ̂Â))2

    = tr(ρ̂Â(Â− 〈Â〉)

    )Se B̂ è un’altra osservabile e α un numero reale, poniamo nuovamente

    T̂α = Â− 〈Â〉+ iα(B̂ − 〈B̂〉)

    Dato che T̂ †αT̂α ≥ 0, deve essere tr(ρ̂T̂ †αT̂α) ≥ 0, e i calcoli sono analoghi a quanto già visto.

    3.3 Matrice densità ridotta

    Consideriamo ora uno sistema composito descritto dallo spazio HAB = HA⊗HB. Preso unostato puro |ψ〉AB, ci chiediamo quale sia il valore medio su questo stato di un’osservabilelocale Θ̂A su A. Questo significa misurare l’osservabile Θ̂A ⊗ IdB sul sistema composito.Fissiamo quindi due basi ortonormali {|i〉A}1≤i≤dA e {|j〉B}1≤j≤dB rispettivamente di HA eHB. Se

    |ψ〉AB =∑i,j

    αij |i, j〉AB

    24

  • allora il valor medio cercato è

    〈Θ̂A〉∣∣∣|ψ〉AB

    = 〈ψAB |Θ̂⊗ IdB|ψ〉AB =

    =∑i,i′,j,j′

    α∗ijαi′j′ 〈i, j|Θ̂A ⊗ IdB|i′, j′〉AB AB =

    =∑i,i′,j,j′

    α∗ijαi′j′ 〈i|Θ̂A|i′〉A A 〈j|j′〉B B =

    =∑i,i′,j

    α∗ijαi′jtrA(|i′〉A〈i|Θ̂A

    )=

    = trA

    ∑i,i′,j

    α∗ijαi′j |i′〉A〈i|Θ̂A

    == trA

    (ρ̂AΘ̂A

    )dove trA indica la traccia di un operatore su HA. Si è introdotto l’operatore ρ̂A, dettomatrice densità ridotta, è

    ρ̂A =∑i,i′,j

    α∗ijαi′j |i′〉A〈i| =

    =

    dB∑j=1

    〈j|ψ〉B AB〈ψ|j〉B

    Si noti che anche nella seconda forma ρ̂A è una somma di prodotti esterni, dato che 〈j|ψ〉B AB ∈HA e 〈ψ|j〉AB B ∈ H

    †A. L’ultima somma è chiamata anche traccia parziale su B dello stato

    |ψ〉AB, e viene anche indicata con

    ρ̂A = trB (|ψ〉AB〈ψ|)

    La traccia parziale non dipende dalla base scelta di HB. Infatti, se{|k̃〉B

    }1≤k≤dB

    è un’altra

    base ortonormale e

    |j〉B =dB∑k=1

    ajk|k̃〉B

    allora si ha

    dB∑j=1

    〈j|ψ〉B AB〈ψ|j〉B =dB∑

    j,k,k′=1

    a∗jkajk′ 〈k̃|ψ〉B AB〈ψ|k̃′〉B =dB∑

    k,k′=1

    〈k̃|ψ〉B AB〈ψ|k̃′〉B

    si è usato il fatto che a∗jkajk′ = δkk′ . Inoltre, come nella sezione precedente si ha ρ̂A ≥ 0 etrAρ̂A = 1. Mostriamo la positvità: preso |v〉A ∈ HA si ha

    〈v|Θ̂A|v〉A A =dB∑j=1

    〈v|A ⊗ 〈j|B ψ〉AB〈ψ|j〉B ⊗ |v〉A =

    =

    dB∑j=1

    ‖ 〈ψ|(|v〉A〉 ⊗ |j〉B)AB ‖2 ≥ 0

    25

  • Il calcolo della traccia è banale

    trAρ̂A = tr

    ∑i,i′,j

    α∗ijαi′j |i′〉A〈i|

    ==∑i,j

    |αij |2 = 1

    dato che |ψ〉AB è normalizzato.In conclusione, uno stato puro su HA ⊗HB viene visto localmente come una mistura su

    A. Si potrebbe mostrare che vale anche il contrario, ossia che a una data matrice densitàρ̂ corrisponde uno stato puro in uno spazio più grande. Di conseguenza, la meccanicaquantistica con il primo postulato modificato è del tutto equivalente a quella che stiamocostruendo.

    3.4 Evoluzione temporale e Hamiltoniana

    Consideriamo l’evoluzione temporale tra il tempo t e il tempo t+ δt, con 0 < δt� t. Allora,visto che l’operatore è continuo e sulla diagonale coincide con l’identità, si ha

    Û(t+ δt) = Û(t+ δt, t)Û(t) = (Id + K̂(t)δt+ o(δt))Û(t)

    dove K̂ è un opportuno operatore, in generale dipendente dal tempo. Riarrangiando i terminie prendendo il limite δt→ 0, si trova

    K̂(t)Û(t) =∂

    ∂tÛ(t) (1)

    Imponiamo ora l’unitarietà dell’operatore di evoluzione. Si ha

    Id = Id + δt(K̂(t) + K̂†(t)) + o(δt)

    dunque K̂(t) deve essere un operatore antihermitiano. Inoltre, per motivi dimensionali K̂(t)deve avere le dimensioni dell’inverso di un tempo. Poniamo quindi

    K̂(t) = − i~Ĥ(t)

    dove ~ = 1.05 · 10−27 erg·s è la costante di Planck ridotta e l’operatore autoaggiunto Ĥ(t)è detto Hamiltoniana. Supponiamo ora che l’Hamiltoniana non dipenda dal tempo. Alloral’equazione 1 può essere integrata direttamente, ottenendo5

    Û(t) = e−iĤt/~

    Usando le proprietà dell’operatore di evoluzione si trova inoltre

    Û(t, t0) = eiĤ(t−t0)/~

    Più in generale, anche nel caso infinito dimensionale, si ha

    5L’esponenziale di un operatore −iÂt è definito come la serie di Taylor dell’esponenziale, valutata in −iÂt.Per un operatore limitato tale serie è ben definita. Inoltre, se  è autoaggiunto allora e−iÂt è unitario. Infine,se prendiamo la decomposizione spettrale di  in una base ortonormale {|j〉}1≤j≤d e aj è l’autovalore di |j〉,allora

    e−iÂt =

    d∑j=0

    e−iajt|j〉〈j|

    26

  • Teorema 3.2 (Stone). Sia Â(s) una famiglia di operatori unitari dipendenti da un parametrocontinuo s tale che

    Â(t+ s) = Â(t)Â(s) Â(0) = Id

    Allora esiste un operatore autoaggiunto B̂ tale che

    Â(s) = eiB̂s

    Dall’equazione|ψ(t)〉 = Û(t)|ψ(0)〉

    si ottiene inoltre l’equazione di Schrödinger

    i~∂

    ∂t|ψ(t)〉 = Ĥ|ψ(t)〉

    Consideriamo adesso il caso in cui Ĥ = Ĥ(t). L’equazione di Schrödinger per l’evoluzionedegli stati continua a valere, ma la soluzione per Û(t, 0) non è più il semplice esponenzialedi Ĥ. La soluzione adesso è

    Û(t, 0) =←−exp(− i~

    ∫ t0

    dt′Ĥ(t′)

    )avendo posto

    ←−exp(− i~

    ∫ t0

    dt′Ĥ(t′)

    )=

    +∞∑n=0

    (− i~

    )n ∫ t0

    dt(1)∫ t(1)

    0dt(2) . . .

    ∫ t(n−1)0

    dt(n)Ĥ(t(1))Ĥ(t(2)) . . . Ĥ(t(n))

    Si noti che, in generale, [Ĥ(τ), Ĥ(τ ′)] 6= 0 se τ 6= τ ′, dunque è importante l’ordine in cui èscritto l’integranda. La freccia sopra exp serve appunto per ricordare il modo in cui ordinarele varie Hamiltoniane, dato che 0 ≤ t(n) ≤ t(n−1) ≤ · · · ≤ t(1) ≤ t. La serie scritta è notacome serie integrale di Dyson o esponenziale t-ordinato. Verifichiamo ora che è soluzione di1. Notando che il termine con n = 0 non dà contributi, se deriviamo otteniamo

    ∂t←−exp

    (− i~

    ∫ t0

    dt′Ĥ(t′)

    )=

    +∞∑n=1

    (− i~

    )nĤ(t)

    ∫ t(1)0

    dt(2) . . .

    ∫ t(n−1)0

    dt(n)Ĥ(t(2)) . . . Ĥ(t(n)) =

    = − i~Ĥ(t)

    +∞∑n=1

    (− i~

    )n−1 ∫ t(1)0

    dt(2) . . .

    ∫ t(n−1)0

    dt(n)Ĥ(t(2)) . . . Ĥ(t(n)) =

    = − i~Ĥ(t)←−exp

    (− i~

    ∫ t0

    dt′Ĥ(t′)

    )Se ora prendiamo l’aggiunto dell’equazione 1 otteniamo

    ∂tÛ †(t, 0) =

    i

    ~Û †(t, 0)Ĥ(t)

    In questo caso, come facilmente intuibile, la soluzione è

    Û †(t, 0) = −→exp(i

    ~

    ∫ t0Ĥ(t′)dt′

    )con, ovviamente,

    −→exp(− i~

    ∫ t0

    dt′Ĥ(t′)

    )=

    +∞∑n=0

    (− i~

    )n ∫ t0

    dt(1)∫ t(1)

    0dt(2) . . .

    ∫ t(n−1)0

    dt(n)Ĥ(t(n))Ĥ(t(n−1)) . . . Ĥ(t(1))

    27

  • Supponiamo adesso che per ogni τ, τ ′ si abbia [Ĥ(τ), Ĥ(τ ′)] = 0. In tal caso è facile mostrareche ∫ t

    0dt(1)

    ∫ t(1)0

    dt(2) . . .

    ∫ t(n−1)0

    dt(n)Ĥ(t(n))Ĥ(t(n−1)) . . . Ĥ(t(1)) =1

    n!

    (∫ t0Ĥ(t′)dt′

    )nquindi sotto questa ipotesi recuperiamo la soluzione esponenziale che avevamo trovato inprecedenza.

    3.5 Rappresentazioni di Schrödinger, di Heisenberg e di interazione

    Consideriamo una generica osservabile Θ̂. Il suo valor medio su uno stato |ψ(t)〉 è, comenoto

    〈Θ̂〉t = 〈ψ(t)|Θ̂|ψ(t)〉

    Questo modo di vedere l’evoluzione temporale, ossia tenendo fissate le osservabili e facen-do evolvere gli stati, è noto come rappresentazione di Schrödinger. Usando l’equazione dievoluzione possiamo però scrivere anche

    〈ψ(t)|Θ̂|ψ(t)〉 = 〈ψ(0)|Û †(t)Θ̂Û(t)|ψ(0)〉 == 〈ψ(0)|Θ̂H(t)|ψ(0)〉

    ossia, si tiene fisso lo stato del sistema e si fa evolvere l’osservabile secondo

    Θ̂H(t) = Û†(t)Θ̂Û(t)

    Questo modo di interpretare l’evoluzione temporale è nota come rappresentazione di Hei-senberg. Se Ĥ e Θ̂ sono indipendenti dal tempo, l’equazione di evoluzione per Θ̂H è

    dΘ̂Hdt

    =i

    ~[Ĥ, Θ̂H(t)] =

    i

    ~[Ĥ, Θ̂]H(t)

    Può però accadere che Θ̂ stessa dipenda dal tempo. In tal caso, si ha semplicemente

    dΘ̂Hdt

    =i

    ~[Ĥ, Θ̂H(t)] + Û

    †(t)∂Θ̂

    ∂tÛ(t)

    Infine, nel caso generalissimo in cui sia Ĥ che Θ̂ dipendono dal tempo si ha

    dΘ̂Hdt

    =i

    ~[ĤH(t), Θ̂H(t)] + Û

    †(t)∂Θ̂

    ∂tÛ(t)

    Supponiamo ora che l’Hamiltoniana sia della forma Ĥ = Ĥ0+V̂ , con Ĥ0 e V̂ indipendentidal tempo. L’operatore di evoluzione è, come noto,

    Û(t) = e−i(Ĥ0+V )t/~

    Vediamo se è possibile separare l’evoluzione dovuta a Ĥ0 e a V̂ . Questo sarà particolarmenteutile se siamo interessati a uno sviluppo perturbativo: ad esempio, Ĥ0 potrebbe esserel’Hamiltoniana non interagente e V̂ un qualche (piccolo) potenziale di interazione. Poniamo

    |ψ̃(t)〉 = eiĤ0t/~|ψ(t)〉

    28

  • Derivando rispetto al tempo otteniamo l’equazione di evoluzione

    ∂t|ψ̃(t)〉 = − i

    ~V̂1(t)|ψ̃(t)〉

    doveV̂1(t) = e

    iĤ0t/~V̂ e−iĤ0t/~

    è l’evoluto di V̂ nella rappresentazione di Heisenberg. Come abbiamo visto, la soluzione è

    |ψ̃(t)〉 =←−exp(− i~

    ∫ t0V̂1(t

    ′)dt′)|ψ(0)〉

    Da un punto di vista formale, tutto ciò è inutile: la soluzione per |ψ̃(t)〉 è ben più complicatadi quella per |ψ(t)〉. Tuttavia, se abbiamo in mente uno sviluppo perturbativo possiamotroncare la serie di Dyson ai primi termini, mentre se avessimo usato l’operatore di evoluzionecon Ĥ0 + V̂ avremmo avuto non pochi problemi. Per questo motivo, questo modo di vederel’evoluzione temporale è detto rappresentazione di interazione. Prendiamo ora un’osservabileΘ̂, per semplicità indipendente dal tempo. La sua media sullo stato |ψ(t)〉 è

    〈Θ̂〉t = 〈ψ(t)|Θ̂|ψ(t)〉 = 〈ψ̃(t)|Θ̂(0)H | ˜ψ(t)〉

    dove Θ̂(0)H è l’evoluto di Θ̂ nella rappresentazione di Heisenberg, quando l’Hamiltoniana è la

    sola Ĥ0. In un certo senso, la rappresentazione di interazione è una sorta di ibrido tra ledue rappresentazioni precedenti, dato che non tiene fissi né gli stati né le osservabili.

    3.6 Teorema di Ehrenfest

    Consideriamo un’Hamiltoniana della forma

    Ĥ =p̂2

    2m+ V (x̂)

    e diamo per buono che[x̂, p̂] = i~

    In tal modo, le equazioni di evoluzione per x̂ e p̂ sonodx̂

    dt=

    m

    dp̂

    dt= −∂V

    ∂x(x̂)

    cioè coincidono con le equazioni del moto classiche, a patto di sostituire la posizione el’impulso con i rispettivi operatori. Questo risultato è noto come teorema di Ehrenfest.Come esempio, prendiamo una particella libera, cioè poniamo V = 0. In tal caso, le soluzionidelle equazioni sono semplicemente x̂t =

    p̂0t

    m+ x̂0

    p̂t = p̂0

    Si noti che, per ogni t, [x̂t, p̂t] = i~. Questo risultato è atteso, dato che il commutatoreall’istante iniziale è una costante, dunque commuta con l’operatore di evoluzione. Inoltre,si noti che

    [x̂t, x̂0] =~tmi

    29

  • La disuguaglianza di Robertson allora implica

    ∆2x̂t∣∣|ψ〉 ≥

    ~2t2

    4m2 ∆2x̂0||ψ〉

    Quindi per tempi lunghi la varianza di x̂t cresce almeno quadraticamente. Il limite ottenutonon è però molto predittivo per piccoli tempi. Per un risultato più preciso, possiamo calcolaredirettamente la varianza di x̂t, ottenendo

    ∆2x̂t∣∣|ψ〉 =

    ∆2p̂0∣∣|ψ〉 t

    2

    m2+ ∆2x̂0

    ∣∣|ψ〉 +

    2t

    mRe 〈ψ|∆x̂0∆p̂0|ψ〉

    dove si è posto

    ∆x̂0 = x̂0 − 〈ψ|x̂0|ψ〉∆p̂0 = p̂0 − 〈ψ|p̂0|ψ〉

    Per Cauchy-Schwarz si ha

    Re 〈ψ|∆x̂0∆p̂0|ψ〉 ≤ |〈ψ|∆x̂0∆p̂0|ψ〉| ≤

    ≤√〈ψ|(∆x̂0)2|ψ〉〈ψ|(∆p̂0)2|ψ〉 =

    =√

    ∆2x̂0||ψ〉 ∆2p̂0||ψ〉

    Dunque otteniamo le disuguaglianze(t

    m

    √∆2p̂0||ψ〉 −

    √∆2x̂0||ψ〉

    )2≤ ∆2x̂t

    ∣∣|ψ〉 ≤

    (t

    m

    √∆2p̂0||ψ〉 +

    √∆2x̂0||ψ〉

    )23.7 Evoluzione temporale per una mistura

    Consideriamo una mistura descritta dalla matrice densità a t = 0

    ρ̂(0) =∑j

    Pj |ψj(0)〉〈ψj(0)|

    Se facciamo evolvere il sistema, ci dobbiamo preoccupare dell’evoluzione dei soli stati: leprobabilità Pj non vengono modificate nel tempo. Allora la matrice densità a un tempo tsarà

    ρ̂(t) =∑j

    Pj |ψj(t)〉〈ψj(t)| = Û(t)ρ̂(0)Û †(t)

    Si noti l’ordine con cui compaiono gli operatori di evoluzione: è opposto rispetto a quantoaccade per l’evoluzione di un’osservabile. L’equazione di evoluzione per la matrice densità èsemplicemente

    ∂tρ̂(t) = − i

    ~[Ĥ, ρ̂(t)]

    Si noti che il valor medio di un’osservabile Θ̂ è

    〈Θ̂〉t = tr(Θ̂ρ̂(t)) == tr(Θ̂Û(t)ρ̂(0)Û †(t)) =

    = tr(Θ̂H ρ̂)

    dove si è usato il fatto che tr(ÂB̂) = tr(B̂Â).

    30

  • 3.8 Regole di quantizzazione

    La teoria sviluppata fino a questo punto non dà alcuna informazione su come costruireeffettivamente gli operatori associati alle osservabili. In generale, non esiste un metodo chesia corretto in ogni situazione, ma è possibile individuare alcune regole più o meno comuniche possono essere di aiuto nella costruzione di una teoria quantistica. Avremo in mente ilseguente schema

    1. si individuano le osservabili del sistema,

    2. si studia come si relazionano tra loro,

    3. si trovano degli operatori opportuni che rispettano le regole di commutazione del puntoprecedente,

    4. si rappresentano gli operatori in uno spazio vettoriale di dimensione opportuna.

    3.8.1 Quantizzazione canonica

    Consideriamo un sistema classico descritto dalle posizioni {xi} e dagli impulsi {pi}. Sia Hcl’Hamiltoniana classica del sistema. Sappiamo che valgono le equazioni di Hamilton

    ẋi =∂Hc∂pi

    ṗi = −∂Hc∂qi

    Se A = A(xi, pi, t) è un certo funzionale delle posizioni, degli impulsi e del tempo, è notoche la sua equazione di evoluzione temporale è

    dA

    dt= −{Hc, A}c +

    ∂A

    ∂t

    dove {·, ·}c sono le parentesi di Poisson. Si ricordi che, prese due funzioni f, g, le parentesidi Poisson sono definite come

    {f, g}c =∑i

    (∂f

    ∂xi

    ∂g

    ∂pi− ∂g∂xi

    ∂f

    ∂pi

    )Si noti che le parentesi di Poisson sono lineari in f e in g, antisimmetriche sotto lo scambiodi f e g e nulle se un’entrata è costante. Inoltre, prese tre funzioni h1, h2, h3 qualunquevalgono la regola di Leibniz

    {h1h2, h3}c = {h1, h3}c h2 + h1 {h2, h3}c

    e l’identità di Jacobi

    {h1, {h2, h3}c}c + {h2, {h3, h1}c}c + {h3, {h1, h2}c}c = 0

    La quantizzazione canonica di questo processo consiste nel promuovere le posizioni xi aglioperatori posizione Q̂i e gli impulsi pi agli operatori impulso P̂i. Più in generale, dataun’osservabile classica A = A(xi, pi), le facciamo corrispondere l’operatore

    Â = A(Q̂i, P̂i)

    31

  • Inoltre, richiediamo una corrispondenza tra i commutatori e le parentesi di Poisson, ossia

    [Â, B̂] = i~{A,B}c

    In particolare, l’operatore Hamiltoniana della sezione precedente si ottiene ponendo

    Ĥ = H(Q̂i, P̂i)

    Questo metodo di quantizzazione è efficace in molte situazioni, ma non può chiaramente fun-zionare se nel sistema esistono delle osservabili quantistiche che non hanno un corrispettivoclassico (ad esempio, lo spin).

    3.8.2 Principio di relatività

    Un altro modo di procedere consiste nel richiedere che la descrizione fisica del sistema siaindipendente dal particolare sistema di riferimento scelto. Supponiamo di avere due sistemidi riferimento S ed S′. Immaginiamo che un osservatore in S abbia associato al nostrosistema fisico uno spazio di Hilbert H e che un osservatore in S′ gli abbia associato unospazio di Hilbert H′, in generale diverso da H. Per fissare le idee, immaginiamo che S′ siasemplicemente traslato rispetto a S. Come noto dalla meccanica classica, possiamo adottareuna visione attiva o passiva della traslazione: nel primo caso, consideriamo lo stesso sistemafisico descritto in due sistemi di riferimento diversi. Possiamo però anche descrivere sistemifisici diversi in uno stesso sistema di riferimento. Richiediamo che queste due visioni sianoequivalenti: ciò richiede una corrispondenza tra H e H′. Consideriamo adesso due eventiA e B, associati in S ai vettori |ψ〉, |φ〉 ∈ H. Possiamo considerare gli eventi A′, B′ in Sottenuti antitraslando A e B, cioè ottenuti con una trasformazione attiva. Questi avrannodei vettori associati |ψ′〉, |φ′〉 ∈ H. Ci aspettiamo che esista una funzione T : H → H, nonnecessariamente lineare, tale che |ψ′〉 = T |ψ〉 e |φ′〉 = T |φ〉. L’osservazione cruciale è chenella teoria quantistica le informazioni fisicamente rilevanti non sono contenute nei vettoridello spazio di Hilbert, ma nei prodotti |〈ψ|φ〉|2. Richiediamo quindi che T verifichi per ognicoppia di stati |ψ〉, |φ〉 ∈ H

    |〈ψ|T †T |φ〉|2 = |〈ψ|φ〉|2

    Un importante risultato è il seguente

    Teorema 3.3 (Wigner). Una trasformazione T : H → H che conserva i moduli dei prodottiscalari è unitaria, a meno di una fase globale dipendente dallo stato, o antiunitaria6, semprea meno di una fase globale dipendente dallo stato.

    Sappiamo che le fasi globali non sono rilevanti dal punto di vista fisico: per ora tralascia-mole. Inoltre, limitiamoci alle trasformazioni unitarie. Questo non è troppo restrittivo perdue motivi: la maggior parte delle trasformazioni che ci interessano dipenderanno in manieracontinua da un parametro reale τ e spesso per τ = 0 coincideranno con l’operatore iden-tità, che è unitario. Di conseguenza l’intero gruppo è formato da operatori unitari. Inoltre,è possibile costruire tutti gli operatori antiunitari moltiplicando un operatore antiunitarionoto con un operatore unitario.

    6Un operatore U su uno spazio di Hilbert è antiunitario se è antilineare, ossia

    U(α|ψ〉+ β|φ〉) = α∗U |ψ〉+ β∗U |φ〉

    e se verifica〈ψ|U†U |φ〉 = 〈φ|ψ〉

    32

  • Per la quantizzazione della teoria, supponiamo quindi di avere diversi tipi di trasforma-zioni TJ(x), TJ ′(x

    ′),..., sul sistema (ad esempio, a pedici distinti possiamo far corrisponderetraslazioni lungo assi diversi), ciascuna delle quali dipendenti da un opportuno parametrocontinuo. Siano inoltre UJ(x), UJ ′(x

    ′),..., le mappe unitarie in H associate a queste trasfor-mazioni. Grazie a opportune considerazioni fisiche possiamo capire quali siano le regole dicommutazione delle varie trasformazioni. Da queste possiamo dedurre le regole di commu-tazione tra gli operatori unitari associati. Inoltre, grazie al teorema di Stone sappiamo chepossiamo scrivere

    UJ(x) = exp(−iKJx)

    dove KJ è un operatore autoaggiunto, dunque associato a un’osservabile. Dalle regole dicommutazione sugli UJ(x), UJ ′(x

    ′),..., possiamo dedurre le regole di commutazione tra leosservabili KJ , KJ ′ ,..., da cui deduco infine una teoria quantistica. Vediamo un esempio diqueste regole di quantizzazione.

    3.8.3 Particella libera

    Consideriamo una particella che, classicamente, è vincolata a muoversi su asse. Vediamocome possiamo dare una descrizione quantistica del sistema. Ci si aspetta che esista unoperatore posizione Q̂ che sia in qualche modo legato alla posizione classica. Inoltre, datoche la particella può classicamente essere in ogni punto dell’asse, ci aspettiamo che Q̂ abbiauno spettro continuo. Sia quindi

    Q̂ =

    ∫dxx|x〉〈x|

    con Q̂|x〉 = x|x〉, x ∈ R e |x〉 autovettore generalizzato, cioè non appartenente allo spaziodi Hilbert. Se |ψ〉 è uno stato, allora 〈x|ψ〉 è una funzione di x. Poniamo ψ(x) = 〈x|ψ〉, dimodo che

    |ψ〉 =∫

    dxψ(x)|x〉

    Dato che lo stato è normalizzato, si deve richiedere∫ +∞−∞

    dx |ψ(x)|2 < +∞

    ossia si deve richiedere ψ ∈ L2(R). La normalizzazione ci permette di considerare |ψ(x)|2come una densità di probabilità. Vista la decomposizione di |ψ〉, è naturale che |ψ(x)|2dxsia interpretata come la probabilità che la particella abbia posizione compresa tra x e x+dx.Si noti inoltre che, usando l’autoaggiunzione di Q̂, si ottiene

    〈x|Q̂|ψ〉 = x〈x|ψ〉 = xψ(x)

    Consideriamo ora una traslazione del sistema. Questa è sicuramente una trasformazioneche lascia invariata la fisica. Sia quindi T̂a la traslazione di a. In astratto la traslazione siscrive come

    |ϕ〉 = T̂a|ψ〉

    Se passiamo in coordinate, si ottiene

    ϕ(x) = 〈x|T̂a|ψ〉 = ψ(x− a)

    33

  • Si noti che la traslazione gode delle proprietà

    T̂0 = Id

    T̂aT̂−a = Id

    T̂aT̂b = T̂bT̂a = T̂a+b

    T̂ †a = T̂−a

    Mostriamo solo l’ultima, dato che le altre sono ovvie. Per definizione

    〈φ|T̂ †a |ψ〉 = (〈ψ|T̂a|φ〉)∗

    ovvero, passando in coordinate∫ +∞−∞

    dxφ∗(x)T̂ †aψ(x) =

    ∫ +∞−∞

    dxψ(x)φ∗(x− a) =

    =

    ∫ +∞−∞

    dxφ∗(x)ψ(x+ a)

    Di conseguenza〈x|T̂ †a |ψ〉 = ψ(x+ a) = 〈x|T̂−a|ψ〉

    e come voluto T̂ †a = T̂−a. Allora dalla seconda e dalla quarta proprietà si deduce chel’operatore di traslazione è unitario. Per Stone si ha quindi

    T̂a = exp(−iK̂a)

    Vediamo ora le regole di commutazione di T̂a e K̂ con la posizione. Si ha

    〈x|[Q̂, T̂a]|ψ〉 = 〈x|Q̂T̂a|ψ〉 − 〈x|T̂aQ̂|ψ〉 == xψ(x− a)− (x− a)ψ(x− a) == aψ(x− a)

    Questo significa che[Q̂, T̂a] = aT̂a

    o in maniera equivalenteT †aQ̂T̂a = Q̂+ a

    Questo risultato permette di capire come cambiano gli autostati della posizione sotto tra-slazione. In particolare

    Q̂T̂a|x〉 = T̂aT̂ †aQ̂T̂a|x〉 == T̂a(Q̂+ a)|x〉 == (x+ a)T̂a|x〉

    Questo significa cheT̂a|x〉 = |x+ a〉

    dunque vale la decomposizione

    T̂a =

    ∫dx |x+ a〉〈x|

    34

  • Calcoliamo ora [Q̂, K̂]. Sappiamo che

    eiK̂aQ̂e−iK̂a = Q̂+ a

    Espandendo al primo ordine in a si ottiene

    (Id + iK̂a+ o(a))Q̂(Id− iK̂a+ o(a)) = Q̂− ia[Q̂, K̂] + o(a) == Q̂+ a

    Si deduce quindi[Q̂, K̂] = i

    Classicamente, sappiamo che il generatore delle traslazioni è l’impulso. Richiediamo quindi

    K̂ =P̂

    ~

    dove la costante di Planck è introdotta per puri motivi dimensionali. Vediamo ora comeagisce P̂ in rappresentazione delle x. Per piccoli a si ha

    〈x|T̂a|ψ〉 = 〈x|Id− iaP̂

    ~+ o(a)|ψ〉 =

    = ψ(x)− ia~〈x|P̂ |ψ〉+ o(a)

    D’altro canto

    〈x|T̂a|ψ〉 = ψ(x− a) =

    = ψ(x)− a∂ψ∂x

    (x) + o(a)

    Dunque

    〈x|P̂ |ψ〉 = ~i

    ∂ψ

    ∂x

    Cerchiamo ora gli autostati dell’impulso. Se P̂ |p〉 = p|p〉 e ψp(x) = 〈x|p〉, si ha

    ~i

    ∂ψp∂x

    = pψp

    La soluzione normalizzata (nel senso delle distribuzioni) è

    ψp(x) =1√2π~

    eipx/~

    Poniamo ora ψ̃(p) = 〈p|ψ〉, come fatto prima per ψ(x) = 〈x|ψ〉. Anche in questo caso sideduce che ψ̃ ∈ L2(R). Inoltre, si ha

    ψ̃(p) =

    ∫dx 〈p|x〉〈x|ψ〉 =

    =

    ∫dx√2π~

    ψ(x)e−ipx/~

    Dunque ψ̃ è, a meno di una costante moltiplicativa, la trasformata di Fourier di ψ.

    35

  • 3.8.4 Distribuzione di quasiprobabilità di Wigner

    Sempre nell’ottica della quantizzazione di una teoria classica, chiediamoci se è possibilecostruire un analogo quantistico dello spazio delle fasi. Classicamente, sappiamo che l’evo-luzione temporale di un sistema può essere rappresentata come una certa curva nello spaziodelle fasi. In particolare, un punto preciso dello spazio delle fasi corrisponde a certi valoriben definiti degli impulsi e delle coordinate del sistema. Tuttavia, lo spazio delle fasi è ancheutile in fisica statistica, a patto di introdurre delle opportune distribuzioni di probabilità%(x, p). Il primo approccio è di sicuro inapplicabile, a causa del principio di indeterminazio-ne. Il secondo approccio è invece più promettente, ma dobbiamo fare attenzione: la teoriaquantistica ci dà già delle distribuzioni di probabilità sulla posizione e sull’impulso. Se vo-gliamo essere consistenti, dobbiamo chiedere che le probabilità marginali di % coincidano conle distribuzioni che già conosciamo, ossia dobbiamo richiedere

    |ψ(x)|2 =∫

    dp %(x, p)

    |ψ̃(p)|2 =∫

    dx %(x, p)

    Verifichiamo che la seguente funzione ha le proprietà desiderate

    W (x0, p0) =

    ∫dy

    2π~〈x0 +

    y

    2|ψ〉〈ψ|x0 −

    y

    2〉e−ip0y/~

    dove |x〉 è l’autostato (generalizzato) della posizione con autovalore x. Integrando in p0 siottiene ∫

    dp0W (x0, p0) =

    ∫dy δ(y)〈x0 +

    y

    2|ψ〉〈ψ|x0 −

    y

    2〉 = |ψ(x0)|2

    L’integrale su x0 è lievemente più complicato. Notiamo che se P̂ è l’operatore impulso, si ha

    e±iP̂ y/2~|x0〉 = |x0 ∓y

    2〉

    Allora se |p〉 è l’autostato dell’impulso con autovalore p, si ottiene∫dx0W (x0, p0) =

    ∫dy dx0

    2π~〈x0|eiP̂ y/2~|ψ〉〈ψ|eiP̂ y/2~|x0〉e−ip0y/~ =

    =

    ∫dy

    2π~e−ip0y/~tr

    (eiP̂ y/~|ψ〉〈ψ|

    )=

    =

    ∫dy

    2π~e−ip0y/~〈ψ|eiP̂ y/~|ψ〉 =

    =

    ∫dy

    2π~e−ip0y/~

    ∫dp〈ψ|eiP̂ y/~|p〉〈p|ψ〉 =

    =

    ∫dp |ψ̃(p)|2δ(p− p0) =

    = |ψ̃(p0)|2

    W è nota come distribuzione di quasiprobabilità di Wigner. Si noti che W è reale, infatti

    W (x0, p0)∗ =

    ∫dy

    2π~〈ψ|x0 +

    y

    2〉〈x0 −

    y

    2|ψ〉eip0y/~ = W (x0, p0)

    Purtroppo esistono stati su cui W non è positiva per ogni valore dei suoi argomenti. Questoè il motivo per cui è chiamata quasiprobabilità. Se invece di uno stato puro consideriamo

    36

  • una mistura caratterizzata da una matrice densità ρ̂, basta osservare che W è lineare neiprodotti esterni |ψ〉〈ψ|, quindi avremo

    Wρ̂(x0, p0) =

    ∫dy

    2π~〈x0 +

    y

    2|ρ̂|x0 −

    y

    2〉e−ip0y/~

    Vediamo adesso alcuni esempi. Per un pacchetto gaussiano della forma

    ψd(x) =1

    π1/4√le−(x−d)

    2/2l2

    si ha

    Wd(x0, p0) =

    ∫ +∞−∞

    dy

    2π~ψ(x0 +

    y

    2

    )ψ∗(x0 −

    y

    2

    )e−ip0y/~ =

    =

    ∫ +∞−∞

    dy

    2π3/2~lexp

    [− ip0y

    ~− 1

    2l2

    (x0 − d−

    y

    2

    )2− 1

    2l2

    (x0 − d+

    y

    2

    )2]=

    =1

    π~exp

    (−(x0 − d)

    2

    l2− p0l

    2

    ~2

    )In questo caso per pura fortuna abbiamo W (x0, p0) ≥ 0. Consideriamo invece un doppiopacchetto gaussiano della forma

    |ϕ〉 = α(|ψd〉+ |ψ−d〉)

    dove α è una costante di normalizzazione. In tal caso si ottiene

    W (x0, p0) = |α|2∫

    dy

    2π~

    (〈x0 +

    y22|ψd〉〈ψd|x0 −

    y

    2〉+ 〈x0 +

    y22|ψ−d〉〈ψ−d|x0 −

    y

    2〉+

    + 〈x0 +y22|ψd〉〈ψ−d|x0 −

    y

    2〉+ 〈x0 +

    y22|ψ−d〉〈ψd|x0 −

    y

    2〉)

    =

    = |α|2(Wd(x0, p0) +W−d(x0, p0)) + |α|2∫ +∞−∞

    dy

    2π~e−ip0y/~

    [ψd

    (x0 +

    y

    2

    )ψ∗−d

    (x0 −

    y

    2

    )+

    + ψ∗d

    (x0 +

    y

    2

    )ψ−d

    (x0 −

    y

    2

    )]=

    = |α|2(Wd(x0, p0) +W−d(x0, p0)) + 2|α|2 exp

    (−(x0 − d)

    2

    2l2− (x0 + d)

    2

    2l2+ l2

    (d

    2l2− ip0

    ~

    )2)Si osserva quindi la presenza di un termine di ”intereferenza” rispetto alla semplice som-ma delle quasiprobabilità. In effetti, la somma delle quasiprobabilità è proporzionale alladistribuzione di quasiprobabilità della mistura

    ρ̂ =|ψd〉〈ψd|+ |ψ−d〉〈ψ−d|

    2

    3.9 Dinamica in una dimensione

    Consideriamo l’equazione di Schrödinger in una dimensione

    − ~2

    2m

    ∂2ψ

    ∂x2(x, t) + V (x)ψ(x, t) = i~

    ∂ψ

    ∂tx, t

    dove si è supposto che l’Hamiltoniana sia della forma

    Ĥ =p̂2

    2m+ V (x̂)

    37

  • Un metodo semplice per trovare la soluzione cosiste nel trovare gli autostati di Ĥ. Se infattiabbiamo la decomposizione

    Ĥ =

    ∫dE E|E〉〈E|+

    ∑j

    εj |ej〉〈ej |

    Allora ogni stato |ψ〉 può essere scritto nella forma

    |ψ〉 =∫

    dE ψE |E〉+∑j

    ψj |ej〉

    doveψE = 〈E|ψ〉, ψj = 〈ej |ψ〉

    L’evoluzione di questo stato è calcolabile in maniera immediata

    |ψ(t)〉 =∫

    dE e−iEt/~ψE |E〉+∑j

    e−iεjt/~ψj |ej〉

    Possiamo dunque limitarci a risolvere l’equazione di Schrödinger stazionaria

    Ĥ|α〉 = Eα|α〉

    che in rappresentazione delle x significa

    − ~2

    2m

    d2α

    dx2= (Eα − V (x))α

    Possiamo distinguere due comportamenti tipici dell’equazione precedente. Nelle regioni incui V (x) < E (chiamate regioni classicamente accessibili), α e α′′ hanno segno opposto: ciaspettiamo quindi delle soluzioni in qualche modo oscillanti. Viceversa, nelle regioni in cuiV (x) > E (chiamate regioni classicamente proibite) α e α′′ hanno lo stesso segno, quindi ciaspettiamo soluzioni esponenziali. Prendiamo ad esempio una particella libera. In tal caso

    − ~2

    2m

    d2α

    dx2= Eα

    Per E ≥ 0, posto

    k =

    √2mE

    ~la soluzione è della forma

    α(x) = Aeikx +Be−ikx

    dove A e B sono coefficienti complessi. La soluzione dipende quindi da quattro parametrireali, ma due di essi sono fissati dalla normalizzazione e dalla fase globale della soluzione. Intotale abbiamo quindi due parametri reali indipendenti, come atteso per un’equazione delsecondo ordine. Viceversa, per E < 0, posto

    k =

    √2m|E|~

    la soluzione èα(x) = Aekx +Be−kx

    38

  • Queste soluzioni non sono accettabili, dato che non appartengono a S†. Consideriamo adessouna barriera di potenziale del tipo

    V (x) =

    {0 per x < 0 e x > x0

    V0 per 0 < x < x0

    Limitiamoci al caso 0 < E < V0. In tal caso, posto

    k =

    √2mE

    ~, q =

    √2m(V0 − E)

    ~

    abbiamo una soluzione del tipo

    α(x) =

    Aeikx +Be−ikx per x < 0

    A′eqx +B′e−qx per 0 < x < x0

    A′′eikx +B′′e−ikx per x > x0

    dove dobbiamo raccordare i diversi pezzi imponendo che α e α′ siano continue in x = 0e x = x0. Vediamo quindi che è possibile che un’onda incidente da sinistra possa esseretrasmessa (in parte) al di là della barriera. Questo fenomeno, che non ha un analogo classico,è noto come effetto tunnel. Consideriamo infine un potenziale qualunque asintoticamentepiatto e siano

    V1 = limx→−∞

    V (x), V2 = limx→+∞

    V (x)

    Per fissare le idee, consideriamo il caso V2 < V1, come in figura 1.

    Figura 1: potenziale generico.

    39

  • Possiamo immaginare di discretizzare il potenziale e di considerarlo costante a tratti, perpoi raccordare le soluzioni. Supponendo di avere N tratti in cui il potenziale è costante,abbiamo diversi casi:

    • se E > V1, l’andamento è oscillante a grandi distanze sia a destra che a sinistra.La soluzione dipende quindi da 2N parametri complessi, mentre abbiamo 2(N − 1)condizioni di raccordo. In totale abbiamo 2 parametri complessi, che diventano 2parametri reali se aggiungiamo il vincolo di normalizzazione e trascuriamo la faseglobale.

    • Se V2 < E < V1, a sinistra a grandi distanze abbiamo un andamento esponenziale.Dobbiamo scartare l’esponenziale che diverge in tale regione, quindi in totale abbiamo2N − 1 parametri complessi. Considerando i vari raccordi e le altre condizioni, inquesto caso la soluzione ha un solo grado di libertà.

    • Se E < V2, anche a destra abbiamo un andamento esponenziale. In totale abbiamoquindi 2N − 2 parametri complessi, e quindi in questo caso la soluzione non ha gradidi libertà. Questo significa che le soluzioni in tale regione sono in generale non norma-lizzabili. Solo alcune volte otteniamo soluzioni che rappresentano stati fisici, quindi inquesto caso ci aspettiamo uno spettro discreto dell’Hamiltoniana.

    3.10 Oscillatore armonico quantistico

    Consideriamo un sistema descritto dall’Hamiltoniana

    Ĥ =p̂2

    2m+

    1

    2mω2q̂2

    Se definiamo gli operatori

    â =

    √~

    2mωq̂ +

    i√2m~ω

    p̂, ↠=

    √~

    2mωq̂ − i√

    2m~ωp̂

    detti rispettivamente operatore di abbassamento (o di distruzione) e di innalzamento (o dicreazione), si può scrivere

    H = ~ω(â†â+

    1

    2

    )Inoltre, si può calcolare

    [â, â†] = 1

    L’operatore â†â è chiaramente positivo, dunque su un qualunque stato |ψ〉 si ha

    〈ψ|Ĥ|ψ〉 ≥ 12~ω (2)

    Alternativamente, usando la parità del potenziale si trova che su un qualunque autostato|E〉 dell’Hamiltoniana si ha

    〈E|q̂|E〉 = 0, 〈E|p̂|E〉 = 0

    Infatti la funzione d’onda ψE(x) = 〈x|E〉 è pari o dispari, quindi |ψE(x)|2 x e ψE(x)∂xψE(x)sono funzioni dispari e il loro integrale sull’asse reale si annulla. Di conseguenza, se ∆2x e

    40

  • ∆2p sono le varianze della posizione e dell’impulso, usando il principio di indeterminazionesi ottiene

    〈E|Ĥ|E〉 = 12m

    ∆2p+1

    2mω2∆2q ≥ ~

    2

    8m

    1

    ∆2q+

    1

    2mω2∆2q

    Il minimo della funzione a destra è proprio ~ω/2 e si ottiene per ∆2q = ~/(2mω). L’energia

    E0 =1

    2~ω

    è detta energia di punto zero, e come vedremo tra poco è l’energia del fondamentale. Si notiora che

    [Ĥ, â] = −~ωâ, [Ĥ, â†] = ~ωâ†

    quindi su un qualunque stato |ψ〉 si ha

    Ĥâ|ψ〉 = â(Ĥ − ~ω)|ψ〉, Ĥâ†|ψ〉 = â†(Ĥ + ~ω)|ψ〉

    In particolare, se |ψ〉 è un autostato di Ĥ a energia E, allora anche â|ψ〉 e â†|ψ〉 sono autostatidi Ĥ, con energie rispettivamente E−~ω e E+~ω. Tuttavia, a causa della disuguaglianza 2non possiamo sperare di ottenere sempre nuo